Académique Documents
Professionnel Documents
Culture Documents
D. Mercier
Le livre des
techniques du son
Notions fondamentales
Tome 1
5 e édition
Le pictogramme qui figure ci-contre d’enseignement supérieur, provoquant une
mérite une explication. Son objet est baisse brutale des achats de livres et de
d’alerter le lecteur sur la menace que revues, au point que la possibilité même pour
représente pour I’avenir de I’écrit, les auteurs de créer des œuvres
particulièrement dans le domaine nouvelles et de les faire éditer cor-
de I’édition technique et universi- rectement est aujourd’hui menacée.
taire, le développement massif du Nous rappelons donc que toute
photocopillage. reproduction, partielle ou totale,
Le Code de la propriété intellec- de la présente publication est
er
tuelle du 1 juillet 1992 interdit interdite sans autorisation de
en
Le effet expressément
pictogramme quila photoco-
figure ci-contre d’enseignement de son provoquant
I’auteur,supérieur, éditeur ou une
du
pie à usage
mérite une collectif sans autori
explication. Son -objet est Centre des
baisse brutale français d’exploitation
achats de livres et du
de
sation desleayants
d’alerter droit.
lecteur surOr,la cette
menacepratique
que droit
revues,de copie
au point que (CFC, 20, même
la possibilité rue pour
des
s’est généralisée
représente dans les
pour I’avenir deétablissements
I’écrit, les auteurs 75006
Grands-Augustins, Paris).
de créer des œuvres
particulièrement dans le domaine nouvelles et de les faire éditer cor-
de I’édition technique et universi- rectement est aujourd’hui menacée.
taire, le développement massif du Nous rappelons donc que toute
photocopillage. Couverture : Rachid reproduction, Maraï partielle ou totale,
Illustrations intérieures
Le Code de la propriété intellec- : Alain et Ursula de laBouteveille-Sanders
présente publication est
tuelle du 1er juillet 1992 interditet Rachid Maraï interdite sans autorisation de
en effet expressément la photoco- I’auteur, de son éditeur ou du
pie à usage collectif sans autori- Centre français d’exploitation du
sation des ayants droit. Or, cette pratique droit de copie (CFC, 20, rue des
s’est généralisée dans les établissements Grands-Augustins, 75006 Paris).
Le Code de la propriété intellectuelle n’autorisant, aux termes de l’article
L. 122-5, 2° et 3° a), d’une © Dunod,part, que2002, 2010, 2015
les « copies ou reproductions strictement
réservées à l’usage privé 5 rue duLaromiguière, 75005àParis
copiste et non destinées une utilisation collective »
et, d’autre part, que les analyses et les courtes citations dans un but d’exemple et
www.dunod.com
d’illustration, « toute représentation ou reproduction intégrale ou partielle faite
© Éditions Fréquences, Paris, 1987, 1990 pour les deux premières éditions
sans le consentement de I’auteur ou de ses ayants droit ou ayants cause est
illicite » (art. L. 122-4).
Cette représentation ou reproduction,ISBN 978-2-10-072422-2
par quelque procédé que ce soit, constitue-
rait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code
Le Code de lade propriété intellectuelle.
la propriété intellectuelle n’autorisant, aux termes de l’article
L. 122-5, 2° et 3° a), d’une part, que les « copies ou reproductions strictement
réservées à l’usage privé du copiste et non destinées à une utilisation collective »
et, d’autre part, que les analyses et les courtes citations dans un but d’exemple et
d’illustration, « toute représentation ou reproduction intégrale ou partielle faite
sans le consentement de I’auteur ou de ses ayants droit ou ayants cause est
illicite » (art. L. 122-4).
Cette représentation ou reproduction, par quelque procédé que ce soit, constitue-
rait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.
Préface
Les livres sur la prise de son sont très rares et toujours incomplets. Il n’existe guère
dans cette discipline d’ouvrage de référence susceptible de recouvrir tous les
domaines mis en jeu par « l’ingénieur » ou l’opérateur de prise de son. Les auteurs
de traités d’enregistrement sonore développent dans leurs écrits un des aspects de
leur talent, mais aucun n’a réellement tenté de présenter de façon exhaustive l’en-
semble des techniques qu’il est conduit à utiliser dans l’exercice de sa profession.
Au reste, qui pourrait prétendre maîtriser toutes les facettes d’un métier qui
associe de façon aussi complexe des techniques qui relèvent tout autant des
sciences de l’ingénieur que de celles de l’art.
Comme le Jupiter de la fable, le fabricateur souverain dut créer les preneurs de
son… besaciers tous de même manière ; il fit pour leurs techniques la poche de
devant et celle de derrière pour leur inspiration et leur créativité.
Car la prise de son cesse d’être une simple technique dès lors que le message
sonore est destiné à être reçu et interprété par le cerveau. Elle devient alors une
expression qui affecte la sensibilité de l’individu au même titre que toute autre
forme d’interprétation créatrice.
Et il faut bien reconnaître que cette composante est certainement la moins bien
comprise ou la plus difficile à exprimer dans la prise de son contemporaine.
Confiants dans les évolutions technologiques, les opérateurs, comme les consom-
mateurs ont trop souvent la tentation de se reposer sur les performances infail-
libles des machines. Ils pensent, sans se départir de leur sens critique, que certains
labels offrent toutes les garanties, que la copie sera conforme à l’original.
Mais la recherche exclusive de cette conformité constitue un contresens fonda-
mental du rôle de l’ingénieur du son. Non seulement parce que la restitution
IV Le livre des techniques du son
« fidèle » est une utopie mais aussi et surtout parce qu’elle n’a pas sa place dans un
processus d’interprétation ou de création.
Les musiciens connaissent bien le problème de la restitution d’une œuvre et de
nombreux mélomanes s’accordent à penser que l’asservissement à l’esprit d’un
auteur, au style d’une époque ou au respect formel des timbres instrumentaux
d’origine, semble un débat quelque peu dépassé (la meilleure interprétation du
Sacre est-elle celle de Stravinsky ?). Une notion que l’on pourrait traduire par un
raccourci un peu schématique en admettant que la restitution (trop) fidèle d’une
œuvre sonore peut être aussi limitée sur le plan expressif qu’une photographie
aérienne : peut-on la comparer à l’œuvre d’un paysagiste ?
Car l’intégrité du message sonore initial est non seulement illusoire mais inutile et
encombrante… L’oreille qui possède de remarquables capacités d’adaptation à son
environnement a pour habitude de sélectionner une partie des informations – dans
le temps comme dans l’espace – pour les amplifier, les moduler ou les classer afin de
mieux les intégrer dans le contexte suggéré par l’œuvre ou imaginé par l’auditeur.
Cette plasticité auditive permet au sujet d’interpréter le message et de hiérarchiser
les informations qu’il contient. Dès que le cerveau a reconnu leur signification
cognitive, culturelle ou affective, il leur attribue des valeurs relatives qui deviennent
indépendantes de la nature du message et de la voie sensorielle empruntée. Ainsi,
dans la perception d’une œuvre audiovisuelle la conjugaison des signaux reçus par
les canaux auditifs et visuels déclenche généralement une « image » intégrée ou
conceptuelle qui est perçue par le sujet comme une entité indissoluble.
Ceci est vrai pour des informations cohérentes (le chant du coq, le grincement
d’une porte…) ou complémentaires (hôtel du port accompagné du cri de la
mouette), mais aussi très souvent, pour des informations non corrélées. Dans ce
dernier cas, l’association d’un élément auditif avec un élément visuel ne présen-
tant, a priori, pas de rapport direct, peut compléter, enrichir ou souligner par
« contrepoint » la signification initiale de l’image.
Par exemple, dans la dernière séquence des Visiteurs du soir la perception simul-
tanée des statues de pierre et des battements de cœur, loin de constituer un
détournement réciproque de l’image et du son incite le spectateur à découvrir
une signification originale du message proposé. Il pourra, selon sa sensibilité ou
son raisonnement, interpréter la séquence en termes subjectifs (émotion du
sujet), objectifs (présence ou prolongement de la vie au sein de la pierre) ou
fantastique (lecture purement surréaliste de l’œuvre).
La suggestion est un processus actif qui stimule l’imagination du spectateur et
touche sa sensibilité. Le message est enrichi par la participation du sujet et son
apport inconscient. Il se trouve alors mis en valeur et mémorisé… Ainsi, le détail
Préface V
suggéré par le son a-t-il souvent plus de poids dans ses conséquences perceptives
que la restitution intégrale de tout un contexte auditif.
Par ailleurs, les images sonores ont un retentissement différé dans le temps bien
souvent supérieur à celui des images visuelles. La mémoire auditive à long terme
peut présenter des performances surprenantes et faire réapparaître avec une
brièveté fulgurante des visions ou des évocations très anciennes. C’est par le biais
de telles résonances qu’une œuvre atteint sa maturation au cœur des esprits.
Ainsi, si l’auteur assure la maîtrise de son discours par la sélection – a priori –
d’éléments pertinents dans une continuité narrative, il doit en être de même pour le
preneur de son. En tant que maillon d’un processus de création, il a pour mission de
réinterpréter le message sonore en anticipant sur toute la séquence de traitement
ultérieur et de diffusion du signal. Il doit connaître à tout moment les conditions de
restitution et d’écoute du son afin de faire une présélection qui tienne compte aussi
bien des distorsions possibles au cours du transfert que des conditions habituelles
de diffusion de l’ouvrage. Combien d’intentions réalisées à la perfection dans un
studio ont-elles disparu lors de la présentation de l’œuvre au public ?
À aucun moment, le rôle de l’opérateur de prise de son ne peut et ne doit se limiter à
une mise en œuvre passive de techniques de routine. Si la recherche d’une bande
correcte, musicale ou intelligible est une des priorités impératives du métier, elle est
loin d’être suffisante pour donner au message son caractère expressif et créateur.
Trop souvent la production – car c’est à ce niveau que se situent les carences –
conçoit l’enregistrement sonore d’une œuvre audiovisuelle comme un accompa-
gnement narratif ou illustratif de l’image. D’où l’apparition de procédés répétitifs
et monotones qui neutralisent la réceptivité et la fascination. Il en résulte une
uniformité des productions qui affecte même, le plus souvent, la retransmission
des concerts ou, pire, des œuvres lyriques.
Mais l’enregistrement des sons est une discipline fallacieuse car le matériau qui doit
être façonné est composé d’une substance impalpable que l’on nomme le champ
acoustique.
© Dunod – Toute reproduction non autorisée est un délit.
Immatérielle et invisible, l’onde sonore possède la vertu d’être partout. Elle emplit
l’espace, contourne les obstacles, traverse les parois. Elle est omniprésente et peut
revêtir dans un environnement donné une infinité de formes diverses. Quiconque
veut la capter et l’enregistrer peut le faire à tout moment et en tout point de l’espace.
Cette apparente facilité stimule les vocations et favorise la génération spontanée
de nombreux « manipulateurs » de son parmi lesquels on peut même compter les
automates toutes catégories qui envahissent les marchés de l’audiovisuel (ce qui
montre le niveau de compétences nécessaire pour effectuer une simple mise en
boîte d’échantillons sonores).
VI Le livre des techniques du son
C’est dans cet esprit que Le livre des techniques du son a été conçu et mis en œuvre.
Conscient de l’importance de la pluridisciplinarité de la profession, Denis Mercier
n’a pas cherché le spécialiste capable de traiter tous les aspects du métier, (qu’il
n’aurait d’ailleurs pas trouvé) il a préféré s’adresser à divers professionnels plus
particulièrement intéressés dans l’un ou l’autre des secteurs concernés. D’où cet
ouvrage collectif qui répond bien à une double finalité : donner au preneur de son
la possibilité de compléter ses connaissances dans les domaines qui lui sont le
moins familier, et disposer d’un ouvrage de référence où il puisse chercher les
réponses à des questions fondamentales d’ordre technique, technologique ou
perceptif.
Le lecteur y trouvera la plupart des éléments qu’il peut être amené à utiliser dans
l’exercice de cette discipline. Il pourra parcourir l’ouvrage dans le but d’acquérir
ou de retrouver des notions fondamentales sur l’acoustique, la perception, la
nature ou le traitement du signal enregistré. Il pourra compléter cette première
approche par une étude plus détaillée des techniques mises en œuvre dans la
réalisation d’un document sonore : aménagement ou traitement du local de prise
de son, choix du matériel, modalités d’acquisition, de stockage et de restitution
des informations sonores, etc. Il trouvera également un vaste éventail des techno-
logies classiques ou récentes, analogiques ou numériques, qui lui permettront de
mieux comprendre les évolutions rapides qui apparaissent à tous les niveaux des
processus d’enregistrement, de transfert et de diffusion des signaux sonores.
Cet ouvrage s’adresse donc à l’amateur averti tout autant qu’au professionnel
soucieux de combler quelques lacunes. Il offre une panoplie d’informations
complexes et variées, mais l’acquisition de toutes ces notions ne doit nullement
constituer le but ultime du preneur de son.
Ce dernier ne doit, en aucun cas, oublier que l’outil ne génère pas l’artisan. La
pratique du métier, quelle que soit l’importance des moyens techniques qu’elle
implique, est soumise aux mêmes règles et contraintes que tout autre instrument
d’expression au service de la communication créative. Elle exige maîtrise, ferveur
et imagination, et, dans ce domaine, plus encore que dans celui qu’évoquait Joffre :
« pour pouvoir peu, il faut savoir beaucoup et bien ».
Jacques Jouhaneau
À Émile Leipp et Jean Pujolle
en souvenir de leurs travaux.
Table des matières
Avant-propos XVII
2.2 Dynamique 53
2.2.1 L’oreille et les dB : le crescendo instrumental 53
2.2.2 Sons impulsifs 54
2.2.3 La gamme dynamique de quelques instruments 54
2.3 Rayonnement des sources acoustiques 56
2.3.1 Données physiques sur le rayonnement des sources en champ libre 56
2.3.2 Données sur les modes vibratoires des tuyaux,
et des plaques et membranes 57
2.3.3 Les méthodes d’études globales de la directionnalité 60
2.4 Timbre(s) des sources 65
2.4.1 Définitions : timbre identitaire et timbre qualitatif 65
2.4.2 Problèmes posés par l’étude acoustique du timbre 65
2.4.3 Analyse acoustique des deux constituants du timbre :
identité et qualité 69
2.4.4 Champ de liberté en timbre des instruments de musique 72
2.4.5 Timbre, sonorité et émergence 73
2.5 Tessiture et contenu spectral 74
2.5.1 Définitions 74
2.5.2 Exemples 74
2.6 Voix parlée, voix chantée 76
2.6.1 Le signal vocal 76
2.6.2 L’intelligibilité de la parole 77
2.6.3 L’esthétique de la voix parlée ou chantée 79
2.6.4 Rayonnement de la voix chantée 81
2.6.5 Portée de la voix (sans micro) 81
2.7 Conclusions 82
2.8 Bibliographie 83
Chapitre 5 – Le signal
Index 503
© Dunod – Toute reproduction non autorisée est un délit.
Collectif d’auteurs sous la direction de Denis Mercier
Denis Mercier
Preneur de son, réalisateur sonore sur des productions disques, films, spectacles,
etc. Enseignant à l’ESAV de Marrakech. Ancien responsable des stages « son »
de formation continue à Auvigraph, ENS Louis-Lumière.
Écrire un livre sur le son, c’était nouveau lorsque nous avons entrepris ce projet à
la fin des années 1980. Depuis de l’eau a coulé sous les ponts, les technologies dans
le domaine de l’audio professionnel et de la communication ont évoluées à une
vitesse faramineuse. On peut trouver des informations sur Internet, visiter le site
d’un constructeur et visionner un tutoriel en ligne, et c’est vraiment très pratique...
mais lorsque l’on cherche une information précise, validée, avec des schémas
utiles, un index complet et des développements rédigés par des professionnels
confirmés... un livre technique de référence reste une valeur sûre. D’où notre
souci de réactualiser le Livre des techniques du son en proposant cette cinquième
édition remise à jour.
En effet, pour travailler sérieusement dans les métiers du son, la connaissance des
notions fondamentales s’avère un instrument indispensable. C’est pourquoi nous
avons conservé les bases théoriques dans ce premier volume, présentées sous une
forme accessible. Il reste certes quelques équations mais elles sont là pour
permettre de mieux comprendre les phénomènes avec les différentes compo-
santes et les ordres de grandeur. C’est ainsi que le chapitre 6 sur les notions fonda-
mentales de l’électricité et les fonctions de l’électronique a été entièrement revu
par un nouvel auteur qui enseigne dans une grande école.
Je profite d’ailleurs de l’occasion pour remercier l’ensemble des auteurs, ceux qui
ont rédigé les chapitres de cette édition mais aussi ceux qui ont travaillé sur les
éditions précédentes. En effet leur disponibilité et leur souci d’être toujours à la
pointe dans leur domaine sont les dénominateurs communs de l’investissement
de ce collectif d’auteurs.
XVIII Le livre des techniques du son
Ce tome 1 sur les notions fondamentales est le premier de la série de trois. Des
renvois permettent de replacer chaque notion en face des technologies et des
modes d’exploitation qui sont présentés dans les autres volumes de cette collec-
tion.
Les titres des chapitres du tome 2 La technologie sont les suivants : 1 Introduction
à la technologie audiofréquence – 2 Les microphones – 3 Les enceintes acous-
tiques – 4 Les consoles – 5 Le traitement du son – 6 Les systèmes d’enregistre-
ment et les réseaux audio – 7 La synchronisation – 8 Les sources électroniques et
le MIDI – 9 Analogies.
Et les titres des chapitres du tome 3 L’exploitation sont : 1 La prise de son stéréo-
phonique – 2 Les supports audio – 3 Le studio d’enregistrement – 4 La sonorisa-
tion – 5 Le théâtre – 6 La radio – 7 Le cinéma sonore – 8 La télévision.
Que cet ouvrage continue à servir de référence dans les studios, les audits, sur les
plateaux de théâtre et de cinéma… dans les écoles et les stages de formation… en
France mais aussi partout dans le Monde.
C’est tout ce que nous souhaitons et ce pourquoi nous avons œuvré.
Bonne lecture, et bonne séance, bon spectacle… ou bon tournage !
Denis Mercier
Chapitre 1
Acoustique fondamentale
Patrice Bourcet
Ingénieur CNAM. Ancien responsable des programmes
de recherche du centre R&D de TDF à Metz
(en collaboration avec Pierre Liénard pour les précédentes éditions)
La difficulté mais aussi l’intérêt de cette recherche résident dans le fait que cause
et effet appartiennent à des domaines différents : physique, physiologie, psycho-
logie, sociologie et art (musique et architecture). Il faut prendre conscience de
cette répartition pour comprendre à la fois le discours d’un physicien et celui d’un
musicien (et du spécialiste des salles d’écoute…) lorsqu’ils parlent du son.
Objectivement, le son est un phénomène physique d’origine mécanique, une pertur-
bation locale de pression, de vitesse vibratoire ou de densité de fluide, qui se propage
en modifiant progressivement l’état de chaque élément du milieu ébranlé, donnant
ainsi naissance à une onde acoustique, onde dont l’image classique est celle des ronds
dans l’eau. La vitesse avec laquelle se propage cette perturbation, ou célérité du son,
est caractéristique du milieu de propagation et de son état thermodynamique.
Subjectivement, le son est une sensation traduisant la perception par le cerveau d’un
événement qui véhicule une information en provenance du monde extérieur.
Notons que même en nous limitant au milieu que constitue l’air ambiant, toutes
les vibrations de nature acoustique (ondes de pression) ne donnent pas forcé-
ment une sensation auditive. Certaines seront imperceptibles, car trop faibles,
d’autres seront trop lentes (infrasons : au-dessous de 20 ou 25 oscillations par
seconde) ou trop rapides (ultrasons : au-dessus de 15 000 ou 20 000 oscillations
par seconde), limites variables d’ailleurs suivant les individus et leur âge.
Mais revenons un instant sur l’image classique des ronds dans l’eau (figure 1.1). Pour
autant qu’elle soit de nature à développer la compréhension physique du phénomène
de propagation, cette image est celle d’une onde dite transversale. En effet, le caillou
qui tombe dans l’eau et qui provoque l’ébranlement initial de la surface de l’eau au repos
est essentiellement un mouvement perpendiculaire au plan de l’onde qui en découle.
Le caillou joue le rôle de source ou d’émetteur de l’onde.
déplacement transversal
du bouchon flotteur
propagation
de l'onde
longueur d'onde
point d'impact
du caillou
amplitude
propagation
de l'onde
Figure 1.1 — L’image classique des ronds dans l’eau avec le phénomène
de propagation des ondes transversales.
Chapitre 1 – Acoustique fondamentale 3
Le bouchon de la ligne d’un pécheur situé un peu plus loin, sensible à cette onde,
jouera le rôle de récepteur de l’onde et va se mettre à osciller sur place, effectuant
un mouvement perpendiculaire à la direction de déplacement de l’onde.
Dans cette analogie avec une onde acoustique, ce qu’il faut retenir est le fait que
c’est bien une réplique de la perturbation initiale qui se propage de l’émetteur au
récepteur et non la matière elle-même. Pour preuve, le bouchon ne se déplace pas
dans la direction de propagation, il n’y a pas de courant d’eau, de même que pour
une onde acoustique il n’y aura aucun courant d’air.
Par contre, il existe une différence importante dans la mesure où l’onde acous-
tique est une onde dite longitudinale, ce qui signifie que la perturbation initiale
est un mouvement ayant la même direction que celle de la propagation de l’onde
(figure 1.2). En conséquence, un élément sensible à cette onde, capable de jouer le
même rôle de récepteur que notre bouchon dans l’eau, va se déplacer en oscillant
parallèlement à la direction de déplacement de l’onde. C’est exactement ce que
fait, par exemple, le tympan de notre oreille stimulée par une onde sonore.
y
S
© Dunod – Toute reproduction non autorisée est un délit.
en gare est une information utile, alors qu’une mélodie entendue à travers une
cloison quand on veut s’endormir est un bruit « perturbateur ».
Le problème de savoir si le spectre fréquentiel d’un signal acoustique est un
spectre de raies (c’est-à-dire constitué d’un certain nombre de fréquences
distinctes ou fréquences pures) ou bien un spectre continu (c’est-à-dire constitué
d’une infinité de fréquences réparties suivant une certaine densité) est en fait
étroitement lié au degré d’approximation que l’on se donne.
Cette approximation peut être soit d’ordre théorique, soit d’ordre expérimental
(dans le cas de l’analyse spectrale au moyen d’appareils de mesure).
En toute rigueur, les spectres de raies n’existent que sur… le papier. En effet, une
fréquence pure (en acoustique une oscillation sinusoïdale de pression) n’est stric-
tement un son pur (son entièrement défini par une sinusoïde) que si sa forme est
parfaitement sinusoïdale.
Toute altération de la forme d’une sinusoïde est significative de la présence…
d’autres sinusoïdes.
• Si l’altération conserve au signal sa périodicité, les autres « sinusoïdes »
sont harmoniques 2f, 3f, 4f, … nf, donc encore des fréquences pures.
• Si l’altération est elle-même périodique, mais sans rapport simple avec la
périodicité de la fréquence fondamentale f, les autres « sinusoïdes » sont
des partiels donc toujours des fréquences pures.
• Par contre, si l’altération est quelconque ou réside tout simplement dans le
fait inévitable que notre sinusoïde doit avoir en pratique un début et une
fin, les « autres sinusoïdes » sont alors nécessairement sous la forme d’une
densité spectrale assimilable à une infinité de sinusoïdes.
Il en résulte qu’utiliser la notion de fréquence pure ou de spectre de raies, c’est
nécessairement faire abstraction de phénomènes tels que l’établissement ou l’ex-
tinction d’un son et plus généralement de tout ce qui est transitoire pendant la
durée de vie d’un signal.
© Dunod – Toute reproduction non autorisée est un délit.
2π M
d’imaginer ne fonctionne que sur le papier car ce serait le mouvement perpétuel.
Si on essaye de valider réellement un tel système, en accrochant par exemple une
masse M à l’extrémité d’un ressort K, dont l’autre extrémité est fixée à un support
(figure 1.4), on s’aperçoit qu’il n’est jamais possible de négliger totalement, comme
nous l’avons fait, les pertes d’énergie notamment par frottement. Il nous faut donc
introduire en plus des termes d’inertie (masse M) et d’élasticité (inverse de la
1
raideur, ) un troisième terme « de frottement » comportant un coefficient b
K
pour tenir compte des inévitables pertes du système.
8 Le livre des techniques du son
Pour ne pas décourager dès les premières lignes de ce livre, le lecteur peu familier
des mathématiques, l’étude détaillée du mouvement d’un oscillateur élémentaire
a été reportée en annexe (A4.1 à A4.4), ce qui ne nous empêche pas ici de présenter
les idées essentielles qui découlent de cette étude.
Systèmes couplés
1.3.1 Généralités. Modes vibratoires
L’étude de l’oscillateur simple, à 1 degré de liberté, permet de bien préciser les
phénomènes essentiels. Mais bien peu de systèmes réels peuvent être représentés
par ce modèle simple et il est rare qu’un système vibrant n’ait qu’un seul degré de
liberté. Il suffit par exemple d’ajouter une masse au milieu du ressort de la
figure 1.3 pour obtenir un système à deux degrés de liberté (les mouvements des
deux masses) couplés, car les deux ressorts (élasticité) et les deux masses (inertie)
réagissent les uns sur les autres.
10 Le livre des techniques du son
Un corps même indéformable, libre dans l’espace, tel un aéronef (figure 1.5) peut
se déplacer suivant trois axes (avancement, montée-descente, dérapage) et
osciller autour de ceux-ci (roulis, tangage, lacet), soit 6 degrés de libertés, couplés
par les réactions aérodynamiques.
Z
Même si une partie d’un système peut être assimilée à un oscillateur simple, elle
a cependant des liaisons avec d’autres parties, et son fonctionnement ne peut être
envisagé isolément : il y a « couplage » car elle réagit aussi sur les efforts que les
autres lui appliquent. Le comportement d’ensemble ne peut plus être considéré
comme une simple juxtaposition du comportement de chacune de ses parties.
Enfin, peu de systèmes réels possèdent une raideur K, ou un amortissement b
constant, quelles que soient l’élongation ou la vitesse : on dit qu’ils sont « non
linéaires » c’est ainsi que le caoutchouc présente une raideur croissante avec l’ef-
fort appliqué en compression.
Le comportement de ces oscillateurs est plus complexe que celui décrit dans l’an-
nexe ; on retrouve néanmoins les phénomènes de fréquences propres et de réso-
nance ; il apparaît en plus des modes « vibratoires » et des anti-résonances
(passage d’amplitude par des minimums). Mathématiquement, les problèmes
sont décrits par des équations différentielles analogues à celles de l’oscillation
simple (voir annexe), mais « non linéaires » car les coefficients K, b, ne sont plus
constants mais variables avec amplitude ou vitesse, et des équations de couplage
expriment les liaisons de diverses parties. Ces équations sont résolubles analyti-
quement dans les cas simples, telles que figures 1.6 et 1.7 et numériquement par
Chapitre 1 – Acoustique fondamentale 11
limites » :
• Extrémité libre : il ne peut y avoir aucune force appliquée après la dernière
masse, celle-ci restituera donc toute son énergie cinétique au ressort de qui
elle l’a reçue, et le mouvement repartira en sens inverse.
• Extrémité fixe : il ne peut y avoir aucun mouvement au bout du premier
ressort : celle-ci restituera donc toute son énergie potentielle à la masse de
qui elle l’a reçue et l’onde repartira comme précédemment.
16 Le livre des techniques du son
E
c= (1)
ρ
τ
c= ( 4)
µ
À partir de cela, on trouve la fréquence fondamentale de vibration d’une corde de
longueur L, de tension et masse linéique , par L = /2.
c 1 τ
F= = (5)
2L 2L µ
c
avec λ = (6)
f
(N.B. : cette relation de la fréquence (hauteur totale) d’une corde avec sa longueur
avait déjà été entrevue par Platon, puis trouvée expérimentalement par Galilée,
Mersenne, Sauveur, Savart… et exploitée sous sa forme mathématique par
d’Alembert, Euler, Daniel Bernoulli et bien d’autres…)
Cette relation entre , c et f est également valable pour les ondes sonores dans l’air.
Nous avons introduit, avant ces équations, l’hypothèse des petits mouvements. Si
les mouvements deviennent importants ou la période spatiale trop petite
devant la dimension des cellules élémentaires L, le système n’est plus « linéaire »
au sens mathématique du terme, et la vitesse de propagation des ondes c varie
avec la fréquence f. On dit que le système est dispersif.
Une corde fixée aux deux extrémités, d’impédance infinie, devra donc contenir
exactement un nombre n entier de demi-longueur d’onde : n = 1 pour le mode
fondamental, sans nœud intermédiaire (mode 0 ou 1 suivant les auteurs), n = 2
pour le mode à nœud (mode 1 ou 2), etc.
Ce sont des éléments mécaniques ayant une certaine surface, limitée par un
contour fermé, et d’épaisseur très petite par rapport aux dimensions transver-
sales. Les conditions aux limites sur le contour sont, comme pour les cordes et
barres : posées, libres ou encastrées, ou liées à une impédance donnée.
Une membrane idéale présente une rigidité nulle à la flexion. Elle est générale-
ment soumise à des tensions : une plaque possède une rigidité propre détermi-
nant sa forme au repos (par exemple plane). Membrane et plaque peuvent donc
être représentées comme l’extension à deux dimensions des cordes et des tiges
respectivement.
18 Le livre des techniques du son
m τ
fm = (7)
2a µ
et celles correspondant à la largeur b :
n τ
fn = (8)
2b µ
m et n étant des nombres entiers.
Pour une membrane réelle, ces deux séries de fréquences correspondent au cas
particulier d’ondes stationnaires dues à une interférence constructive des mouve-
ments se propageant dans une direction parallèle à l’un des côtés de la membrane.
Nous savons que ceci se produit chaque fois que la longueur libre à parcourir par
les ondes entre deux nœuds de vibration imposés est un multiple entier d’une
demi-longueur d’onde. Il est bien évident que cette condition peut être satisfaite
pour de nombreux parcours ayant une direction non parallèle à l’un des côtés.
Cette possibilité, qui est une conséquence directe de l’adjonction d’une nouvelle
dimension de propagation, introduit une troisième série de fréquences propres
fm . n. On peut facilement vérifier que l’ensemble des fréquences est donné par :
Chapitre 1 – Acoustique fondamentale 19
1 τ m2 n2
fm.n = + (9)
2 µ a2 b2
avec m = 1, 2, 3… et n = 1, 2, 3…
est la tension superficielle, , masse linéique commune aux éléments de corde
orthogonaux, est la masse surfacique dans le cas d’une membrane continue.
Cette série de fréquences est plus importante que celle définie par (5) et ne forme
pas de suite harmonique, en raison du radical contenant les m2 et les n2. Les
nombres m, n, définissent le mode vibratoire de la membrane. Comme on a défini
sur la corde des nœuds et des ventres, il se dessine sur une membrane des lignes
nodales enfermant des éléments de surface qui vibrent en phase.
Les figures vibratoires dépendent non seulement des dimensions (a et b pour une
membrane rectangulaire) et m et n, mais aussi des conditions aux limites : bords
libres, appuyés ou encastrés. La figure 1.10 donne à titre d’exemple quelques
déformées modales d’une membrane rectangulaire.
m=2 n=1
m=2 n=2
© Dunod – Toute reproduction non autorisée est un délit.
Les barres vibrantes ont été étudiées d’abord par Lissajous, les membranes et
plaques par Savart pour connaître l’émission sonore du violon (il a même inventé
un violon trapézoïdal très simple et paraît-il aussi bon qu’un stradivarius… mais
il n’a pas eu de succès !) puis par Chladni. Une étude récente complète est publiée
par Morse et Ingard [5].
20 Le livre des techniques du son
ωr
Z (r , θ,t ) = A cos m θ Jm cos ωt (10)
c
Le premier coefficient A est une amplitude arbitraire, dépendant du mouvement
à l’origine du temps.
Chapitre 1 – Acoustique fondamentale 21
Les intersections de ces courbes avec l’axe y = 0 donnent les n solutions de Jm(x) = 0.
Les modes vibratoires d’une membrane circulaire sont donc définis par ces
nombres (entiers) m et n.
Pour chacun des modes m, n, la pulsation qui figure dans la variable de Jm(10)
est fixée par cette relation :
ωt x τ
xn = soit fn = n (11)
c 2πr µ
22 Le livre des techniques du son
∆d ∆L
σ= (12)
d L
qui figurera aussi dans les expressions de vibrations et de fréquences propres des
plaques. Par exemple, les fréquences propres d’une plaque rectangulaire, a b,
d’épaisseur h, appuyée sur son périmètre et de masse volumique , sont données,
pour chaque mode m, n par :
m2 n2 πh E
fmn = 2 + 2 (13)
a b 4 3ρ (1 − σ )
2
Chapitre 1 – Acoustique fondamentale 23
(on comparera avec l’équation (9) pour les membranes). La fréquence fondamen-
tale d’une plaque circulaire du rayon R ayant ses bords encastrés sans tension,
est :
h E
fo1 = 0, 46 (14)
R ρ (1 − σ 2 )
2
1.3.5 Notions sur les vibrations et les ondes dans les corps solides
Si l’épaisseur h précédente devient grande par rapport aux autres dimensions,
nous obtenons un solide dans lequel des vibrations ou ondes sonores peuvent se
propager dans tous les sens, avec des formes modales extrêmement nombreuses,
dépendant des conditions aux limites. L’expression des amplitudes et des
fréquences devient très compliquée, toujours en fonction des modules E et .
Plusieurs cas simples sont plus aisés à étudier :
E
c=
ρ
m2 n2 p 2
© Dunod – Toute reproduction non autorisée est un délit.
a 2 + b 2 + c 2 F ( E , ρ, σ )
et fonctions des modules d’élasticité et de la masse volumique ; et les plans nodaux,
parallèles aux parois, correspondent à :
On conçoit que les modes vibratoires d’un solide puissent être très nombreux, en
raison des combinaisons possibles des valeurs m, n, p, entiers mêmes faibles
(1, 2, 3…). On retrouvera des considérations très analogues pour les fréquences
propres d’ondes aériennes dans une salle rectangulaire.
m2 n2 p 2
On notera que le facteur dimensionnel 2 + 2 + 2 intervient avec l’expo-
a b c
sant 1 pour les plaques (il n’y a alors que m et n) et pour les solides, avec l’exposant
1/2 pour les membranes et dans les salles.
γp
c= 20 Ta (valeur numérique dans l’air)
ρ
soit 330 m/s à 0 °C, 340 m/s à 16 °C, etc.
Par suite de ce transfert dans l’espace à la vitesse c (1), des points vibrants avec la
même phase, on observera une périodicité spatiale de longueur d’onde , et ces
diverses grandeurs sont reliées par :
c
λ = cT =
f
Les déplacements qui, à tout instant, varient de la même façon et présentent des
maximums et minimums simultanés, sont dits « en phase ».
La propagation d’un ébranlement dans une chaîne de masses et ressorts, dans
une corde vibrante ou à la surface de l’eau agitée en un point, donne une image de
ces ondes sonores.
La création d’une onde et ses interactions avec des objets susceptibles de perturber
sa propagation sont essentiellement tributaires des relations géométriques entre
la longueur d’onde et les dimensions des objets considérés. C’est pourquoi on
verra souvent apparaître des rapports /d, ou 2r/ dans les calculs… (nombres
sans dimension, simples rapports indépendants des unités choisies).
On peut distinguer trois cas pratiques :
• Grandes longueurs d’ondes : /d >> 1, ou 2r/ petit, négligeable… ce qui
simplifiera agréablement les calculs ! Les divers points, à distance r les uns
des autres, seront pratiquement « au même point » de la sinusoïde, donc en
phase.
• Petites longueurs d’ondes : /d négligeable.
• Longueur d’onde du même ordre de grandeur que les objets : /d ni « petit »
ni « très grand ».
Le son audible le plus grave, correspond à une vibration dont la longueur d’onde
dans l’air à 16 °C est de l’ordre de 17 m (fréquence 20 Hz et c = 340 m/s). Le son le
plus aigu (20 000 Hz) correspond à = 17 mm, soit un rapport de 1 000 entre la
plus grande et la plus petite de ces longueurs.
De même, au cours de sa propagation, sur une distance L, l’onde peut subir des
modifications importantes, même sans rencontrer d’obstacles. Le rapport L/
nous définira alors : le champ proche L/ << 1, donc proche de la source, et le
champ lointain L/ >> 1, dans lequel en général le rapport d/ des dimensions de
la source à la longueur d’onde sera lui aussi petit (d/ << 1).
Chapitre 1 – Acoustique fondamentale 27
C’est pourquoi, à l’échelle humaine dont les objets usuels et les distances sont dans
des proportions différentes, les ondes sonores donneront lieu à des phénomènes
extrêmement variés ; cette variété n’est pas le signe d’une nature physique
complexe mais beaucoup plus simplement une conséquence géométrique du
rapport longueur d’onde-dimensions.
Quelles que soient les sources sonores et leur répartition, elles produisent en
chaque point de l’espace une pression instantanée p(t), fluctuante, représentant
les fluctuations mêmes de la source, qui s’ajoute à la pression atmosphérique,
mais de valeur très petite pour les sons usuels : de l’ordre du milliardième… et des
« surpressions » acoustiques de l’ordre du dix millième de la pression atmosphé-
rique sont déjà assourdissantes !
Cette pression p(t) ayant une moyenne nulle dans le temps, on considère sa valeur
efficace ou valeur quadratique moyenne, dite « pression acoustique ».
pe = p 2 ( t )
Dans l’onde sonore propagée, les molécules sont agitées d’une vitesse vibratoire,
très petite également, de valeur moyenne nulle, qui varie dans le temps comme la
pression, avec les mêmes fréquences, soit u(t), dont la valeur efficace est :
ue = u2 ( t )
Cette vitesse u est un vecteur (quantité orientée) qui a trois composantes dans
l’espace. Cette orientation, qui commande celle de l’intensité propagée, a une
conséquence, lors de la prise de son, sur l’orientation et la sensibilité des micro-
phones, et celle-ci variera avec le rapport 2r/, r étant le rayon du microphone.
Bien que la pression p et la vitesse vibratoire u varient avec le même « dessin »
fréquentiel, en fonction du temps (et de l’espace), elles ne sont pas forcément en
phase, mais présentent un décalage ; le rapport p/u est dit complexe (il est défini
© Dunod – Toute reproduction non autorisée est un délit.
I = p ⋅ u (15)
p p2e
Z= = ρo c I = p ⋅u = = ρocue 2 (17)
u ρo c
1. Le terme correct serait immixtion. L’orthographe semble avoir été adoptée par transcription du mot anglais,
et par symétrie avec « émission ».
Chapitre 1 – Acoustique fondamentale 29
et aussi son crâne et même tout son corps (qui perçoit les ondes infrasonores
intenses). Les ondes sonores peuvent faire vibrer des surfaces élastiques en y
développant des contraintes qui peuvent être dangereuses dans le cas de niveaux
sonores élevés, allant parfois jusqu’à la rupture (grosses canalisations de fluides
turbulents sous pression) ou au moins des phénomènes de fatigue des maté-
riaux.
L’homme perçoit une sensation de force sonore que l’on appelle sonie ou bruyance,
une sensation de hauteur tonale (tonie) dépendant surtout de la fréquence du son
perçu, ainsi que celle du timbre, qui dépend de la composition fréquentielle du
son.
Ces phénomènes produisent soit une sensation agréable, s’il écoute une
musique qui lui plaît, soit une information par la parole ou divers signaux, soit,
si ce bruit ne convient pas à ce qu’il veut faire, ou est trop intense, une gêne qui
peut avoir des conséquences sur les conditions de travail, sur son efficacité, ou
sa sécurité ; si ce bruit est assez intense, il conduit à une fatigue auditive ou
perte temporaire d’audition, récupérable avec un peu de repos. Si l’intensité
dépasse un certain seuil, et avec une longue durée d’exposition (plusieurs
heures par jour), on observe la surdité professionnelle (dont les musiciens ne
sont pas exempts, en raison de l’intensité sonore à laquelle ils sont parfois
soumis) (voir § 4.3.3).
son parce qu’ils mettent en mouvement les particules d’air à leur contact, et à
partir d’elles, les particules voisines d’où les ondes sonores. Dans les instruments
à vent, un flux d’air (immobile en moyenne, ou à vitesse très faible, celle du souffle)
est modulé en vitesse et l’embouchure rayonne de même.
Il est à noter que la corde seule (du violon, du piano) n’émettrait qu’un son très
faible, car sa surface est minime et elle n’actionne que très peu de molécules mais
par ses attaches, elle fait vibrer la table de résonance, qui actionne une surface
importante. On se rend compte de même qu’un diapason métallique tenu en l’air
émet très peu de son, mais rayonne dès qu’on pose sa queue sur une table.
30 Le livre des techniques du son
Nous avons dit précédemment (§ 1.4.2) que l’émission sonore venait de variations
de débits, ou de forces, ou de contraintes. Nous avons là trois sortes de sources qui
ont des expressions mathématiques et des propriétés de « rendement » acous-
tiques et de rayonnement, tout à fait différentes.
La première est la source simple (monopole) qui est une variation de débit,
comme celui d’une sirène. Elle est figurée par une petite sphère de centre fixe,
dont le rayon (donc le volume) varie dans le temps, périodiquement ou non.
Elle rayonne dans toutes les directions, de manière isotrope ; comme elle n’a
aucune direction privilégiée d’émission, elle est dite d’ordre zéro (ceci est justifié
aussi par des considérations mathématiques d’ordre de dérivation).
Elle rayonne comme des ronds dans l’eau, et son efficacité acoustique est assez
grande (figure 1.14).
Plaçons très près l’une de l’autre deux sources en opposition de phase : c’est un
doublet, suivant le même modèle qu’en électromagnétisme ou électrostatique. Il
rayonne avec un plan d’émission maximal, et la ligne nodale, unique, orthogonale
à ce plan est une direction d’intensité (théoriquement) nulle. C’est donc une
source d’ordre 1.
Ce doublet est représenté par une petite bille qui, au lieu d’être une boule qui se
dégonfle, sans que son centre bouge, est une sphère de rayon constant, mais qui
oscille. Cette source est due à une fluctuation de force. Son efficacité acoustique
Chapitre 1 – Acoustique fondamentale 31
est plus faible que celle de la source simple, puisque les deux éléments qui la
constituent se contredisent partiellement.
un débit pulsé d’air : ce sont des sources d’ordre zéro, de grande efficacité acous-
tique.
Une paroi (tôle de machine ou caisse d’un violon) vibrant sur un mode élevé
(ayant de nombreuses lignes nodales) est une source d’ordre élevé, donc rayon-
nant moins, et avec une directivité plus compliquée.
Enfin, en aérodynamique, les flux de gaz très turbulents (jets de réacteurs),
comportent des sources d’ordre élevé, et intenses en raison de la forte énergie
aérodynamique qui les produit, bien que la puissance acoustique du jet soit une
portion infime de la puissance mécanique du jet.
32 Le livre des techniques du son
Une source sonore capable d’émettre dans toutes les directions une énergie acous-
tique (intensité en watt par mètre carré, équation (15)) possède donc une puis-
sance acoustique qui est sa caractéristique d’émission.
Considérons une grande surface fermée quelconque entourant la source
(voir figure 1.14). Si cette source est sur un sol dur, nous prendrons la demi-sphère
ou autre forme (parallélépipédique, etc.) qui entoure cette source. De chaque
élément de surface, sort une onde de pression dont le flux à travers chacun est un
débit d’intensité, en watts par mètre carré. La somme de tout ce qui se passe à
travers la surface entourant la source est le débit total d’énergie de celle-ci ou sa
puissance acoustique exprimée en watts (figure 1.15).
Dans le cas d’une source simple, choisissons pour surface une sphère centrée sur
elle, de surface totale S. Si la source est isotrope (même rayonnement dans toutes
les directions), la puissance totale de cette source est le produit I · S. Si l’intensité
I n’est pas la même partout, on décompose la surface en élément Si, assez petits
pour que Ii soit (à une certaine approximation) constante sur chaque élément Si
et on fera la somme des produits Ii Si, pour tous les éléments numérotés de i = 1
à i = n, nombre total.
Si, de plus, on assimile les faisceaux d’ondes (sphériques) à des ondes planes, à
une distance R grande par rapport à et aux dimensions de la source, l’intensité
I est donnée par (15) et la puissance de la source est :
Chapitre 1 – Acoustique fondamentale 33
n n
pi 2
W = ∑ I i ∆Si =∑ ∆Si (18)
1 1 ρc
n
avec ∑ ∆S = S = 4πR
1
i
2
p étant la pression sonore mesurée sur chaque élément Si de la sphère de rayon
R. Comme pi varie inversement au carré R2, on voit que W est indépendant du
rayon R choisi pour la mesure.
Il faut bien noter que ce calcul simple, valable pour une source simple ponctuelle,
sera en général une approximation : d’abord l’impédance ne sera pas forcément
réelle et égale à 0c, et la vitesse vibratoire (donc le vecteur d’intensité) ne sera pas
toujours normale à la surface choisie. L’expression plus exacte de W fait intervenir
I par son produit moyen pu (15) et sa composante normale à la surface. Malheu-
reusement si la mesure p est aisée avec un microphone, celle de la vitesse u est
difficile, mais peut être faite avec une bonne approximation à partir de la mesure
des p (grandeur et phase) sur deux microphones voisins. Cette technique, dite
« intensimétrie » a fait l’objet de développement [8].
Pratiquement, et suivant les normes actuelles, la mesure de la puissance acous-
tique d’une source se fait par calcul à partir du relevé de la pression sonore en un
nombre de points réduits, sur une surface (fictive) de mesure entourant la source.
Les normes précisent, pour chaque cas de machine, la forme et la dimension de
cette surface (demi-sphère, demi-cylindre, parallélépipède) et les points de
mesure (échantillonnage), les modalités d’acquisition des mesures, le calcul et
l’erreur possible.
Il faut noter que l’étendue des grandeurs de cette puissance acoustique est très
large : une source de quelques microwatts est déjà audible, les machines dépassent
des centaines de watts acoustiques, et les fusées des millions !
© Dunod – Toute reproduction non autorisée est un délit.
Qu’est-ce donc qu’un logarithme ? Le logarithme de base 10 d’un nombre qui est
une puissance exacte de 10 tel que 10n, n’est autre que l’exposant n écrit au-dessus
du chiffre 10 (voir annexe A1.3).
Mathématiquement, on sait définir le logarithme des nombres compris entre
deux puissances entières de 10 : c’est alors un nombre entier : par exemple, le loga-
rithme de 2 est 0,3010… (figure 1.17).
1. Nous utilisons la lettre N pour indiquer le niveau, alors que la normalisation internationale utilise la
lettre L de l’anglais level.
36 Le livre des techniques du son
W
N w 10 log (20)
Wo
avec p0 = 20 µPa, I0 = 10–12 W/m2, W0 = 10–12 W.
De la définition donnée précédemment de la puissance acoustique d’une source,
et des expressions précédentes, sachant de plus que l’intensité sonore émise par
une source décroît avec la distance comme le carré de celle-ci, il s’établit ainsi des
relations entre le niveau de pression à distance r d’une source et le niveau de puis-
sance de celle-ci :
• si elle rayonne sphériquement dans tout l’espace, la surface S est 4r2,
donc :
W ⋅1012
N p = 10 log = N w − 20 log r − 11 (21)
4 πr 2
• si elle est sur un sol dur, et rayonne dans une demi-sphère, 2r2 :
Np = Nw – 20 log r – 8 avec r en m (22)
D’après les règles précédentes, il apparaît qu’additionner deux nombres égaux en
décibels, ou doubler cette puissance acoustique, c’est ajouter trois décibels. Ce qui
fait que (2) + (2) = (5), et (92) + (92) = (95). Ceci montre d’ailleurs que si l’on
ajoute non pas N + N, deux quantités égales mais des quantités non égales, la plus
petite deviendra vite négligeable.
Tout ceci est vrai pour comparer des bruits (ou des sons) ayant les mêmes fréquences,
ou des spectres sonores analogues. Un bruit aigu, même peu intense, peut être très
gênant s’il vient s’ajouter à un bruit de fond de tonalité grave ou moyenne.
Il faut faire attention à la différence physique fondamentale entre le niveau de
pression Np et le niveau de puissance Nw , en décibels l’un et l’autre, et dont les
ordres de grandeurs peuvent être voisins.
Le niveau de pression, ou d’intensité, est, dans une échelle logarithmique, le repé-
rage d’une pression sonore propagée suivant un rayon intéressant l’oreille de
l’homme ou sa tête, et qui est donc caractéristique non seulement de la source qui
l’a produite mais de toute la propagation depuis cette source. L’intensité est définie
à partir du carré de cette pression, mais la puissance est l’intégration sur une
sphère ou une surface quelconque entourant la source de ces débits d’énergie
(mathématiquement, le choix des surfaces n’a pas d’importance). Cette puissance
acoustique, mesurée en watts, est caractéristique de la source. Elle peut aussi être
exprimée en décibels (21-22).
Le nombre mesurant la puissance acoustique et le nombre mesurant l’intensité
sonore, à distance r d’une source isotrope (rayonnant également dans toutes les
directions), sont identiques si la sphère de rayon r a une surface de 1 m2, soit
r = 28 cm (si la source est sur un sol dur, la surface de référence sera la demi-
sphère de rayon r, et r = 40 cm). En ce point, le niveau de pression est égal au
niveau de puissance. Mais dès qu’on s’éloigne, le niveau de pression diminue et
par conséquent la pression sonore dépend d’abord de la puissance de la machine,
mais aussi de la distance et de tout ce qui peut se produire comme incident au
cours de la propagation.
L’atténuation observée dans l’atmosphère est beaucoup plus importante que celle
donnée seulement par celle loi de diffusion géométrique, et qu’on obtiendrait
dans le cas d’une atmosphère homogène, sans vent, et non absorbante, loin du sol
ou de tout autre obstacle.
Dans le cas encore simple de l’atmosphère homogène et isotrope, sans vent ni
variation de température, l’énergie vibratoire transmise par les molécules en
mouvement est atténuée d’abord par la viscosité de l’air (force proportionnelle à la
vitesse, et en sens contraire). Le calcul montre que l’atténuation ainsi produite est
Chapitre 1 – Acoustique fondamentale 39
D’autres événements rencontrés par la propagation sont dûs au sol et aux obsta-
cles de plus grande hauteur.
Si le sol est réfléchissant (dur : béton, ou surface d’eau calme) il agit comme un
miroir. Au point de réception, nous recevons l’onde directe et l’onde réfléchie,
venant d’une source image (figure 1.20).
Il en est de même si au lieu du sol, il y a un mur, et il y aura plusieurs sources
images s’il y a plusieurs réflecteurs (voir § 3.1).
Si le sol est couvert d’herbe, ou si c’est un terrain labouré, ou un champ de maïs, il
sera plus absorbant et cet effet de sol deviendra beaucoup plus faible. À incidence
rasante, les phénomènes sont plus compliqués, et l’atténuation peut être très forte.
L’onde sonore, rencontrant les parois d’une « boîte » (murs, maison, capot…) se
réfléchit partiellement suivant le schéma précédent mais une partie de l’énergie
est transmise à travers la paroi. La proportion d’énergie réfléchie est le facteur de
réflexion qui dépend de l’impédance présentée par la paroi, elle-même fonction
de la fréquence, et des propriétés mécaniques de propagation dans le matériau de
cette paroi. La proportion d’énergie transmise est le facteur de transmission qui
dépend de la fréquence du son, la masse de la paroi (par mètre carré de surface de
celles-ci) et de ses propriétés mécaniques d’ensemble : élasticité, fréquences
propres. L’isolement global, en décibels, varie comme le logarithme de la
fréquence et le logarithme de la masse par unité de surface (« loi de masse »). Il est
Chapitre 1 – Acoustique fondamentale 41
donc faible aux basses fréquences et pour des parois légères, très important aux
fréquences élevées et avec un mur lourd.
Cette « loi de masse » est modifiée par les différentes fréquences propres de la
paroi, autour desquelles la propagation est beaucoup plus importante que celle
donnée par la loi de masse (voir § 3.3.2).
Si, derrière cette paroi, se trouve un volume clos, comme une salle, les ondes
acoustiques transmises se réfléchissent sur les parois intérieures, perdant à
chaque fois un peu d’énergie, en perdant aussi lors des parcours et par l’effet des
obstacles rencontrés. Cette persistance, pendant une durée notable, de l’énergie
sonore transmise, est la réverbération du local.
Le niveau sonore dans ce local ne dépendra donc pas seulement de la transmission
à travers les parois, mais aussi de l’absorption intérieure du local. C’est pourquoi la
normalisation définit un « isolement normalisé » qui tient compte de cet effet.
© Dunod – Toute reproduction non autorisée est un délit.
De même que l’absorption varie avec la fréquence, cette durée varie également, et
sera en général plus longue aux fréquences basses qu’aux aiguës.
Sans rencontrer les limites fermées d’un espace clos, l’onde sonore sera également
perturbée par une paroi limitée, formant écran. Des calculs analogues à ceux faits
en optique permettent de prévoir, pour une source et un écran donnés, la varia-
tion du niveau sonore apportée par celui-ci. L’atténuation dans « l’ombre géomé-
trique » dépend surtout de l’angle de diffraction et des rapports des dimensions
(hauteur, distance) à la longueur d’onde.
Si un écran (tel que ceux placés aux bords d’autoroutes) peut apporter 10 à 15 dB
d’atténuations, son efficacité est très affectée par des réflexions diverses, et surtout
par les vents portants qui courbent les rayons sonores.
tion, sur l’axe des abscisses, gradué en fréquence, marque la valeur de sa fréquence
propre (représentation amplitude-fréquence). Si le son comporte des harmo-
niques, il est périodique de période T, et le théorème de Fourier dit que la pression
sonore (ou toute autre grandeur périodique) est la somme des sinusoïdes de
périodes f = 1/T, 2f, 3f… nf, donc sur le schéma précédent, la représentation sera
une succession de traits verticaux représentant chacun l’amplitude des compo-
sants, et placés aux abscisses f, 2f, 3f… Une extension de ces théories permet de
représenter par une fonction continue ou non, de la fréquence f, toute fonction
quelconque p(t), sous réserve de quelques conditions.
Les calculs permettant de passer d’une fonction du temps telle que p(t) à une
fonction de fréquence P( f ) s’appellent transformation de Fourier (ou TF ou F). Le
calcul inverse, de P( f ) à p(t) est la transformation inverse ou F–1 (chapitre 5).
© Dunod – Toute reproduction non autorisée est un délit.
Ceci est la base de l’analyse fréquentielle primordiale dans les études acoustiques.
Elle transforme le signal temporel p(t) en un spectre de fréquences :
• spectre de raies, d’un signal périodique,
• spectre continu, d’un signal aléatoire (large bande),
• spectre composite, superposition des précédents.
44 Le livre des techniques du son
Un tel spectre représente le signal dans toute l’étendue fréquentielle (de 20 Hz
à 20 kHz par exemple pour la bande audible) ce qui conduit à un nombre
énorme d’informations : la densité spectrale est la quantité d’énergie dans
chaque bande de fréquence de largeur 1 Hz soit 19 980 nombres pour la bande
20 Hz-20 000 Hz !… Si cela représente bien un phénomène physique précis,
une définition aussi complète (analyse fine), est longue, coûteuse, encom-
brante… et pas tellement nécessaire en général.
On préférera le plus souvent regrouper l’énergie contenue dans une bande de
fréquence f, plus large (10 Hz, 25 Hz…), ou mieux dans une bande de largeur
relative constante f/f.
En effet, il n’est pas nécessaire de connaître avec autant de détails ce qui se passe
dans l’octave 5 000-10 000 Hz que dans l’octave 100-200 (sauf recherche d’une
fréquence pure telle que le sifflement d’un compresseur, nécessitant une analyse
fine, mais dans une bande de fréquences pas trop large et déjà évaluée).
C’est pourquoi l’analyse fréquentielle la plus usuelle en acoustique est faite par
bandes d’octaves, dont les limites sont chacune le double de la précédente, et la
fréquence centrale est le produit par 2 de la fréquence de coupure inférieure. La
normalisation a choisi, pour définir ces bandes d’analyses, les fréquences centrales
multiples et sous-multiples de 1 000 Hz (31,5, 63, 125, 250, 500, 1 000, 2 000,
4 000 et parfois 8 000 Hz).
Une définition un peu meilleure du spectre est donnée par l’analyse en tiers
d’octave dont les coupures sont dans le rapport, non pas 2 mais 3 2 . L’analyse par
octave fournira 8 ou 9 valeurs spectrales, l’analyse par tiers d’octave, 24 ou
27 bandes. Les fréquences centrales sont alors dans le rapport 6 2 avec la
fréquence de coupure inférieure.
Toutes ces représentations donnent les niveaux (de pression sonore, ou d’inten-
sité, ou de puissance) en fonction de la fréquence, mais cependant de manières
différentes. Dans l’analyse fine, ou la densité spectrale, les niveaux sont en décibels
par hertz, ou niveau dans chaque bande de fréquence de 1 Hz.
Dans les analyses par octave, les niveaux sont en décibels par octave. Comme les
octaves contiennent un nombre de hertz croissants, doublant d’une octave à la
suivante, on voit qu’un même son sera représenté par des courbes d’allures diffé-
rentes.
De même, puisqu’il y a trois tiers d’octaves dans un octave, pour un même bruit le
niveau par octave (niveau de la somme des intensités dans chacun des trois tiers),
sera de l’ordre de 5 dB au-dessus du niveau moyen par tiers d’octave, puisque
10 log 3 = 4,8 5.
Chapitre 1 – Acoustique fondamentale 45
1.5 Bibliographie
[1] AFNOR. Vocabulaire de l’acoustique – Association Française de Normalisation – Tour
Europe – Cedex 7 92080 Paris la Défense.
[2] Y. Rocard. Dynamique générale des vibrations – Masson (1971).
[3] S. Timoshenko. Théorie des vibrations – Béranger (1939).
[4] Y. Jullien. Vibrations des systèmes élastiques – Monographie Acoustique du GALF –
Masson (1971).
[5] Morse-Ingard. Theorical Acoustics – Mc Grawhill (1968).
[6] P. Liénard et P. François. Acoustique industrielle et environnement – Acoustique
physique et perceptive – Monographie Acoustique du GALF – Eyrolles (1983).
[7] P. Liénard. Décibels et indices de bruits – Masson (1978).
[8] CETIM. 1er Congrès international sur l’intensité acoustique – BP 67 60304 Senlis
(1981).
P. Liénard – M. Bockoff – J.-C. Pascal – J. Touret. Progrès récents dans la mesure de
l’intensité acoustique – Revue d’Acoustique no 60 (1982).
CETIM. 2e Congrès international sur l’intensité acoustique – BP 67 60304 Senlis (1985).
Revue d’Acoustique (no 80, 1987).
CETIM. Intensimétrie acoustique. Résumé des publications du département Acous-
tique, 1977-1983 – BP 67 60304 Senlis.
[9] M. Bruneau. Manuel d’Acoustique fondamentale – Éditions Hermès (1998).
[10] A. Chaigne. Ondes acoustiques – Éditions École Polytechnique (janvier 2002).
. Bourcet. Méthode simplifiée pour les mesures in situ de la transmission des bruits
[11] P
dans les constructions – Mémoire de physique option acoustique, CNAM (1977).
Chapitre 2
Michèle Castellengo
Directrice de recherches émérite (CNRS),
L.A.M. – Institut d’Alembert (UMR 7190) – Université Paris 6
Les types d’excitateurs mécaniques sont également en nombre limité. Ils jouent un
rôle déterminant dans la reconnaissance de la source (voir timbre, § 2.4).
L’apport d’énergie peut être :
• unique comme par exemple un choc, un pincement, une brusque compres-
sion ou dépression et suivie d’une série d’oscillations plus ou moins rapide-
ment amorties (corde, air, métal),
50 Le livre des techniques du son
Tableau 2.1
Les systèmes excités par une seule impulsion, classe I, transforment l’énergie
cinétique qui leur a été communiquée en énergie vibratoire acoustique par le
moyen des déformations des plaques qui les constituent ; celles-ci entraînent
également la vibration des cavités aériennes qu’elles délimitent (caisses des
tambours, des instruments à cordes).
Les systèmes alimentés par une source d’énergie continue comme le courant d’air
ou le frottement de l’archet classe II, transforment celle-ci en énergie vibratoire
dès le système excitateur : archet + corde ou « robinet » périodique de l’anche ou
Chapitre 2 – Les sources acoustiques 51
du jet d’air. Aux principaux types de sons instrumentaux et vocaux on peut faire
correspondre une typologie sonagraphique élémentaire volontairement schéma-
tique (voir § 2.1.3).
Le sonagramme fournit une représentation visuelle de l’évolution temporelle du
spectre acoustique. Le temps est en abscisse, la fréquence en ordonnée : l’inten-
sité est figurée par la noirceur et par l’épaisseur des traits. L’intérêt essentiel du
sonagramme est qu’il donne rapidement, sous une forme condensée et facile-
ment interprétable une grande quantité d’informations raccordables avec les
données perceptives. Son emploi convient particulièrement bien à l’étude du
timbre et à l’analyse de la parole, domaines où l’information est contenue dans les
formes acoustiques temporelles pour lesquelles sa représentation est bien
adaptée. Dans la phase exploratrice d’une étude, le sonagramme fournit des
informations globales sur le son qui permettent de prévoir des analyses plus
ponctuelles en connaissance de cause.
que la réalité est autrement complexe et nuancée ; les diverses notes d’un instru-
ment n’étant pas, comme on l’a souvent pratiqué en synthèse, la simple transposi-
tion du grave à l’aigu de la même forme spectrale.
2.2 Dynamique
2.2.1 L’oreille et les dB : le crescendo instrumental
La variation d’intensité des sons purs se mesure en dB. Faire un « crescendo »
avec une sinusoïde c’est tourner le potentiomètre du générateur.
Avec les sons instrumentaux et vocaux, les choses se compliquent. On sait que
l’oreille ne réagit pas de la même façon aux variations d’intensité dans le grave,
dans le médium et dans l’aigu (voir chapitre 4 « La perception auditive »). Or, les
sons instrumentaux sont pour la plupart riches en harmoniques. La variation
dynamique d’un son, par exemple un crescendo, n’est pas un simple grossisse-
ment du son, mais correspond à un enrichissement du spectre dans la « zone
sensible » de l’oreille aux environs de 3 000 Hz. Pendant le crescendo, le fonda-
mental, aura pu conserver la même intensité ou même s’affaiblir. Un crescendo
instrumental efficace à l’oreille ne se traduit donc pas toujours par une impor-
tante déviation de l’aiguille du Vu-mètre.
Sur la figure 2.5, on a représenté en a) l’analyse d’un son émis dans la nuance
« piano » puis « forte » avec un spectre semblable, et en b) celle d’un son réel instru-
mental joué « piano » puis « forte ». On peut facilement trouver des cas semblables
à b), où le son, fort pour l’oreille, ne provoque qu’une faible déviation de l’aiguille.
© Dunod – Toute reproduction non autorisée est un délit.
✦ Tuyaux et résonateurs
Les phénomènes vibratoires qui s’établissent dans les tuyaux et cavités sonores
contribuent essentiellement à l’entretien du système excitateur. Aux basses
fréquences, la majeure partie de l’énergie est réfléchie sur l’embouchure ; au fur et
à mesure que la fréquence fondamentale s’élève, une proportion croissante est
rayonnée par l’instrument. La figure 2.9 montre l’analyse au sonagraphe d’une
séquence jouée à la flûte à bec.
L’emploi d’un microphone dans cette position pour « sonoriser » la flûte à bec
ne peut évidemment pas donner de bons résultats !
Le signal sonore est enregistré simultanément dans le tuyau au moyen d’un très
petit microphone inséré dans la paroi intérieure de l’instrument (a) et capté par
un microphone extérieur, à 40 cm de l’instrument (b). Par comparaison des deux
analyses on note le nombre et l’importance des harmoniques aigus ainsi que l’af-
faiblissement du fondamental dans le son extérieur.
Les points d’émission sont les ouvertures du tuyau sur l’extérieur : trous latéraux,
pavillon, embouchure de la flûte.
58 Le livre des techniques du son
La vibration des parois est très faible, et, sauf exception, (certains pavillons de trompe
de chasse et de trombone), sa contribution au rayonnement est tout à fait négligeable.
Pour un preneur de son, le cas le plus simple est celui des instruments à un seul
orifice : bourdon, flûte de pan, les cuivres (trompette, trombone, cor, tuba) et voix
humaine. Cette dernière présente toutefois une difficulté supplémentaire puisque
l’orifice de sortie est variable dans le temps, en forme et en section ! (Voir figure 2.24.)
Dès que deux orifices et plus sont ouverts, la question des phases relatives des
sources est à considérer. Il n’est pas possible ici de rentrer dans le détail d’autant
que les rapports de phase varient avec le régime de fonctionnement du tuyau
(fondamental, octave…). Mais il faut savoir qu’il existe de très grandes variations
le long de l’axe du tuyau, surtout si l’on est très près des trous ouverts.
La notion de « fréquence de coupure » mise en évidence par Benade [1] peut
apporter d’intéressants renseignements aux preneurs de son. Prenons l’exemple
d’un tuyau conique. Le relevé de la courbe d’impédance à l’entrée du tuyau montre
(figure 2.10) une série de pics de résonance dont la hauteur et la position sont
caractéristiques de la géométrie de ce tuyau. Ils sont en nombre limité. Un tuyau
percé de trous se comporte comme un filtre passe-haut dont la fréquence de
coupure varie avec le nombre de trous ouverts. Très près du tuyau le champ acous-
tique rayonné par l’instrument est extrêmement variable avec la fréquence émise.
Ce phénomène est surtout sensible avec les instruments à anches dont le spectre
comporte un grand nombre de composantes. Pour les flûtes, il est perçu au travers
des variations d’intensité du fondamental.
✦ Plaques et membranes
On connaît depuis Chladni (1809) les modes vibratoires des plaques de formes
simples (figure 2.11). La recherche bénéficie aujourd’hui de visualisations obtenues
par interférométrie holographique (figure 2.12) et de la modélisation par la méthode
des éléments finis. Toutefois, les conditions d’excitation sont fort éloignées de la
réalité du jeu instrumental. Des recherches ont été faites récemment sur le violon et
sur la guitare [6]. Les déformées obtenues par holographie font apparaître un grand
nombre de lignes nodales en hautes fréquences (> 800 Hz) suggérant un rayonne-
ment multipolaire s’atténuant très vite avec la distance et très peu efficace dans un
axe perpendiculaire à la table, or la guitare émet bien jusqu’à 2 500 Hz au moins !
Des expériences récentes ont montré que le nombre de sources émettrices est relative-
ment réduit. Ces études sont encore bien parcellaires. Pour comprendre les phéno-
mènes, il faudrait relier avec certitude le champ acoustique aux déformées modales.
Le volume d’air contenu dans la caisse de résonance joue également un rôle
important. Son couplage avec les premiers modes de la table a été bien étudié.
On retrouve la fréquence fondamentale de cette résonance dans le spectre du son
impulsif, au moment de l’attaque de la guitare et dans les pizzicati des cordes.
© Dunod – Toute reproduction non autorisée est un délit.
Un des problèmes majeurs rencontrés dans l’étude des instruments à cordes est
celui des dimensions de la source devant la longueur d’onde. C’est pourquoi les
études se limitent généralement aux basses fréquences. Jusque vers 250 Hz
( = 1,30 m) une guitare ou un violon peuvent être assimilés à un monopôle,
mais qu’en est-il d’un piano ou d’un clavecin ? L’essentiel de l’énergie aux basses
fréquences est, dans la guitare, rayonné par la rose. Plus haut, jusqu’à 1 000 Hz, la
table intervient mais la rose continue à avoir une part active. Au-dessus de
1 000 Hz ( = 34 cm) les conditions expérimentales deviennent trop critiques.
Les recherches théoriques effectuées sur les tuyaux et sur les plaques demandent
de grandes compétences mais pour l’heure n’apportent que des connaissances
très fragmentaires sur le rayonnement des instruments de musique. Voyons ce
que l’on peut espérer d’une approche plus globale du problème.
Violon : à partir des diagrammes polaires faits pour chaque fréquence, n’ont été
retenues que les zones rayonnant dans un intervalle de 3 dB au-dessous du
maximum.
Ces zones sont alors portées en coordonnées rectangulaires. L’ordonnée repré-
sente la probabilité d’apparition des zones, à partir d’une étude faite sur huit
violons différents.
Trompette et trombone : ce type d’instrument étant symétrique autour de son axe
de révolution, le graphique montre, pour chaque fréquence, l’angle d’ouverture de
la source de rayonnement issu du pavillon.
Tuba : on constate que dans la zone 100 à 400 Hz, le tuba reste plus directif que le
trombone, dans l’axe du pavillon.
Garcia [13] et Thfoin ont mené une expérience exploratoire sur la directionnalité
de quelques instruments. Les enregistrements ont été également faits en chambre
sourde mais tous les instruments étaient joués normalement par leurs interprètes
auxquels on demandait des extraits caractéristiques de musique. Le dispositif
d’enregistrement est le suivant : 9 microphones placés sur une sphère de 2 m de
rayon ayant pour centre l’instrument et disposés dans deux plans parallèles hori-
zontaux (figure 2.15) envoient leurs signaux à un magnétophone multipiste. Pour
Chapitre 2 – Les sources acoustiques 63
chaque piste, il est ensuite fait une analyse en 1/3 d’octave du son moyenné sur
plusieurs dizaines de secondes. On obtient le spectre moyen de l’instrument
« vu » depuis neuf points de l’espace. Le micro 1 est toujours dirigé face à l’instru-
mentiste. On trouve une confirmation de résultats connus et quelques éléments
nouveaux :
Violon : le spectre est très homogène aux basses fréquences, même dans le dos de
l’instrumentiste (no 3), à partir de 500 Hz, on remarque d’importantes variations
selon les positions ; observer le renforcement de la zone 500 à 1 500 Hz dans l’axe
du manche (no 8).
Trombone : rayonnement très homogène avec une nette prédominance dans l’axe
du pavillon (no 1).
Flûte traversière : les relevés montrent très bien la très grande variabilité du champ
sonore, caractère qui est commun à tous les instruments à trous latéraux : les
maxima du spectre changent selon l’angle du micro. Une surprise : le signal le plus
intense est fourni par le micro placé au zénith (no 9) vers lequel sont orientés la
plupart des trous latéraux.
Il faudrait maintenant réintroduire le local d’écoute, en particulier le rôle des
parois : plancher pour la clarinette et le hautbois, mur du fond pour le cor,
plafond pour la flûte. De plus, l’image acoustique d’un instrument donné par
l’enregistrement en chambre anéchoïque est très insatisfaisante à l’écoute.
L’angle d’écoute est extrêmement sélectif, ce qui n’est jamais le cas dans la réalité
où grâce aux réflexions provenant des parois (latérales, arrière, plafond) nous
pouvons reconstituer l’image acoustique complète de l’instrument, en
« volume ».
En conclusion, l’image sonore d’un instrument peut varier énormément d’un
point à l’autre de l’espace. Ce point est capital : l’instrumentiste a un point de vue
tout à fait original, fort différent de celui des auditeurs, et différent également de
celui du preneur de son. Ceci explique les réactions déroutantes d’instrumen-
tistes (et surtout des chanteurs) à l’écoute de leur premier enregistrement.
© Dunod – Toute reproduction non autorisée est un délit.
Ajoutons que les musiciens qui tiennent en main leurs instruments bougent en
jouant, produisant ainsi des changements de direction dans le rayonnement
sonore, ce qui contribue à augmenter la complexité du champ acoustique. Une
question se pose alors : qu’est-ce qui, dans le signal acoustique variable, nous
permet de reconnaître la source sonore et d’en apprécier ses qualités ? En d’autres
termes, qu’est-ce que le timbre d’un instrument, et quelles analyses permettent
d’en rendre compte ?
64
Figure 2.15 — Étude comparée de la directionnalité du violon, du trombone et de la flûte en 9 points de l’espace, d’après Garcia [13].
L’étude porte sur des extraits musicaux joués en chambre sourde. Tous les points d’enregistrement sont situés à la surface d’une sphère
de 2 m de diamètre dont l’instrumentiste est le centre. 1, 2, 3, 4 sont dans un plan horizontal passant par l’instrument, 5, 6, 7, 8 définissent
Le livre des techniques du son
un second plan horizontal situé à 1 m du premier; 9 est dans l’axe vertical passant par la tête du musicien, à 2 m du premier plan.
Chapitre 2 – Les sources acoustiques 65
1 2 3 4
Il ne faut pas pour autant perdre de vue qu’une expertise sonore du timbre n’a de
sens que pour les musiques d’un groupe culturel donné et que, pour juger de la
qualité sonore des instruments d’une autre culture, nous devrons étendre notre
apprentissage en construisant de nouvelles catégories de sources et de qualités
sonores. Le problème est bien connu pour les instruments provenant d’autres
pays mais il s’est posé de façon insidieuse avec le renouveau des instruments
anciens. Abusé par la banalité du nom : guitare (baroque) ou piano (pianoforte)
plus d’un ingénieur du son a tenté, consciemment ou non, de « corriger » la prise
de son de ces instruments pour qu’ils sonnent comme un piano ou une guitare
d’aujourd’hui ! Le développement d’orchestres « baroques » a produit un enri-
chissement de l’écoute des sonorités, au point que ces instruments et leur
ensemble orchestral ont acquis une identité sonore distincte de celle des instru-
ments modernes.
La reconnaissance d’une source sonore est globale, rapide, et suppose une capa-
cité d’abstraction, de généralisation pour mémoriser le prototype commun à des
signaux acoustiques apparemment divers. Au contraire, l’appréciation de la sono-
rité met en jeu l’écoute fine et sélective de toutes les variations sonores d’une
forme connue, celles qui proviennent de l’exploitation des champs de liberté de
timbre de l’instrument par l’instrumentiste, des caractéristiques du lieu d’écoute
et de celles de la prise de son.
Remarquons que nous sommes capables de reconnaître des instruments dans de
très mauvaises conditions acoustiques : enregistrements dégradés, téléphone,
68 Le livre des techniques du son
lieux très réverbérants, avec une audition défectueuse, pourvu que la forme
temporo-spectrale soit conservée. À l’opposé, l’appréciation des qualités des sons
exige la mise en œuvre des meilleures conditions techniques de la chaîne de
captation et de reproduction du son, et qu’une bonne oreille est requise ! Mais la
compétence personnelle acquise au cours de l’expérience professionnelle d’écoute
reste l’atout majeur pour effectuer des jugements rapides et sûrs.
✦ Niveaux de perception
Un autre ordre de difficultés provient de la diversité des situations dans
lesquelles il est question de timbre. La source ou la sonorité qu’il s’agit d’identi-
fier peut se définir à divers niveaux d’écoute (figure 2.17). S’agit-il de comparer
le timbre de la flûte par rapport à celui de la clarinette ? Celui de la flûte traver-
sière par rapport à celui de la flûte à bec ? Le timbre de la flûte Boehm par
rapport à celui de la flûte traversière baroque ? Ou les deux timbres du « sol » et
du « la » d’une même flûte ?
On conçoit qu’il faudra adapter différemment les stratégies d’analyse acoustique
selon la question posée. Plus les classes de timbres sont voisines, plus les variables
externes (conditions de prise de son, rôle du musicien) devront être maîtrisées.
✦ Parler du son
Pour communiquer à autrui notre avis, nos impressions, pour obtenir une
action visant à modifier l’équilibre sonore dans le sens désiré, nous devons
traduire en mots le ressenti sonore. Le preneur de son, le musicien, le luthier,
l’acousticien échangent leurs impressions sur le son à l’aide d’un vocabulaire
tantôt réduit, tantôt imagé, mais difficile à corréler à l’analyse acoustique.
Certains termes comme « éclatant, agressif, sourd » semblent correspondre à
des perceptions partagées par le plus grand nombre. Mais quelle analyse acous-
tique peut rendre compte d’un son « ovale, vert, lumineux » ? Et que faire d’un
son « clair » ou « timbré » ? alors que ces mots correspondent, pour celui qui les
emploie, à une sensation de sonorité bien repérable ? De tels termes n’ont de
sens que pour un groupe bien défini. Ainsi, les élèves d’une classe de flûte
traversière pourront développer avec leur professeur un vocabulaire riche et
précis, adapté à la pratique de leur instrument. Mais au même moment ces
termes seront employés dans des sens différents en classe de chant ou de
piano [7] !
a) Ce sont des instruments qui possèdent un formant très intense centré dans la
bonne zone de l’oreille (autour de 3 000 Hz). C’est le cas de la vielle vietnamienne
et d’un wood-block du même pays, dont l’efficacité auditive est redoutable. Les
acteurs et les chanteurs d’opéra s’efforcent également de concentrer l’énergie dans
© Dunod – Toute reproduction non autorisée est un délit.
2.5.1 Définitions
La tessiture est l’étendue en fréquence de toutes les notes que peut émettre un
instrument donné. Or, ce qui intéresse le preneur de son n’est pas la fréquence du
fondamental, mais bien le contenu spectral réel. Très peu d’instruments suivent
le schéma classique du « son harmonique » des manuels : fondamental intense
accompagné d’harmoniques dont l’intensité décroît avec le rang ! La tessiture
musicale et le contenu spectral ne se suivent donc pas parallèlement.
2.5.2 Exemples
À titre d’exemple, examinons quelques analyses spectrales d’instruments moyen-
nées sur l’ensemble de la tessiture (figure 2.19). Sur chacun d’eux les musiciens ont
joué une gamme chromatique du son le plus grave au plus aigu, en nuance mf.
Sur le graphique, les limites de la tessiture sont représentées par un cadre en traits
pleins. En examinant les figures et en comparant les zones spectrales de plus forte
énergie avec la tessiture, on voit apparaître divers types d’instruments.
a) Instruments pour lesquels les maxima d’énergie sont inclus dans la tessiture.
Ce sont essentiellement le piano, la flûte traversière, la clarinette et la guitare.
c) Instruments dont les maxima sont très étalés (clarinette) ou débordent large-
ment la limite aiguë de la tessiture : clavecin, accordéon, basson, violoncelle et la
voix chantée.
✦ Remarques
Il est bien évident que les analyses présentées ici doivent être considérées
comme des allures typiques de certains instruments mais ne peuvent être géné
ralisées. Nous l’avons vu (§ 2.4.3), la sonorité d’un instrument peut changer
grandement selon l’angle d’écoute, selon le local et pour certains instruments
(§ 2.2.2) selon la nuance de jeu. Toutefois, ces modifications pour importantes
qu’elles soient (variations relatives de l’intensité des basses fréquences, très
sensibles à l’oreille) n’affectent pas fondamentalement les rapports entre la
tessiture et l’étendue spectrale.
kHz
Les rapports d’intensité entre les bruits et les voyelles changent selon qu’il s’agit
d’une voix conversationnelle, d’une voix parlée type conférence, d’une voix forte
criée ou d’une voix chantée. La voix forte et la voix chantée favorisent les sons
vocaliques au détriment des bruits consonantiques.
Le signal vocal transmet simultanément deux types de messages : un message
sémantique convoyé par la parole, expression verbale de la pensée, et un message
esthétique perceptible au travers des qualités esthétiques de la voix (timbre, into-
nation, débit, etc.).
La voix « intime » ou de proximité, dont les sons vocaliques offrent comme parti-
cularité d’être un mélange de sons harmoniques dans les fréquences graves et de
bruits d’écoulement dans l’aigu (entre 2 000 et 4 000 Hz). Les bruits consonan-
tiques, S, T, K… sont très présents.
La voix d’un conférencier parlant sans micro montre un spectre vocalique harmo-
nique riche et intense. Les bruits consonantiques y sont proportionnellement
beaucoup plus faibles. On remarquera combien, dans les trois cas, les formes
sémantiques de la parole, véhiculant l’intelligibilité sont bien reconnaissables,
indépendamment du type de voix employé.
78 Le livre des techniques du son
Une bande passante réduite suffit à transmettre une parole intelligible, comme en
témoigne le téléphone (figure 2.23). L’essentiel des formes sémantiques de la
parole est compris dans la bande 300-4 000 Hz. On notera incidemment que le
téléphone accentue, pour des raisons évidentes d’efficacité, la zone des fréquences
voisines de 3 000 Hz, ce qui entraîne une distorsion importante du timbre de la
voix. Les bruits aigus, CH, S, F… transposés dans la bande de façon indifférenciée
sont de ce fait peu reconnaissables.
Figure 2.24 — Rayonnement de la voix chantée d’après Marshall & Meyer [16]
dans les plans horizontal (a) et vertical (b). Les zones les plus denses montrent
que le rayonnement est plus important vers l’avant et vers le bas. On en conclura
que l’état de surface du sol situé devant le locuteur est important pour la portée
de la voix. Ce point était connu des anciens qui, dans la construction des théâtres en plein
air prévoyaient une zone dégagée et réfléchissante à l’avant des acteurs (l’orchestre).
Chapitre 2 – Les sources acoustiques 81
La voix est par excellence un instrument de timbre. Ce sont les variations forman-
tiques du spectre, qui, codées, transmettent le message sémantique. Les altéra-
tions de la qualité du timbre (sourd, clair) de même que la modulation du débit et
de l’intonation nous renseignent sur les dispositions affectives du locuteur. Enfin,
les invariants du timbre dûs aux résonances personnelles mais aussi les traits
caractéristiques articulatoires et les constantes de l’intonation qui constituent
l’accent nous permettent de reconnaître le locuteur.
(figure 2.25).
À l’opposé, la voix d’un « speaker radio » traditionnel et la voix dite conversation-
nelle possèdent beaucoup d’énergie dans le fondamental, donc dans les basses
fréquences.
82 Le livre des techniques du son
2.7 Conclusions
Après de brefs rappels sur le fonctionnement acoustique des principales sources
musicales, nous avons traité du comportement dynamique et spectral de ces
sources. Nous aurions aimé offrir au preneur de son un corpus complet des varia-
tions spectrales et dynamiques des instruments de musique, corpus que récla-
ment également les compositeurs. Sa constitution est en cours, mais on a vu
qu’elle était rendue difficile du fait de la complexité du rayonnement spatial de ces
sources. Les travaux récents dont nous avons rendu compte n’apportent encore
que peu d’éléments directement utilisables dans la pratique, d’autant qu’ils ne
concernent que le rayonnement en champ libre. Or, on sait que la salle d’audition,
dont nous n’avons pas parlé ici, peut modifier considérablement le rayonnement
des sources.
Quant à l’étude de la sonorité, qu’on ne peut aborder qu’après celle du champ
acoustique, nous avons vu qu’elle pose au premier chef un problème qui est au
cœur de l’acoustique des communications humaines, celui de l’interprétation des
documents d’analyse en fonction de la perception. Les études de psychoacous-
tique, en plein essor actuellement, laissent espérer un développement rapide des
connaissances grâce aux outils nouveaux de la synthèse sonore qui permettent de
travailler sur des sons réels complexes.
Chapitre 2 – Les sources acoustiques 83
2.8 Bibliographie
[1] A. H. Benade, Fundamentals of Musical Acoustics, Oxford University Press, New
York, 1976.
[2] M. Castellengo, La perception auditive des sons musicaux, in Psychologie de la
musique, A. Zenatti (éd.). PUF, Paris, 1994.
[3] M. Castellengo, Perception(s) de la voix chantée : une introduction, in La voix
chantée : entre sciences et pratiques, N. Henrich-Bernardoni (éd.), De Boeck, Solal,
Paris, Bruxelles, 2014, p. 35-64.
[4] M. Castellengo, Écoute musicale et acoustique (avec DVD), Eyrolles, Paris, 2015.
© Dunod – Toute reproduction non autorisée est un délit.
[9] Collectif – M. Castellengo & H. Genevois (éd.), La musique et ses instruments (avec
CD-Rom), Delatour, Paris, 2013.
ollectif – C. M. Hutchins (éd.), Sons et musique, Belin, Paris, 1980.
[10] C
[11] D. Dubois, Catégorisation et cognition : « 10 ans après », une évaluation des
concepts de Rosch in Sémantique et cognition – Catégories, prototypes, typicalité, D.
Dubois (éd.), CNRS, Paris, 1993.
[12] A. Faure, Des sons aux mots : comment parle-t-on du timbre musical ? Thèse
d’Université (non publiée), EHESS, Paris, 2000.
[13] A. Garcia, La directionnalité des instruments de musique, Bulletin du GAM
(Groupe d’Acoustique Musicale de l’Université Paris 6), 1983, 110.
[14] J. M. Grey, Multidimensional perceptual scaling of musical timbres, Journal of the
Acoustical Society of America, 1977, 61 (5), 1270-1277.
[15] E. Leipp, Acoustique et musique (fac-similé de la 4e édition de 1984), Presses des
Mines, Paris, 2011.
[16] A. H. Marshall et J. Meyer, The directivity and auditory impressions of singers,
Acustica, 1985, 58 (3).
[17] J. Meyer, Acoustics and the Performance of Music (traduit par J. Bowsher et S. West-
phal), Das Musikinstrument, Francfort, 1978.
[18] J.-D. Polack, M. Castellengo, V. Maffiolo, C. Guastavino, et al., Soundfield reproduc-
tion: the limits of the physical approach, Conférence présentée à CFA/DAGA’04,
Strasbourg, 2004.
. F. Pollard, Feature analysis of musical sounds. Acustica, 1988, 65, 232-244.
[19] H
[20] J.-C. Risset et D. Wessel, Exploration of timbre by analysis and synthesis, in
Psychology of Music, D. Deutsch (éd.), Academic Press, New York, 1982.
[21] P. Schaeffer et G. Reibel, Solfège de l’Objet Sonore (disques 33 tours et livret),
Ina-GRM, Paris, 1967 (réédition 1998, 3 CD).
[22] F . Winckel, Vues nouvelles sur le monde des sons (traduit par A. Moles et J. Lequeux),
Dunod, Paris, 1960.
Chapitre 3
Acoustique architecturale
Michel Cassan (§ 3.2)
Diplômé d’études supérieures en acoustique à Paris VI.
Ancien responsable de l’acoustique des salles
aux services techniques de Radio France
Il existe trois façons d’aborder l’étude du comportement d’une salle dans laquelle
se propagent des ondes sonores :
La première dite « acoustique ondulatoire », considère la salle comme un oscilla-
teur à trois dimensions. Dans le cas simple de salles parallélépipédiques, elle nous
permettra de bien comprendre la structure du champ acoustique, cette méthode
étant limitée par la complexité à laquelle on aboutit très rapidement dans le cas de
salles de forme quelconque.
La seconde dénommée « acoustique géométrique », est la plus parlante car la plus
intuitive et la plus visuelle : elle applique les lois de la propagation des rayons
lumineux en optique à celle des ondes sonores mais sous certaines conditions
qu’il faudra toujours avoir présentes à l’esprit.
La troisième dénommée « acoustique statistique », conduit à la description du
phénomène capital de la réverbération, là aussi sous certaines conditions.
Enfin, une des grandes préoccupations de l’acousticien a toujours été de définir
des critères d’appréciation des qualités acoustiques des salles, et d’essayer de les
relier aux critères subjectifs des auditeurs.
Cette partie de l’acoustique a considérablement progressé depuis ces quinze
dernières années, grâce en partie à l’informatique.
Elle a évolué parallèlement à la branche de recherche la plus répandue à l’heure
actuelle, celle de l’acoustique perceptive ou psychologique.
Mais avant d’aborder l’acoustique des salles proprement dite, nous allons étudier
de près les phénomènes liés au caractère ondulatoire du son.
✧✧ Réflexion
Lorsque les dimensions de l’obstacle sont très grandes devant la longueur d’onde,
une partie de l’énergie incidente est réfléchie : c’est le phénomène de réflexion sur
lequel nous reviendrons.
Prenons un exemple : supposons que vous vous cachiez derrière un mur de
3 m × 3 m. Une onde sonore de 10 000 Hz (de longueur d’onde égale à 0,034 m) se
propage dans votre direction. La plus grande partie de l’énergie de l’onde incidente
est « renvoyée » par ce mur ; vous vous trouvez alors dans ce qu’on appelle une zone
d’ombre, par analogie à celle que produirait une source lumineuse (figure 3.1).
Chapitre 3 – Acoustique architecturale 87
✧✧ Diffraction
Nous nous sommes déjà trouvés maintes fois dans un cas similaire et nous enten-
dons quand même derrière le mur le son de 10 000 Hz, atténué certes mais nous
l’entendons ! Il y a bien réflexion de la plus grande partie de l’énergie sonore inci-
dente, mais les limites de la zone d’ombre ne sont pas si bien définies que cela :
agrandissons les extrémités du mur (figure 3.2). Une certaine quantité d’énergie
de l’onde sonore rayonnée par la source vient « raser » les angles de ce mur. Il se
produit donc localement un phénomène de diffraction : la partie haute du mur
rayonne comme si elle était une source secondaire.
Lorsque les dimensions de l’obstacle sont très petites devant la longueur d’onde,
© Dunod – Toute reproduction non autorisée est un délit.
Nous étudierons plus tard de manière théorique le cas de la réflexion d’une onde
plane sur un mur de dimensions infinies.
Lorsque les dimensions de l’obstacle et de la longueur d’onde sont voisines,
les deux phénomènes interagissent. Aucune séparation nette ne peut être
faite et leur résultante est difficile à décrire (voir ci-après le phénomène de
diffusion).
• Une onde de 1 000 Hz arrive sur le mur avec la même direction que l’onde
de 100 Hz. Sa longueur d’onde (λ = 0,34 m) est du même ordre de gran-
deur que les soufflets de l’accordéon. Cette onde va donner naissance, en
frappant le mur, à plusieurs ondes secondaires qui vont repartir dans diffé-
rentes directions : c’est une réflexion diffuse qui est le résultat cumulé des
phénomènes de réflexion, diffraction et réfraction.
Nous verrons par la suite l’importance capitale de la diffusion en acous-
tique des salles et les façons de réaliser des surfaces diffusantes intéres-
santes (voir traitement acoustique).
• Une onde de 10 000 Hz arrive sur le mur toujours avec la même direction.
Sa longueur d’onde (λ = 0,034 m) est petite (10 fois plus) devant la dimen-
sion du soufflet. Cette onde ne va voir que la partie inclinée du soufflet et
non pas le plan du mur. Elle se réfléchit comme le ferait un rayon lumineux
mais uniquement par rapport à la partie inclinée du soufflet.
Nous considérerons par la suite que le mur est de dimensions infinies mais aussi
que ses anomalies de surface sont petites devant la longueur d’onde, c’est-à-dire
que le mur est plan.
© Dunod – Toute reproduction non autorisée est un délit.
des fibres du textile et la plus grande partie (l’énergie transmise) va sortir par la
fenêtre. L’énergie transmise n’est donc pas tout à fait égale à l’énergie non réfléchie.
✧✧ Facteur de réflexion R
Si pi et pr sont les pressions des ondes incidentes et réfléchie, le changement
p
d’amplitude et de phase lors de la réflexion est entièrement défini par R r .
pi
R appelé facteur de réflexion est une caractéristique de la paroi ; il dépend de la
fréquence et de l’angle d’incidence de l’onde incidente (il peut être représenté par
un nombre complexe R = Re iγ où R est le rapport de l’amplitude des pressions
réfléchie/incidente et γ la phase entre pr et pi ).
✧✧ Coefficient de réflexion β
L’énergie transportée par l’onde (voir chapitre 1) est proportionnelle au carré de
p2
l’amplitude de la pression. Le rapport β = R 2 = r2 , qui exprime le rapport de
pi
l’énergie réfléchie à l’énergie incidente, est appelé coefficient de réflexion.
✧✧ Coefficient d’absorption
Il exprime le rapport de l’énergie non réfléchie (absorbée) à l’énergie incidente, et
est noté α. La conservation de l’énergie implique : α + β = 1 d’où α = 1 – R2. Dans
les chapitres consacrés à l’acoustique des salles, c’est le coefficient d’absorption α
qui sera largement utilisé. Nous verrons à ce moment-là, les distinctions existant
entre les coefficients α de la théorie et ceux mesurés en laboratoire.
Nous pouvons dès à présent préciser que α dépend de la fréquence et de l’angle
d’incidence de l’onde incidente ainsi que de la nature de l’absorbant. Les varia-
tions de α en fonction de ces variables seront étudiées au paragraphe sur les
« absorbants » mais il faut retenir que donner la valeur de α pour une incidence
normale (α0) ne suffit pas à décrire un absorbant.
© Dunod – Toute reproduction non autorisée est un délit.
Nous avons vu que l’énergie absorbée était constituée d’une partie dissipée sous
forme de chaleur et d’une partie transmise par l’onde réfractée. On peut donc
écrire que le coefficient d’absorption est la somme d’un coefficient de dissipation
δ et d’un coefficient de transmission τ. Soit : α = δ + τ.
Ainsi dans le cas d’un matériau poreux de grande épaisseur (par exemple 20 cm
de laine de verre collée sur un mur et pour un son de 1 000 Hz), il y aura une
absorption totale de l’énergie incidente et donc α = δ = 1, et aussi τ = 0 = β.
Dans le cas d’une fenêtre ouverte, il y aura absorption totale par transmission, on
aura α = τ = 1 et δ = 0 = β.
92 Le livre des techniques du son
p
Z
vn surface
Cette méthode d’analogie électrique peut servir à résoudre, par l’étude de circuits
électriques équivalents, certains problèmes d’acoustique.
Comme le facteur de réflexion, l’impédance acoustique dépend de l’angle d’inci-
dence et de la fréquence de l’onde incidente, et caractérise à elle seule complète-
ment le comportement d’une paroi. Il existe donc une relation entre ces deux
quantités, que l’on peut trouver facilement par le calcul :
ρo c 1 + R
Z= ×
cos θ 1 − R
où θ est l’angle d’incidence et ρ0c l’impédance caractéristique de l’air. On raisonne
Z
souvent sur l’« impédance acoustique spécifique » Z spe = .
ρo c
2
Z cos θ − ρoc
On peut en déduire α de l’équation Z, soit α = 1 − R = 1 −
2
.
Z cos θ + ρoc
Que peut-on déduire de cette équation ?
Sous incidence normale (θ = 0 et cos θ = 1) lorsque R = 0, α = 1, la paroi est tota-
lement absorbante et Z = ρOc.
On dit que ces parois sont « souples ». L’impédance de la paroi est égale à l’impé-
dance caractéristique de l’air : en électricité, il s’agit de l’adaptation d’impédance.
Par contre quand R = 1, c’est-à-dire quand α = 0, la paroi est totalement réfléchis-
sante. Il n’y a pas de changement de phase et Z → ∞. De telles parois sont dites
« rigides ».
Le cas où R = – 1 (avec Z = 0 et α = 0), soit un changement de phase égal à π
(opposition de phase), est très rare en acoustique des salles et seulement dans des
bandes de fréquences très limitées.
Chapitre 3 – Acoustique architecturale 93
Le fait de moyenner sur les directions (incidence diffuse) pour une fréquence
donnée ou de moyenner sur les fréquences pour une direction donnée aboutit
dans les deux cas à une atténuation de l’amplitude lorsqu’on s’éloigne de la paroi.
94 Le livre des techniques du son
C’est ce que nous allons étudier maintenant pour un cas simple : celui d’une salle
parallélépipédique. Nous ne donnerons pas les calculs, ce n’est pas l’objet de cet
ouvrage, mais aboutirons aux mêmes résultats par une voie schématique plus
concrète.
Notons dès maintenant que le fait que les parois soient plus ou moins absorbantes
ou plus ou moins rigides ne modifie pas le résultat dans sa globalité. La figure 3.7
donne trois exemples d’ondes stationnaires ou quasi-stationnaires pour des
parois rigides et réfléchissantes a) (R = 1, α = 0), pour des parois souples et
96 Le livre des techniques du son
r éfléchissantes b) (α = 0 et changement de phase = ) et pour des parois absor-
bantes c) (α = 0,8). 2
mc
• Entre face droite et gauche (axe L) f L (m) ;
2L
nc
• entre face avant et arrière (axe l) fl (n) ;
2l
pc
• entre sol et plafond (axe H) f H ( p) ;
2H
où m, n, p sont des nombres entiers naturels. Mais les fréquences propres définies
ci-dessus ne sont pas les seules valeurs pour une salle parallélépipédique : en
effet, elles vont se combiner entre elles pour donner naissance à d’autres
fréquences propres.
À la figure 3.9, nous avons représenté un repère en trois dimensions, chaque axe
0L, 0l, 0H étant gradué par les fréquences propres des trois familles suivant les côtés
L, l et H de la salle. Nous avons tracé à partir de ce repère un « maillage » en trois
dimensions, constitué d’arêtes et de sommets. Le point A par exemple est un des
sommets de ce maillage et dans le repère (0, L, l, H) ses coordonnées sont (1, 1, 2).
D’après le théorème de Pythagore, la longueur de 0A est égale à :
2 2 2 2 2 2
c c 2c c 1 1 2
+ + soit × + +
2 L 2l 2H 2 L l H
2 2 2
c 1 1 2
En fait F = × + + est une des fréquences propres de la salle
2 L l H
générée à partir des trois autres contenues dans les trois familles de base.
On peut donc construire de la sorte toutes les fréquences propres de la salle qui
seront données par la formule trouvée par Lord Rayleigh en 1869 :
c m2 n2 p 2
f (m, n, p) = + +
2 L2 l 2 H 2
© Dunod – Toute reproduction non autorisée est un délit.
c 1 0 0 c
Autre exemple : f (1, 0, 0) = × 2 + 2 + 2 =
2 L l H 2L
98 Le livre des techniques du son
On montre que les fréquences propres axiales transportent deux fois plus d’énergie
que les fréquences propres tangentielles, et que ces dernières en transportent
deux fois plus que les fréquences propres obliques.
Ceci prouve que les fréquences propres axiales ont une importante prépon
dérante.
100 Le livre des techniques du son
m n p f (Hz) m n p f (Hz)
1 0 0 21,7 1 1 2 77,0
0 1 0 27,2 2 2 1 77,6
0 0 1 34,3 3 1 1 78,4
1 1 0 34,8 2 0 2 81,2
1 0 1 40,6 0 3 0 81,6
2 0 0 43,3 1 3 0 84,4
0 1 1 43,8 3 2 0 84,7
1 1 1 48,9 2 1 2 85,6
2 1 0 51,1 4 0 0 86,6
0 2 0 54,4 0 2 3 87,6
2 0 1 55,3 0 3 1 88,5
1 2 0 57,6 1 2 2 90,3
2 1 1 61,1 4 1 0 90,8
0 2 1 64,3 1 3 1 91,1
3 0 0 65,0 3 2 1 91,4
1 2 1 67,9 2 3 0 92,4
0 0 2 68,7 4 0 1 93,2
2 2 0 69,5 3 0 2 94,5
3 1 0 70,4 4 1 1 97,1
1 0 2 72,0 2 2 2 97,7
3 0 1 73,5 3 1 2 98,4
0 1 2 73,9 2 3 1 98,6
4 πV 2 πS L
∆N ( f ) = 3
(f) + 2 f + t
c 2c 8c
Cette note paraîtra pauvre par rapport à une note qui coïncidera avec une
fréquence propre, et qui donc excitera la salle.
Ceci explique les défauts liés aux petits studios ou cabines speak qui sont généra-
lement de petites dimensions : les premières fréquences propres de ces cabines
assez espacées (d’autant plus que les fréquences propres axiales sont prépondé-
rantes), colorent certaines notes ou syllabes.
Par contre, la même note jouée dans la salle 2 aura moins de chance de tomber
sur une fréquence propre isolée. La coloration dans le grave due aux
fréquences propres sera moins importante dans les grandes salles que dans les
petites.
À partir de la formule de Maa, il est donc possible d’optimiser les dimensions
d’une salle parallélépipédique afin d’obtenir une suite de fréquences propres qui
soient le plus régulièrement espacées dans le grave du spectre audible, la première
démarche étant de ne pas choisir de salle ayant deux côtés égaux et au pire 3. Dans
ces cas, les fréquences propres générées par les côtés de mêmes dimensions
seraient égales et le phénomène de coloration s’en trouverait amplifié. Cet effet est
connu sous le nom de phénomène de coïncidence.
Les diagrammes donnant les rapports entre ces dimensions sont connus sous le
nom de diagrammes de Bolt (parmi les plus connus, citons ceux correspondant
aux salles de dimensions dans les rapports 3 × 4 × 5).
Dans le cas de formes géométriques très simples, il est possible d’établir des
formules correspondant à celle de Maa. Pour des salles de forme quelconque, ce
calcul s’avère pratiquement impossible.
La question se posant alors tout naturellement à nous est la suivante :
Faut-il faire des salles parallélépipédiques ou des salles de formes quelconques ?
Dans la plupart des cas, la salle existe déjà. Dans beaucoup d’autres cas, les
contraintes architecturales emportent la décision. Dans les quelques cas restant,
la question est en fait : faut-il faire une salle parallélépipédique, de dimensions
optimisées et dont on connaîtra les fréquences propres, ou bien faut-il faire une
salle de forme quelconque dont les fréquences propres seront difficiles sinon
impossibles à calculer ?
On ne peut plus alors considérer le phénomène comme étant discret. Quand l’on
joue de la musique dans une salle, ce sont des milliers de fréquences propres qui
vont être excitées. Or, comme toutes fréquences propres d’oscillateur (une salle
est un oscillateur à trois dimensions), elles possèdent une constante d’amortisse-
ment. Il est possible d’associer à chaque fréquence propre sa constante d’amortis-
sement et également d’associer une constante d’amortissement moyenne à
l’ensemble des fréquences propres. Nous pouvons donc envisager le phénomène
de la réverbération, d’un point de vue ondulatoire, comme étant le phénomène de
décroissance de toutes les fréquences propres excitées par un son.
Ceci constitue en acoustique des salles, un lien fondamental entre l’espace
fréquence et l’espace temps.
✧✧ Source image
Considérons la figure 3.11.
Figure 3.11 — Source d’image d’une source par rapport à une paroi Σ.
Le phénomène de la propagation du son par réflexions sur des surfaces était bien
connu des anciens : Oracle de Delphes, Oreille de Denys à Syracuse, Théâtres
gréco-romains, galeries pour espionner les confidences faites à voix basses, etc. Il
est également bien connu des modernes quand ils se parlent d’un quai à l’autre du
métro !
✧✧ Énergie et réflexion
Comme nous l’avons vu plus haut, seule une partie de l’énergie incidente est en
général réfléchie par une paroi ; l’autre partie est absorbée par la paroi ou bien
transmises de l’autre côté de celle-ci, ce qui revient au même du point de vue de la
réflexion.
© Dunod – Toute reproduction non autorisée est un délit.
F Front d’onde
La méthode des « sources image » permet de tracer facilement les fronts d’ondes,
c’est-à-dire le lieu des extrémités des rayons sonores issus de la source, au bout
d’un temps t. Il suffira de tracer des cercles de rayon ct dont les centres seront les
sources images (figure 3.14). On ne retiendra que les arcs de cercle situés du côté
« réel » des parois (le côté imaginaire étant celui où se trouvent les sources image,
qui sont virtuelles).
4 πc 3 2
∆n = t ∆t
V
108 Le livre des techniques du son
(Pour des raisons difficiles à expliquer ici, cette formule est également valable
pour une salle de forme quelconque. Remarquez par ailleurs, que la densité
temporelle des réflexions suit une loi fonction du carré, comme la densité fréquen-
tielle des modes propres d’une salle.) Connaître le nombre de source image émet-
tant pendant cet intervalle de temps revient donc à connaître le nombre de rayons
réfléchis parvenant pendant ce même intervalle de temps à l’oreille d’un auditeur
situé dans la salle.
t = 1 s
∆t = 1/5 s (donc c∆t = 68 m)
on aura ∆n = 823 180 réflexions entre 1 s et 1,2 s.
L’existence de ces très nombreuses réflexions au bout d’un certain temps t,
nous amènera tout naturellement à considérer le problème d’un point de
vue statistique, pour déboucher sur les formules classiques du temps de réver
bération.
Chapitre 3 – Acoustique architecturale 109
F Phénomènes d’échos
Vous vous êtes très certainement amusé à provoquer ce phénomène au cours de
promenades en montagne. Que se passe-t-il ? Une ou plusieurs parois éloignées
vous renvoient le signal que vous avez émis, au bout d’un temps suffisamment
long pour que ce signal réfléchi ne se confonde pas avec le signal émis. Nous
notons là une des caractéristiques principales d’un écho : c’est un phénomène
sonore isolé temporellement.
Bien sûr, ce phénomène dépend du pouvoir séparateur temporel de l’oreille de
l’auditeur : certaines personnes confondent deux sons identiques séparés de
25 ms, d’autres percevront distinctement ces deux mêmes sons séparés seule-
ment de 15 ms (voir chapitre 4).
Il dépend aussi du message émis : la réflexion d’une impulsion de très courte
durée sera beaucoup plus facilement perçue comme un écho, le seuil d’apparition
de l’écho sera différent pour de la musique ou de la parole.
On admet généralement que le phénomène d’écho apparaît quand le retard entre
son direct et réfléchi est environ de 50 ms, soit une différence de trajet de 34 m.
Cela signifie qu’une paroi éloignée de vous de 17 m est susceptible de provoquer
un écho (trajet aller + retour).
Bien entendu, ce ne sont pas nécessairement les réflexions du premier ordre qui
provoquent un écho, mais aussi celles du deuxième, troisième voire quatrième
ordre. Au-delà, étant donné que la pression sonore décroît pendant la propaga-
tion, l’écho devient trop faible pour émerger.
✧✧ Remèdes
Au stade de la conception, l’étude peut faire apparaître l’existence future d’échos.
Dans le cas de salles existantes, il existe trois remèdes :
• soit modifier la géométrie de la surface en cause, ce qui est généralement
impossible ;
• soit intercaler entre la source et la surface en cause des panneaux réflé
chissants de dimensions suffisantes pour être efficaces aux fréquences
considérées ;
• soit diminuer l’énergie réfléchie en mettant un absorbant sur la surface
en cause. Mais dans ce cas on peut diminuer de façon non négligeable
le temps de réverbération de la salle, ce qui peut présenter un gros
inconvénient.
✧✧ Échos multiples
C’est le cas où plusieurs échos parviennent séquentiellement à l’auditeur, de telle
façon qu’il puisse les distinguer temporellement.
Si le retard séparant ces échos est très court, il ne pourra plus les distinguer et
percevra leur séquence comme une note d’où le nom d’écho total. Ces échos
peuvent être produits par réflexions de différents rayons sonores sur des surfaces
différentes.
Dans le cas où des surfaces sont disposées de telle façon que les rayons sonores
empruntent le même trajet plusieurs fois de suite, et donc que le signal émis passe
et repasse un grand nombre de fois aux oreilles de l’auditeur, on parlera d’écho
répétitif ; c’est un phénomène périodique, et si la distance entre ces surfaces est
suffisamment courte, on entendra également une note. De tels échos sont appelés
« flutter ». Vous pouvez en obtenir en frappant dans vos mains entre deux murs
proches parallèles et très réfléchissants : il sera d’autant plus perceptible si les
deux autres murs de la pièce sont absorbants (les réflexions sur ces murs ne
venant pas masquer le flutter).
forme, de dispositions et de dimensions, ont des qualités très variables ; celle-ci est
bonne, celle-là est mauvaise : l’une frémit au moindre coup d’archet, c’est une salle
nerveuse ; l’autre ne vibre même pas sous l’influence d’un orchestre entier, c’est la
salle lymphatique ; puis un écho se produit dans le jour, qui disparaît le soir, ou se
fait entendre le soir, qui disparaît dans le jour alors que la salle est vide, et les anno-
tations que l’on fait sur ce point, et les comparaisons, et les recherches minutieuses,
tout cela se confond dans un interminable gâchis, dans un labyrinthe inextricable.”
« D’après M. Adolphe Sax, dont, malgré sa compétence, nous ne partageons pas
absolument la manière de voir, les matériaux qui entrent dans la construction d’une
salle n’auraient aucune influence sur la formation et le caractère des sons. Il invoque
à l’appui de sa théorie les expériences qu’il a faites à ce sujet et d’après lesquelles il
n’existerait aucune différence entre les sons produits par des instruments exacte-
ment semblables, mais exécutés avec des matières différentes : le caoutchouc, le
carton, le cuivre, l’argent, le verre, etc.1. Cela est vrai quand il s’agit de la formation
et du caractère des sons, mais il n’en est plus de même lorsqu’il est question de leur
réflexion, phénomène dont dépend surtout la qualité d’une salle de concert ou de
théâtre. »
« Une étude encore récente, parue dans un journal américain d’architecture, et due
à M. William C. Sabine, permet de se rendre compte de leur erreur. M. Sabine, par
une nombreuse série d’expériences dont le détail ne peut entrer dans le cadre de cet
ouvrage, a montré l’influence de la nature de tous les corps qui figurent dans une
salle de théâtre sur la prolongation des sons émis, prolongation à laquelle il a donné
le nom de réverbération. Il a pu traduire par des chiffres les effets absorbants des
fenêtres, des matériaux de construction : bois, plâtre, ciment, briques, marbre,
verre, etc. ; des objets de décoration : plantes, tapis, tentures, etc. ; enfin des sièges en
bois, en crin, des coussins, etc. »
« Des chiffres cités par M. Sabine, on peut tirer des remarques intéressantes et même
amusantes. Ainsi, en prenant pour unité le pouvoir absorbant d’une fenêtre ouverte
de 1 mètre carré de surface, ce qui se conçoit sans avoir besoin de plus ample expli-
cation, on trouve qu’un homme a un pouvoir absorbant de 0,48, et une femme
isolée, conséquence probable du fatras de la toilette et peut-être de la coiffure, 0,54,
soit 6 p. 100 de plus que l’homme. Il faut avouer qu’on aurait cru à plus de diffé-
rence, et ceux qui n’aiment pas voir les dames à l’orchestre ne trouveront pas là un
argument bien sérieux en faveur de leur peu galante compagne. »
« À titre de comparaison, les tapis d’Orient ont un pouvoir absorbant de 0,29 et les
sièges rembourrés de 0,28. Avec ces données numériques, on peut calculer, a priori,
1. Sax se basait sur son expérience de luthier, car contrairement à une fausse idée largement répandue, la
matière constitutive des instruments à vent n’a que très peu d’influence sur leur sonorité.
Chapitre 3 – Acoustique architecturale 113
le pouvoir absorbant d’un amphithéâtre plein ou vide, avant même qu’il soit
construit. »
« Dans une salle où se produit un son continu, régulier, un auditeur peut entendre
trois sortes de vibrations : 1° l’onde primaire qui vient directement de la source
sonore ; 2° les ondes diffusées, en nombre infini, qui sont renvoyées par les parois et
forment ce qu’on appelle la résonance ; 3° d’autres ondes réfléchies régulièrement
par les parois et constituant autant d’échos distincts. Or, pour qu’une salle soit bonne
au point de vue acoustique, il faut qu’il ne s’y produise pas d’échos et que le son de la
résonance soit assez court pour renforcer le son qui l’a déterminé sans empiéter sur
le son suivant. D’autre part, comme la durée du son de résonance varie avec le
timbre, la hauteur et l’intensité du son primitif, il s’ensuit qu’une salle peut être
bonne pour un orateur et mauvaise pour un orchestre. Si cette durée dépasse une
seconde, on n’arrive à se faire entendre qu’en parlant très lentement, en articulant
avec soin et en ne donnant pas à la voix une trop grande intensité. C’est le cas, par
exemple, pour la salle du Trocadéro. Quand elle est pleine, il ne faut pas y parler trop
fort, sans quoi la parole y devient absolument diffuse. »
Sabine n’avait à sa disposition que des tuyaux d’orgues comme source sonore et
qu’un chronomètre comme moyen de mesure. Il fit ses expériences dans des
salles plutôt réverbérantes ce qui lui permettait de mieux mesurer les durées.
Sa première constatation fut que la durée de la réverbération était la même en
tout point de la salle (nous voyons déjà poindre la notion d’énergie uniformé-
ment répartie dans le volume). Ainsi, cette durée (durée psychologique car
correspondant au temps s’écoulant entre l’arrêt de la source et l’instant où le son
devenait inaudible) était-elle une caractéristique de la salle.
Mais il remarqua que cette durée n’était pas fonction uniquement de la salle, mais
aussi de la puissance de la source : un coup de pistolet « dure » plus longtemps
qu’un claquement de mains.
© Dunod – Toute reproduction non autorisée est un délit.
de l’énergie initiale, par intervalles de temps égaux. Ce qui signifie que la perte
instantanée d’énergie est un pourcentage constant de l’énergie instantanée.
Mathématiquement, cela signifie que ce phénomène se décrit par une fonction
exponentielle décroissante ce qui peut s’exprimer par :
dE dt
− =
E τ
où τ est la constante de temps, non déterminée pour le moment, de ce phéno-
mène de décroissance.
Nous avons utilisé sciemment, le terme de durée de la réverbération et non de
temps de réverbération. En effet, au risque de nous répéter, la durée de ce phéno-
mène est une durée subjective, une durée apparente : elle dépend de la puissance
de la source et si le bruit de fond de la salle est plus élevé, cette durée nous appa-
raîtra plus courte, car le son réverbéré se fondra plus vite dans le bruit de fond.
Nous verrons plus loin que le terme de temps de réverbération correspond à une
diminution arbitraire de l’énergie initiale, indépendante de la puissance de la
source et du bruit de fond de la salle.
✧✧ Définition
Par intégration de l’équation différentielle écrite plus haut, nous avons tout de
suite :
t
t −
LnE = ln Eo − soit E = Eoe τ
τ
Ce qui peut s’exprimer par : le logarithme de l’énergie sonore instantanée décroît
linéairement en fonction du temps (figure 3.16). Comme la sensation du niveau
sonore est logarithmique, cela explique le fait que le phénomène de la réverbéra-
tion soit perçu comme étant linéaire ; en première approche seulement, et sous la
condition fondamentale suggérée plus haut, à savoir que l’on suppose que l’énergie
est distribuée uniformément dans tout le volume de la salle. Il ne faudra jamais
perdre de vue cette condition dans l’application des formules de temps de réver-
bération. Ce n’est que rarement le cas en pratique.
Chapitre 3 – Acoustique architecturale 115
En fait, cette valeur Emax est la valeur E0 de la densité d’énergie initiale dont nous
sommes partis pour décrire la loi d’extinction du son.
Nous pouvons donc écrire la densité d’énergie instantanée E(t), comme étant
égale à la densité d’énergie Emax moins la différence de E(t) à Emax = ∆E(t) :
E(t) = Emax – ∆E(t)
En remplaçant E(t) par cette valeur dans l’équation du bilan des puissances, nous
obtenons :
∆E(t ) ∆E
−d =
dt τ
Chapitre 3 – Acoustique architecturale 117
Cette équation différentielle est en fait la même que celle de la loi d’établissement
du son, si l’on remplace E(t) par ∆E(t).
Cela signifie que l’accroissement de l’énergie s’établissant pendant un intervalle de
temps donné est égal à la diminution de l’énergie décroissante pendant ce même
intervalle de temps, ou, exprimé autrement, que les fonctions décrivant l’établis-
sement du son et l’extinction du son sont des fonctions complémentaires (voir
figure 3.16).
Compte tenu que l’on a ∆E(0) = Emax, la dernière équation différentielle nous
donne par intégration :
E(t ) = Emax (1 − e −t /τ )
(On peut remarquer l’analogie avec la charge et la décharge d’un condensateur.)
Si nous traçons la courbe du logarithme de E(t), nous n’obtiendrons pas une droite
comme dans le cas de l’extinction du son, mais une courbe avec un front de
montée très raide dans les premières millisecondes (voir figure 3.16).
par la paroi sur laquelle a lieu le rebond. Dans cet esprit, le coefficient d’absorp-
tion α peut être assimilé à une « probabilité d’absorption ».
Si nous observons une de ces particules sonores pendant un temps assez long t,
cette particule parcourra un trajet égal à ct. Si, pendant ce temps, elle subit N
réflexions, le trajet moyen l entre deux réflexions successives sera égal à ct/N ou à
c/n si n est le nombre moyen de réflexions par seconde. l et n sont les nombres
moyens pour une particule.
Bien sûr, il semble normal de dire que le trajet moyen d’une particule est différent
de celui d’une autre. Mais là encore intervient l’hypothèse fondamentale d’être en
118 Le livre des techniques du son
4V
libre parcours moyen : lm
S
où V est le volume de la salle, et S la surface totale des parois de celle-ci. La première
remarque à faire sur cette formule, est que le libre parcours moyen ne dépend pas
de la forme de la salle.
Nous verrons plus loin que M. J. Pujolle a introduit une nouvelle évaluation du
libre parcours moyen tenant compte des dimensions de la salle, dans les cas de
volumes géométriques élémentaires.
De l’expression du libre parcours moyen, nous pouvons facilement tirer le nombre
de réflexions par seconde, sachant que lm = c/n, ce qui donne :
cS
n
4V
cS EcSα
nVEα soit ×VEα =
4V 4
Chapitre 3 – Acoustique architecturale 119
4V
τ=
cSα
T
et comme τ =
13, 8
13, 8 × 4V 0,161V
RT60 = = qui est la formule de Sabine.
340 × Sα Sα
La grandeur A = Sα est appelée « Aire d’Absorption Équivalente ». Ce serait la
surface équivalente s’il n’y avait que des matériaux absorbants de coefficient
α = 1. D’où le nom que l’on rencontre aussi : Surface Équivalente de « fenêtre
ouverte ».
Cette formule peut être améliorée en tenant compte de l’énergie perdue en cours
de propagation par l’absorption due à l’air. Si m est la constante d’atténuation de
0,161V
l’air nous obtenons : RT60 =
Sα + 4 mV
L’introduction de l’absorption due à l’air devient non négligeable pour les salles de
grand volume, surtout pour les hautes fréquences.
Nous avons implicitement émis l’hypothèse, au cours de cette démonstration,
que le nombre de réflexions était grand, c’est-à-dire que les parois de la salle
étaient peu absorbantes. La formule de Sabine ne sera donc exacte que pour des
αi petits (jusqu’à 0,3). Il suffit de voir, que pour α = 1, la formule de Sabine donne
© Dunod – Toute reproduction non autorisée est un délit.
• la formule de Sette-Millington :
0,161V
RT60 =
−ΣSi ln(1 − αi )
Attention : les α utilisés dans la formule de Sabine et ceux utilisés dans les
formules de Eyring et de Sette-Millington n’ont pas la même signification :
c’est pourquoi l’on trouve souvent le terme β pour parler de coefficient α
Sabine, on a alors :
1
β = log
1 − α millington
• la formule de Pujolle :
M. Pujolle, acousticien français, a exprimé le libre parcours moyen en
fonction des dimensions de la salle, pour des géométries simples.
Dans le cas d’une salle de forme parallélépipédique, ce libre parcours
moyen, lm, est égal à :
1 13, 8lm
lm = ×
6
(l 2
+ L2 ) + (l 2
+ H2) + ( L + H )
2 2
et RT60 =
−c ln(1 − α)
Si nous remplaçons lm par son expression classique (4V/S) nous retrouvons
la formule d’Eyring.
Pour conclure, on ne peut utiliser ces formules qu’avec la plus extrême précau-
tion, en ayant toujours à l’esprit l’hypothèse fondamentale d’être en présence d’un
champ sonore parfaitement diffus.
F Salles couplées
Si une salle est composée en fait de deux volumes distincts, couplés par une
ouverture ou même par une paroi « transparente » du point de vue de la transmis-
sion, on ne pourra plus appliquer les formules du temps de réverbération à
cette salle.
De tels cas de couplage se rencontrent fréquemment : salle/loge, salle/balcon,
scène/salle, etc.
Nous ne donnerons pas la théorie des salles couplées ici, mais tout se passe comme
si l’extinction d’un son émis dans l’un des deux volumes était la résultante de l’in-
teraction des caractéristiques réverbérantes des deux volumes.
À l’époque des premiers studios, on faisait varier la réverbération d’un studio en
ouvrant plus ou moins la baie qui le faisait communiquer avec une salle très
Chapitre 3 – Acoustique architecturale 121
W Q 4
soit Et = +
c 4 πr R
2
Q 4
LSPL = LSWL + 10 log + en dB
4 πr R
2
122 Le livre des techniques du son
Figure 3.17 — Champ sonore au voisinage d’une source dans une salle
réverbérante, en fonction de la distance à la source.
✧✧ Critères de qualité
En fait, les acousticiens se sont très rapidement aperçus que la caractéristique
principale d’une salle, le RT60 était loin de décrire les qualités acoustiques de la
salle. En effet, deux salles de concert, par exemple, peuvent avoir le même RT60
et l’une être mauvaise et l’autre bonne, aux dires des utilisateurs.
On a donc été amené à définir d’autres critères, basés sur une étude plus fine de la
structure de la réverbération. Tous ces critères peuvent être déduits de la connais-
sance de la réponse impulsionnelle de la salle (voir chapitre 5), c’est-à-dire de la
connaissance de la quantité d’énergie arrivant à chaque instant en un point de
mesure d’une salle dans laquelle on émet une impulsion. Ces méthodes de mesure
faisant largement appel à l’informatique, cela en explique le caractère très récent.
Parmi les plus importants, citons :
EDT (Early decay time) : durée de la réverbération sur les 10 premiers décibels de
décroissance. Il apparaît en effet que l’auditeur est très sensible aux premiers dB
de décroissance. D’ailleurs très souvent, la pente de la courbe de réverbération
pendant les premiers dB de décroissance, est différente de celle du reste de la
courbe (alors qu’elle devrait être constante, d’après la théorie) ; de plus, on n’at-
teint pas toujours les 60 dB de dynamique, et la fin de la décroissance est souvent
© Dunod – Toute reproduction non autorisée est un délit.
1
∆f =
∆t
Chapitre 3 – Acoustique architecturale 125
Ce phénomène est exactement celui qui arrive, aux amplitudes près, lorsqu’un
son direct et le même son réfléchi (donc parcourant un trajet plus long)
parviennent aux oreilles d’un auditeur, séparés par un temps très court (quelques
millisecondes). C’est ce qui se passe lorsque des surfaces réfléchissantes se
trouvent à proximité d’un orchestre, ou bien des enceintes acoustiques dans le cas
d’une cabine de mixage.
La somme d’un signal et des réflexions proches de ce signal donne une réponse
en fréquence analogue à celle que donnerait le filtrage de ce signal par un filtre
© Dunod – Toute reproduction non autorisée est un délit.
en peigne.
Le signal d’origine est donc ainsi fortement coloré.
Quel effet cette coloration amène-t-elle sur le plan subjectif ?
Dans le cas de lieux d’écoute tels que salles de concert, elles ont plutôt tendance à
enrichir le signal, à le « grossir », ce qui est un effet recherché. Par analogie, c’est
un peu ce que fait l’ingénieur du son lorsqu’au mixage, il mélange au son direct le
même son avec un retard de quelques millisecondes, qu’il peut d’ailleurs spatia-
liser, il cherche ainsi à « élargir » le son, à lui faire « prendre plus de place », etc.
126 Le livre des techniques du son
Dans le cas de cabine de mixage ayant toute la face avant et une partie du plafond
réfléchissant, cela va au contraire à l’encontre du but recherché, qui est la neutra-
lité de l’écoute.
2
Z cos θ − ρc
α(θ) = 1 −
Z cos θ + ρc
Cette formule fait apparaître que pour θ = 90°, α (90°) serait nul ; en fait,
il y a toujours une absorption, quel que soit l’angle d’incidence. Pour les
matériaux poreux, la figure 3.20 en donne la forme générale ; en outre la
valeur de α pour θ = 90°, est sensiblement égale à la moitié de celle pour
α = 0°.
Il peut également être déduit de l’impédance acoustique, que l’on peut mesurer à
l’aide d’un tube de Kundt.
Il peut être mesuré en chambre sourde, en envoyant une impulsion sur
un échantillon de surface, et en mesurant l’amplitude de l’impulsion
réfléchie. Enfin, il peut être mesuré en chambre réverbérante, en le dédui-
sant de la m odification du temps de réverbération de celle-ci. Dans ce cas,
la valeur est obtenue sous incidence diffuse, et dépend de la formule de
durée de réverbération utilisée pour le calcul. Cette méthode est la plus
employée.
128 Le livre des techniques du son
Lorsqu’un matériau poreux est placé à une certaine distance de la paroi, l’absorp-
tion de celui-ci va être maximale pour les ondes dont les ventres de vitesse
λ
coïncident avec la position du matériau d = (2k + 1) , l’énergie dissipée par
4
viscosité étant proportionnelle à la vitesse acoustique.
Donc, si d est la distance séparant le matériau poreux de la paroi, les ondes de
longueur d’onde λn égales à 4 d/n où n est impair seront très absorbées ; à l ’inverse,
130 Le livre des techniques du son
les ondes de longueur d’onde égale à 4 d/n où n est pair ne seront que peu absor-
bées. Cette absorption est donc très sélective et il faudrait disposer plusieurs
matériaux poreux à différentes distances pour obtenir une absorption plus
étendue.
✧✧ Les résonateurs
a) Les résonateurs à membranes
Ce sont des panneaux perforés ou non, en général relativement légers, montés sur
un cadre périphérique fixé sur une paroi. Il est donc ainsi créé un volume hermé-
tique entre le panneau et la paroi, volume qui est en général amorti par la fibre
minérale. Sous l’effet d’une onde acoustique incidente, le panneau vibre, du fait de
l’effet de ressort de l’air contenu dans le volume, et l’énergie acoustique incidente
se trouve ainsi transformée en partie en énergie cinétique.
L’absorption est donc maximale à la fréquence de résonance du système
(figure 3.22) qui, dans la pratique, est donnée avec une bonne approximation par
la formule :
600
f
ms d
Dans le cas où le panneau est perforé, ms peut être remplacé par la masse équiva-
lente m′ donnée par :
ρo b
m′ =
σ
où b est l’épaisseur du panneau et σ le pourcentage de perforation égal à S1/S2 avec
S1 surface d’une perforation et S2 la surface de panneau par perforation.
Cette fréquence de résonance est en général assez basse, ce qui fait de ces résona-
teurs des outils idéaux pour absorber les basses fréquences.
L’amortissement de ces résonateurs, qui joue un rôle très important dans la forme
de la courbe d’absorption, est fonction des frottements dans le matériau du panneau,
de la dissipation d’énergie dans le matériau poreux disposé dans le vide d’air et dans
le cas des panneaux perforés, du frottement de l’air dans le col des perforations.
Le coefficient α de ces résonateurs peut être calculé à partir de la théorie, mais
donne une expression très compliquée ; dans la pratique, on utilise les valeurs
mesurées en laboratoire.
b) Résonateur du type Helmholtz
Le résonateur de Helmholtz est composé d’une cavité à paroi rigide qui commu-
nique avec l’air par une ouverture possédant un col (figure 3.23).
© Dunod – Toute reproduction non autorisée est un délit.
L’air enfermé dans la cavité agit comme un ressort pour les ondes dont les
longueurs d’onde sont grandes devant les dimensions de la cavité, et l’air contenu
dans le col comme une masse ; on se trouve donc en présence d’un dispositif
masse-ressort dont on peut calculer la fréquence de résonance :
c S
f= ×
2π lV
132 Le livre des techniques du son
F Les diffuseurs
Nous avons déjà vu au § 3.1.1 le phénomène de la diffusion.
Tout objet visible à l’œil nu est un diffuseur en puissance pour une certaine gamme
d’ondes, dont les longueurs d’onde seront de l’ordre de grandeur des dimensions
de l’objet.
Comme nous l’avons vu au paragraphe précédent, des absorbants peuvent égale-
ment jouer le rôle de diffuseurs dans des gammes de fréquences différentes de
celles où ils sont efficaces en tant qu’absorbants.
La forme donnée à un diffuseur peut donc être quelconque, a priori, mais certaines
formes sont classiques. Parmi celles-ci, citons les dièdres, demi-cylindres appelés
poly-cylindres. Dans le cas de ces derniers, la diffusion agit pour des longueurs
d’onde voisines du rayon du cylindre.
Le problème de ces formes est que l’on ne maîtrise pas bien le phénomène :
combien de directions de diffusion, dans quelles directions, quelle énergie est
réémise dans chaque direction ?
Le célèbre acousticien, Manfred R. Schroeder, a exposé récemment une théorie
permettant de concevoir des diffuseurs auxquels on a donné son nom, et de
connaître toutes leurs caractéristiques : bande passante, directions ; ces diffu-
seurs ont en outre la propriété de diffuser la même quantité d’énergie dans toutes
les directions.
Sans exposer les calculs, nous allons décrire le principe de cette théorie, qui est
très belle, puisqu’elle part d’un nombre premier et aboutit à un objet.
m×c
sin α d = − sin αi
NW f
Ces diffuseurs ont une application toute trouvée pour diffuser les réflexions laté-
rales et celles du plafond, dans les salles de concert. Ils trouvent également une
application immédiate dans la création du champ réverbéré et diffus d’une cabine
de mixage LEDE (voir plus loin « Le concept Live-end – Dead-end »).
sensiblement diminué pour laisser place à des cabines pour y placer une batterie,
un chanteur… isolé ainsi des autres instrumentistes. Les problèmes liés aux lieux
de petites dimensions sont rapidement apparus (voir § 3.1.3 « Fréquences
propres ») et d’autre part le côté « vivant » du son lié à l’acoustique d’un grand
local a disparu.
Si le studio est assez grand, il est possible de concevoir des zones d’acoustiques
différentes sans qu’il soit nécessaire d’avoir des séparations physiques entre elles ;
ceci n’élimine pas le phénomène des salles couplées. Mais il n’est guère intelligent
de croire que l’on peut créer quatre zones différentes dans une salle de 20 m2 !
En fait, n’importe quel lieu, traité ou non acoustiquement, peut faire un bon
studio lorsque le son qui en sort va dans le sens esthétique choisi (Phil Spector
avait fait construire son studio autour d’un puits dont la réverbération l’avait
séduit et bien des instruments ont été enregistrés dans le grand escalier du
château d’Hérouville) ; bien sûr, il est nécessaire de disposer d’un endroit relative-
ment « passe-partout » dans les autres cas.
✧✧ Acoustique variable
Une des solutions permettant d’avoir des acoustiques naturelles différentes dans un
seul studio, est de faire ce que l’on appelle de « l’acoustique variable » ; cela consiste à
pouvoir faire varier le volume de la pièce par des cloisons de séparation coulissantes,
des plafonds pouvant monter ou descendre, ou bien à pouvoir faire varier le coeffi-
cient d’absorption des parois, par l’utilisation de rideaux montés sur rails, de
panneaux montés sur charnières et possédant une face réfléchissante et une face
absorbante ; ces systèmes sont d’utilisation simple et rapide. Des systèmes plus
compliqués existent comme disposer sur toute la surface d’une paroi des séries de
prisme ayant une face réfléchissante, une face moyennement absorbante et une face
absorbante, le tout pouvant être commandé électriquement et même géré par ordi-
nateur, ce qui permet de retrouver instantanément une acoustique donnée.
a mplitude le sont beaucoup moins puisque leur largeur et leur amplitude sont
beaucoup plus petites.
L’idée de base du LEDE est donc la suivante : puisque l’oreille humaine a
besoin d’un champ réverbéré et que les premières réflexions importantes de
celui-ci de courts retards doivent être évitées, il faut créer un champ réverbéré
dont les pre-mières réflexions significatives soient rejetées à partir de 20 ms
du son direct.
D’un point de vue de la géométrie cela signifie que la cabine est divisée
en une moitié avant aussi anéchoïque que possible et une moitié arrière
réverbérante.
Comme les réflexions ne doivent pas être de grande amplitude, elles doivent
être produites par des surfaces extrêmement diffusantes ; les diffuseurs de
Schroeder trouvent donc ici une application évidente. Le champ réverbéré
est ainsi constitué d’une multitude de petites réflexions de retards différents de
20 ms minimum.
La réponse de la cabine à la place de l’ingénieur du son est donc le résultat d’une
multitude de filtrages en peigne donnant une multitude d’accidents de très petite
amplitude et de très petite largeur ; de telle sorte que l’oreille intègre ces « acci-
dents » et « lisse » la courbe de réponse.
Le fait de rejeter les premières réflexions significatives au bout d’un temps
égal à 20 ms, implique qu’il existe un « fossé » temporel de 20 ms entre l’arrivée
du son direct et ces premières réflexions ; d’un point de vue psychoacoustique,
cela revient à dire que l’ingénieur, à la position d’écoute, a l’impression de se
trouver dans une salle plus grande ; de plus, si le studio n’est pas trop grand, ce qui
est souvent le cas des studios de variétés et donc si le retard entre le son direct
dans le studio et les premières réflexions dans le studio est compris entre 0
et 20 ms, l’ingénieur du son en cabine entendra les réflexions du studio,
puisqu’elles ne seront pas masquées par celles de la cabine, qui n’arrivent qu’après
20 ms. Ainsi, l’acoustique de la cabine ne masque pas l’acoustique du studio
(figure 3.25).
Ayant conçu une dizaine de cabines de ce type, la première impression que m’ont
confiée les utilisateurs, a toujours été l’absence de fatigue auditive. Je pense que
cela tient au fait que le travail dans ce type de cabine élimine une gymnastique
cérébrale inconsciente qui, dans l’autre type de cabine consiste à dissocier
constamment l’information utile venant des enceintes, de celle parasite, apportée
par les puissantes premières réflexions de court retard, arrivant pratiquement en
même temps que le son direct.
Chapitre 3 – Acoustique architecturale 141
Don Davis a donné une série de cinq conditions pour qu’une cabine puisse rece-
voir l’appellation LEDE :
• l’existence d’une coque extérieure asymétrique aussi grande, lourde et
rigide que possible (aux très basses fréquences, c’est cette coque qui sera
« vue » par les ondes) ;
• la coque intérieure doit être symétrique, la fréquence en dessous de
laquelle la coque extérieure devenant prépondérante étant donnée par la
3c
relation f , où l est la plus petite dimension de la pièce ;
l
• l’existence d’un chemin anéchoïque entre les enceintes et l’ingénieur du
son, donnant un ITD (Initial time delay : temps de délai initial) cabine
supérieur de 2 à 5 ms, à l’ITD studio ;
• l’existence d’un champ hautement diffus, créé par les parois de la moitié
arrière de la cabine, les premières réflexions significatives se situant dans
© Dunod – Toute reproduction non autorisée est un délit.
acoustiques d’un local agissent sur la qualité de l’exécution et cette dernière est
ressentie par l’auditoire qui réagit face aux interprètes. C’est en quelque sorte un
asservissement en boucle fermée. On entend par qualités acoustiques d’une
salle, la recherche de la compréhension suffisante (ou intelligibilité), de la
netteté et de la non-déformation du message initial (fidélité), du confort
d’écoute, et d’une esthétique appropriée.
Les caractéristiques acoustiques du local influent sur la qualité du message sonore
et peuvent l’améliorer ou la dégrader suivant les cas. Il faudra donc rechercher
l’adaptation optimale entre la nature de l’utilisation et le genre du local ; ceci peut
se faire dans un sens comme dans l’autre : salle choisie pour un répertoire ou un
instrument, ou bien l’inverse.
Remarquons toutefois que les valeurs utilisées pratiquement ont subi l’influence
de modes : certaines périodes ont eu des préférences pour des durées longues
(salles sonores), d’autres pour des durées plus courtes (salles analytiques) ; ceci
est également vrai en ce qui concerne l’esthétique de la prise de son, le choix des
tempi, etc.
Un RT60 trop long crée un flou, un manque de précision, de netteté. Les modula-
tions sont comme diluées. Il est parfois possible d’effectuer un enregistrement
correct mais il est plus difficile, voire impossible, d’utiliser une telle salle pour une
audition directe ; on dit alors que la salle est trop « claire », « brillante », « longue »,
ou encore qu’elle « sonne » trop. Au contraire, un RT60 trop court crée une impres-
sion de sécheresse, de matité, de dureté. On se rapproche alors des conditions de
plein air (champ libre) où seule l’onde directe est prise en compte. Là encore, une
prise de son peut être réalisée – à laquelle on pourra toujours ajouter de la réver-
bération artificielle – mais l’audition directe sera fortement altérée. Le « rende-
ment » de la salle est faible, et donne une impression désagréable, préjudiciable à
une bonne exécution.
✧✧ Distance critique
La durée de réverbération va conditionner la « distance critique ». On appelle
« distance critique » (appelée encore « rayon de réverbération » dans certains
pays) la distance (entre la source et l’auditeur, ou le micro) pour laquelle l’énergie
réverbérée est égale à l’énergie directe (figure 3.27).
Plus le RT60 est élevé, plus la distance critique est courte et inversement. Le
dosage énergie directe-énergie réverbérée est possible jusqu’à la distance critique;
au-delà , nous sommes dans le champ réverbéré constant (asymptote). Cette
notion est très importante pour la prise de son (plans sonores).
© Dunod – Toute reproduction non autorisée est un délit.
diagramme (figure 3.29) donne déjà une idée assez précise de la couleur du local.
Une remontée trop importante, mais régulière, dans les basses fréquences, provo-
quera un traînage, tandis qu’une remontée sélective (sous forme de « bosse »)
entraînera un effet de ballonnement appelé son « de tonneau »… Ces défauts
seront d’autant plus marqués, que la décroissance sera importante dans le spectre
aigu, créant ainsi un déséquilibre. C’est ainsi qu’un accord sur le tutti d’un grand
orgue, ou encore d’un orchestre, variera spectralement dans le temps, les sons
graves ayant une durée de vie bien plus longue que les sons aigus. Ce « détim-
brage » est très sensible dans une cathédrale telle que Notre-Dame de Paris par
exemple, et encore très audible dans une salle de concert symphonique.
L’expérience montre qu’un local dont le diagramme RT60 = f (fréquence) est
horizontal donne une impression artificielle, dure, métallique et désagréable. De
la même façon, lorsque l’on utilise une chambre de réverbération artificielle, un
diagramme linéaire n’est utilisé que pour produire un effet spécial.
© Dunod – Toute reproduction non autorisée est un délit.
✧✧ La durée de réverbération
Une mauvaise adaptation du RT est toujours préjudiciable à la qualité de la
communication. Un orateur sera gêné par un excès de réverbération et ne
sera pas compris, un clavecin sera noyé dans l’acoustique d’une cathédrale.
148 Le livre des techniques du son
✧✧ La diffusion
Ce terme un peu général désigne la plus ou moins grande homogénéité d’une
salle, et ce, à toutes les fréquences. Cette qualité, qui a pour avantage de donner
une grande richesse sonore à la salle, est due à la présence d’éléments réflecteurs
polydirectionnels, de dimensions variées qui multiplient le nombre de réflexions
et « brassent » ainsi le champ sonore.
L’homogénéité ainsi obtenue se traduira par des décroissances lissées, la réparti-
tion statistique de l’énergie étant plus régulière dans le temps.
C’est également pour accroître l’homogénéité que l’on panache le plus possible les
éléments absorbants et diffusants dans un local (augmentation de l’effet de bord)
(figure 3.31).
© Dunod – Toute reproduction non autorisée est un délit.
Il faut en effet, pour être efficaces, que les creux et saillies produits par ces éléments
soient du même ordre de grandeur que les longueurs d’onde des fréquences en
jeu. Ceci conduit à des grandes dimensions aux fréquences basses (à 100 Hz, la
longueur d’onde est 3,40 m).
Il faut remarquer enfin que ces éléments diffusants sont également absorbants
(effet de piège à son, augmentation du trajet par réflexions multiples) ; on peut
comparer leur effet à celui des brise-lames utilisés dans les ports. Il conviendra
donc d’en tenir compte lors de l’étude pour obtenir le RT60 optimal.
Les éléments diffusants peuvent être mis en place tout spécialement (en coordi-
nation avec l’étude de décoration), ou se trouvent naturellement dans l’architec-
ture de la salle (piliers, moulures, statues, etc.) ou encore dans la forme propre des
murs du gros œuvre.
Enfin, les éléments diffusants ne doivent pas apporter de perturbation : échos
gênants pour les musiciens (retours), ou pour les auditeurs.
Nouvelles tendances : emploi de diffuseurs à résidu quadratique, dits diffuseurs
de Schroeder et diffuseurs RPG (Reflexion phase grating diffusors) [27], [29] ;
ces éléments sont constitués de blocs de bois, dont les formes et dimensions
résultent de méthodes basées sur la théorie des nombres (voir § 3.1.7 « Les
diffuseurs »).
✧✧ Le bruit de fond
Le bruit de fond acoustique est un autre facteur qui affecte la qualité d’une salle
d’écoute. En plus de la gêne proprement dite, de l’effet de masque, il y a une réduc-
tion de la dynamique à l’écoute, donc une modification de la durée de réverbéra-
tion apparente (figures 3.32 et 3.35). Les causes essentielles du bruit de fond
acoustique sont :
• un isolement trop faible du bâtiment, (murs, portes, fenêtres…),
• la climatisation, l’éclairage, etc.,
• un mauvais découplage des équipements bruyants tels qu’ascenseurs,
groupes compresseurs, machineries, circulation, etc.
Le bruit est le plus souvent exprimé en niveau global, suivant une méthode de
calcul qui tient compte de la gêne psycho-physiologique (voir chapitre 4). Les
plus couramment utilisés sont les dBA (pondération physiologique A) ou les
courbes NR (Noise Rating). On peut également fournir la répartition spectrale du
bruit par octave ou par 1/3 d’octave avec et sans pondération physiologique. Les
valeurs pratiquement utilisées pour le niveau du bruit de fond sont 25 dBA ou
NR20 dans une salle de concert.
Chapitre 3 – Acoustique architecturale 151
1
Li = Lp +10 log
4 πr 2
4
En espace semi-réverbérant, s’ajoute la constante de la salle , soit :
R
152 Le livre des techniques du son
1 4 Sα
Li = Lp + 10 log + et R = (a absorbant moyen)
4 πr R 1− α
2
L’évolution des théâtres antiques en plein air, jusqu’à nos salles modernes,
s’est faite par étapes : salles fermées en fer à cheval dites « à l’italienne », puis
salles rectangulaires (parallélépipédiques). Toujours dans le souci de loger le
maximum de spectateurs, des plans superposés appelés balcons ont été
construits.
La tendance actuelle est de supprimer ces derniers au profit d’une disposition
étagée dite en « Weinberg » (littéralement : vignoble en coteaux). On utilise cette
appellation par analogie avec les vignobles en terrasses étagées de la vallée du
Rhin : des groupes de sièges sont surélevés et décalés en hauteur les uns par
rapport aux autres (exemples : Palais des Congrès de Strasbourg, de Lille, Phil-
harmonie de Berlin, Salle Acropolis de Nice…).
En effet, l’espace sous un balcon constitue un espace semi-fermé couplé avec l’es-
pace principal dans lequel la propagation et la distribution s’effectuent souvent
mal, les caractéristiques acoustiques de ces deux espaces étant différentes. Les
devants de balcons forment aussi un obstacle qui est une gêne acoustique, source
de réflexions ou d’échos.
Chapitre 3 – Acoustique architecturale 155
piliers…).
Construites pour la plupart au xixe siècle, les salles rectangulaires (exemple :
Musikverein de Vienne) deviennent progressivement évasées, trapézoïdales, en
secteur (portion du cercle initial) dites encore en « fan-shape » (éventail), pale de
ventilateur, et plus récemment en trapèze, à pans coupés (exemple : Palais des
Congrès de Lille, Strasbourg, Acropolis de Nice).
Les salles rectangulaires et trapézoïdales présentent respectivement des avan-
tages et des inconvénients : les premières risquent d’être génératrices d’échos
mais ont une meilleure répartition sonore [3].
156 Le livre des techniques du son
✧✧ Modes propres
Tout local possède des fréquences propres, et on sait que leur répartition est
importante, surtout aux fréquences basses. Dans ce registre, on recherchera à
éviter les intervalles importants et les accumulations (résonances fortes), afin
que l’audition ne soit pas perturbée.
Pour cela, en plus de ce qui a été dit précédemment concernant la géométrie, il
convient de choisir convenablement les dimensions de la salle (largeur, longueur,
hauteur), et leurs rapports (travaux de Bolt, Pujolle), si la salle est parallélépipé-
dique ou se rapproche de cette forme.
✧✧ La zone d’émission
Une salle de concert se compose schématiquement de deux volumes : l’un conte-
nant l’émetteur, l’autre le récepteur. Le premier doit renforcer les sources sonores
© Dunod – Toute reproduction non autorisée est un délit.
et diriger l’énergie vers la zone de réception. Ce premier volume n’est donc pas
absorbant, bien au contraire, il est réfléchissant.
D’autre part, cette zone d’émission est diffusante afin de faciliter l’intégration des
différentes sources dans le cas usuel de sources multiples (orchestre, chœurs grand
orgue…). L’intégration est la fusion harmonieuse et homogène de tous les sons,
tout en respectant leur intensité et position relatives, et ce, à toutes les fréquences.
S’il s’agit de théâtres, on évitera au contraire l’intégration des sources, et on
recherchera plutôt à préserver le caractère analytique. Ceci permet le repérage
spatial de différentes sources et le rendu de leurs mouvements.
158 Le livre des techniques du son
a b
Les matériaux constitutifs seront durs (bois, staff, pierre, etc.) et de forme diffu-
sante (pointes de diamant, redans, dents de scie, réflecteurs hyperboliques, poly-
cylindres) surtout pour les salles de concert.
En plus de son rôle de réflecteur, cette zone d’émission produit l’EDT requis, les
premières réflexions utiles autant à l’auditoire qu’aux musiciens. Une conque est
parfois disposée à cet effet. Elle fait l’objet d’une étude particulièrement soignée sur
maquette puis de réglages en grandeur réelle (écoute de la balance orchestrale en diffé-
rents points de la salle). On inclut également les praticables dans cette mise au point.
✧✧ La zone de réception
Le second volume contient le public et doit être acoustiquement neutre, on dit
aussi « mat ». Il sera principalement constitué de matériaux absorbants (parois,
fauteuils…).
Le passage d’une zone à l’autre se fait en général progressivement avec une densité
de plus en plus forte de matériaux absorbants au fur et à mesure que l’on se déplace
de la scène vers le fond.
Il est possible de faire une analogie avec l’optique : les sources sonores sont dispo-
sées dans une zone « claire » de la même façon qu’une ampoule est placée dans la
calotte réfléchissante d’un phare. Cette zone projette les sons vers le public qui doit
être dans la zone mate à l’image de l’ampoule renforcée qui éclaire la route dans
l’obscurité. Cette disposition des matériaux acoustiques dans une salle s ’appelle
Chapitre 3 – Acoustique architecturale 159
la polarisation. L’ensemble des deux zones doit contenir le nombre d’unités
d’absorptions nécessaires à l’obtention du RT60 optimal défini, public compris.
On essaie, quand cela est possible, de choisir des sièges qui conservent à peu près
le même pouvoir absorbant qu’il soit vide ou occupé, de façon à ce que la salle ne
change pas sensiblement de couleur avec ou sans public (ceci est très utile pour les
enregistrements).
Dans une église ou cathédrale, une hétérogénéité peut exister entre la croisée de
transept et la nef, ou entre le chœur et la nef, si des obstacles tels que piliers,
voûtes, jubé… diminuent le couplage entre ces deux volumes. Dans tous les cas,
la décroissance du son n’est plus linéaire et on observe deux segments de pentes
différentes (figure 3.35).
Remarque : dans certains cas, les parois de la zone mate sont inexistantes, donc
d’absorption maximale (100 %) par définition. C’est le cas des pavillons de
musique, kiosques et conques en plein air, lorsqu’ils ne sont pas ceinturés d’habi-
tations ou de plantations (exemple : le Hollywood Bowl à Los Angeles).
F Adaptation au lieu
Pour augmenter l’intelligibilité ou bien améliorer l’esthétique dans un local trop
réverbérant, on va rechercher un RT apparent (figure 3.36) le plus court possible
(ce qui revient à moins exciter la salle) :
• soit en réduisant la distance source-auditeur (place de la chaire, des H.P.,
rôle du jubé…),
• soit en utilisant des sources de niveau plus faible mais en multipliant alors
leur nombre (cas des haut-parleurs de « sonorisation » dans les églises,
gymnases…),
• soit enfin, en renforçant l’onde directe et en la dirigeant vers les auditeurs
au moyen de réflecteurs adaptés (abat-son au-dessus des chaires autrefois,
choix de H.P. directifs…).
© Dunod – Toute reproduction non autorisée est un délit.
Au contraire, si l’espace est trop mat (acoustique sèche), nous disposerons des
réflecteurs autour des sources en direction de l’auditoire. Ceci a pour effet d’aider
les orateurs ou musiciens et améliore la propagation du son (voir « La zone de
réception »).
162 Le livre des techniques du son
Il est aussi possible d’aménager les locaux sans polarisation, c’est-à-dire non
étudiés en vue de concerts, ou de représentations théâtrales. Pour ce faire, il faut
disposer des réflecteurs mobiles autour des sources sonores (ex : panneaux de
Chapitre 3 – Acoustique architecturale 163
F Acoustique variable
Pour utiliser une salle de plusieurs façons (musique symphonique, variétés,
conférences, spectacles sonorisés, théâtre, enregistrement sans public, etc.), il est
nécessaire de modifier les paramètres décrits précédemment, afin d’obtenir dans
chaque cas la meilleure adaptation. C’est une opération très difficile à mettre en
œuvre si l’on est soucieux de la qualité.
En effet, si l’on veut modifier la valeur du RT60, il faudra le faire à toutes les
fréquences et, en modulant convenablement l’allure du diagramme RT60 = f
(fréquence), si nécessaire (voir § 3.2.1 « Durée de réverbération optimale »).
© Dunod – Toute reproduction non autorisée est un délit.
✧✧ Variation du RT60
Pour agir sur la valeur du RT60, on peut modifier le volume V (tout en respectant
les proportions, les dimensions relatives, modes propres…) ou l’absorption
αS des parois (changement de la surface S ou changement de matériau ce qui
revient à changer α). Si l’on désire moduler l’allure du diagramme
RT760 = f (fréquence), il faudra combiner les actions sur V et αS. Ceci semble
simple sur le plan théorique, mais la réalisation implique d’importants moyens
de mise en œuvre : dispositifs mécaniques, scénographiques, surtout si l’on
désire une v ariation importante du RT60 (exemple de l’espace de projection de
l’IRCAM, figure 3.37a).
164 Le livre des techniques du son
En effet, il est relativement aisé d’introduire des unités d’absorption dans les
registres haut-médium et aigu (rideaux de velours, moquettes, matériaux absor-
bants sur panneaux mobiles légers, sièges, etc.).
(Exemple : pour les enregistrements de disques, il est possible de modifier la
majorité des sièges du parterre de la salle Pleyel. En repliant les dossiers, on
occulte une partie absorbante, qui se trouve ainsi remplacée par des surfaces
lisses [bois vernis], de forme diffusante. Le diagramme du RT60 à vide subit ainsi
une translation de 0,25 s dans le registre médium-aigu.)
Mais pratiquement, il est beaucoup plus difficile d’ajouter ou d’ôter des absor-
beurs de fréquences graves ou bas-médium (résonateurs, diaphragmes, obstacles
diffusants, etc.). De la même façon, la modification du volume d’un local (plafond,
murs mobiles), entraîne des travaux importants et coûteux (exemple : espace de
projection de l’IRCAM, Palais des Congrès de Belgrade).
✧✧ Variations de l’EDT
Cela revient à modifier les emplacements, ou la nature des surfaces génératrices
des premières réflexions. Pratiquement, c’est la conque d’orchestre qui est modu-
lable, ou de simples réflecteurs qui sont mobiles (en translation, et angulaire-
ment). Exemples : Nouvelle Salle Pleyel, Palais des Congrès de Strasbourg, Salle
Polyvalente de Gennevilliers.
✧✧ Transformations importantes
Il peut être demandé une très grande diversité d’usages, telle que la transforma-
tion d’un grand studio d’enregistrement musical en salle publique de variétés
Chapitre 3 – Acoustique architecturale 165
Compte tenu de ces contraintes et précautions, qui demandent une mise au point
minutieuse, le procédé permet de doubler le RT60 d’une salle, ce qui aug
mente déjà considérablement son éventail d’utilisations (voir figure 3.37b). Il est
dommage qu’il ne soit pas possible d’augmenter davantage le RT pour les salles de
concert qui possèdent un grand orgue.
Réalisations : Auditoriums Hans Rosbaud de la SWF à Baden-Baden, P.O.C.
Philips à Eindhoven (voir figure 3.37 au centre), Palais des Festivals à Cannes,
Palais des Congrès de Berlin, nombreuses salles dans les pays scandinaves…
Chapitre 3 – Acoustique architecturale 167
parfaite acoustiquement, mais d’aspect visuel plus rébarbatif. Tout ceci reste
bien entendu relatif et il ne faut pas croire qu’une belle moquette dispense
d’une étude acoustique soignée !
F Mesures et interprétations
Le rôle des mesures est « d’objectiver le subjectif », ce n’est pas une moindre diffi-
culté. Les mesures traditionnelles in-situ (qualitatives et quantitatives) vont
permettre une approche objective et réaliste des qualités d’une salle. On peut
donc mesurer la durée de réverbération, les premières réflexions (EDT), le niveau
de bruit de fond, le niveau sonore, le STI (Speech transmission index), effectuer
des échogrammes…
Toutes ces mesures s’effectuent en fonction de la fréquence et en plusieurs points
de la salle. Nous en déduirons l’allure des diagrammes en fonction de la
fréquence, l’allure des décroissances (linéaires, courbes, en deux pentes, avec
échos émergents). Si l’on peut dire à coup sûr que de mauvais résultats aux
mesures seront le reflet d’une mauvaise salle, l’inverse n’est pas forcément vrai.
Certaines salles satisfaisant aux critères énoncés sont loin de faire l’unanimité.
Remarquons enfin que la majorité des mesures ne peuvent s’effectuer qu’à vide.
Il convient donc d’extrapoler l’influence de la présence du public (charge). Quel-
quefois, grâce à la complaisance d’un chef d’orchestre, et moyennant une
annonce pour le public présent, on enregistre un accord comprenant le tutti de
l’orchestre, instruments amortis (en particulier les timbales). Il est ensuite
possible d’analyser cet enregistrement en laboratoire et d’obtenir ainsi le
diagramme du RT60 = f (fréquence) salle pleine. Pour mémoire, sachons qu’il
existe également des méthodes d’intercorrélation qui permettent d’obtenir ce
résultat sans perturber l’audition (impulsions simultanées de niveau 20 dB en
dessous du niveau sonore), mais ce procédé demande un très important maté-
riel de dépouillement.
Bien que techniquement très élaborée, les mesures traditionnelles restent encore
incomplètes, en ce sens qu’elles ne tiennent pas compte de tous les critères
d’appréciation subjective. Parmi d’autres, les acousticiens Beranek, Schroeder,
Jordan, se sont penchés sur ces problèmes. En particulier, ils ont mis en évidence
l’importance :
• des réflexions latérales et verticales (avantages et inconvénients),
• de l’intervalle de temps entre l’arrivée du son direct et de la première
réflexion,
• des signaux binauraux et de la direction des réflexions,
• de la sensation spatiale de la salle.
Chapitre 3 – Acoustique architecturale 169
C’est à partir de ces données qu’ils ont essayé de définir des critères d’appréciation
subjective tels que : la « plénitude », l’« intimité », la « sonie » et la « clarté ».
Mais ces critères ne tenaient pas compte du « facteur directionnel ».
West (1966), Marshall (1968), Barron (1971), Keet (1968), Kuhl (1978), ont
avancé dans ce sens. La sensation spatiale dépend de la « sonie » du son et du degré
de cohérence (ou coefficient de corrélation) des signaux sonores perçus par l’audi-
tion binaurale. Les travaux de Schroeder, Gottlob, Sibrasse, Audo, Damasse ont
permis de résumer les relations entre les phénomènes subjectifs et objectifs
comme suit :
Sensation spatiale
(domaine subjectif)
Coefficients de
Réflexions latérales
corrélation
(domaine architectural)
(domaine physique)
À partir de ces travaux, Xu Yaying (1981) propose des tests permettant la corréla-
tion entre l’appréciation subjective et les paramètres objectifs des salles de
concert. Ces tests utilisent les sons réfléchis, des impulsions de bruits et des
signaux musicaux.
Deux critères sont utilisés pour les tests d’appréciation subjective. Ce sont :
• la « préférence », laquelle implique les notions de sensation spatiale, d’am-
biance et de plénitude ;
• la « clarté », c’est-à-dire la clarté du rythme musical et l’intelligibilité des
divers timbres d’une source musicale. Il faut noter que ces deux critères
sont parfois contradictoires.
© Dunod – Toute reproduction non autorisée est un délit.
Les paramètres devant être évalués lors des tests de données objectives ne se
limitent pas à la fonction d’inter-corrélation binaurale, mais comprennent égale-
ment d’autres paramètres nécessaires aux analyses comparatives. Les paramètres
à mesure sont donc les suivants :
170 Le livre des techniques du son
1 τ
τ→∞ T ∫o
Φ lr (τ) = lim fl (t ) ⋅ fr (t )(t + τ)dt
où fl (t) et fr (t) désignent les signaux de pression sonore perçus par les micro-
phones placés des deux côtés de la tête artificielle. τ désigne le temps de retarde-
ment entre les deux signaux. La valeur absolue de τ est comprise ici entre 0 et
1 ms. Il n’est pas nécessaire de prendre en considération des valeurs supérieures
pour ce paramètre, compte tenu du fait que le décalage du temps d’arrivée des
signaux entre les deux oreilles ne dépasse pas 0,75 ms.
Les calculs effectués par le corrélateur digital utilisé pour les mesures s’expriment
par la formule suivante :
1 N −τ
Φ ab (τ) = ∑ Ai Bi + τ
N − τ i =l
La valeur que nous devons finalement obtenir est celle de la fonction normalisée
d’inter-corrélation binaurale (normalized binaural cross-correlation) ou autre-
ment dit le coefficient de corrélation (ou degré de cohérence), il se définit par la
formule :
Φ lr (τ)
Φ lr (τ) =
Φ ll (0)Φ rr (0)
(Pl − Pr )2
DF =
(Pl + Pr )2
1 − ϕlr 1 − DF
DF ou autrement dit ϕlr
1 + ϕlr 1 + DF
La formule définissant DF nous montre que lorsque nous avons Pl = Pr , nous
obtenons une droite horizontale sur l’écran de l’oscilloscope indiquant la fonction
Y = f (x), dans laquelle x et Y correspondent respectivement à (Pl + Pr )2 et
(Pl – Pr )2. Cette droite a une pente de 45° lorsque le rapport de Y sur x tend vers 1.
L’image que nous voyons, en fait, a l’allure d’une ellipse, ce qui nous pose le
problème de savoir comment déterminer avec précision la pente de la droite qui
y correspond. Cela nécessitera une amélioration ultérieure des méthodes de tests
des travaux prévus au stade actuel, lesquels ne constituent, de toute façon, qu’une
première approche.
J’ai, par ailleurs, effectué des essais à Göttingen avec Bennett Smith, permettant
d’obtenir une courbe DF fonction de τ, en donnant à ce dernier paramètre qui
correspond au temps de retardement entre Pl et Pr , plusieurs valeurs variant de 0
à 1 ms, grâce à une ligne de retard. Il a été intéressant de constater que la courbe
DF(τ) est similaire à la courbe ϕlr(τ).
✧✧ La clarté (C)
Reichardt en a donné la définition suivante en tant que critère monaural :
∫ 80 ms
E 0 (t )dt
C = 10 log 0
∫ ∞80ms E 0 (t )dt
Un microphone omnidirectionnel reçoit des signaux émis par une source
de bruits par impulsions et transmet ces informations à un ordinateur qui
calcule la valeur de C. Cette opération a pour but de vérifier les relations
établies par certains auteurs entre ce dernier paramètre et les paramètres déjà
mentionnés.
E. Leipp a proposé, en 1984, une méthode nouvelle réaliste pour tester l’acous-
tique d’un lieu d’écoute. Cette méthode, à ce jour éprouvée, prend en compte
l’avis des usagers et les propriétés de l’oreille humaine. Elle part de quelques
mesures « sur le terrain » (émission et enregistrement de courtes salves de bruit
rose) qui seront ensuite analysées en laboratoire et permettront d’établir quatre
diagrammes de base :
• la densité spectrale. Ce diagramme permet de visualiser les altérations
de « coloration » (timbre) aux divers points d’écoute, d’en déduire
l’isotropie du lieu, le confort d’écoute et le bruit de fond. Ceci permet
de préciser l’adéquation ou l’inadéquation du lieu à tel ou tel type de
message sonore ;
• les traînages (durée de réverbération apparente). Ces diagrammes
traduisent « l’écho » ou le « halo » des musiciens. Ils objectivent donc bien
l’information esthétique du message ;
• le pouvoir séparateur. Il indique combien de sons élémentaires (syllabes,
notes), on peut séparer nettement dans le message. Il objective ainsi la
« netteté » et l’intelligibilité de la parole. Celle-ci se mesure objectivement
en faisant écouter à des auditeurs choisis des phonèmes (logatomes). On
peut en déduire le « pourcentage d’articulation ». Plus récemment a été
mise au point la mesure du Speech Transmission Index (STI). La durée de
réverbération optimale est celle qui permet d’obtenir le meilleur « pour-
centage d’articulation » ou le STI le plus élevé (figure 3.40) ;
• l’inertie. Le diagramme d’inertie indique le nombre de sons par seconde
qui sont perceptibles sans altération des attaques. Il traduit la « mollesse »
ou la « vivacité » du lieu.
En plus de ces diagrammes, les échos francs gênants musicalement (émergence
≥ 10 dB) seront facilement dépistés en enregistrant un coup de claquoir.
Chapitre 3 – Acoustique architecturale 173
Regardons la figure 3.41 : une source rayonne dans le local A. Les ondes sonores
se propagent dans l’air, viennent frapper les murs du local et les ébranlent. Cet
ébranlement va se propager à l’intérieur de ces murs qui vont à leur tour ébranler
le milieu gazeux, l’air, du local B donc donner naissance à des ondes sonores qui
atteignent le récepteur.
Pour parler d’isolement (défini au chapitre suivant), il faut qu’il y ait propagation
aérienne à l’émission et propagation aérienne à la réception, même s’il y a propaga-
tion solidienne entre les deux. Dans le cas contraire (figure 3.42), nous entrons
dans le domaine des bruits de chocs étudiés plus loin.
174 Le livre des techniques du son
Figure 3.41 — Propagation d’un bruit aérien d’une salle à une autre.
Figure 3.42 — Propagation d’un bruit solidien d’une salle à une autre.
F Définition de l’isolement
Soit deux lieux A et B séparés physiquement par une cloison, un obstacle… (voir
figure 3.43), supposons qu’une source sonore rayonne dans le local A : si LA et LB
sont les niveaux de pressions acoustiques moyens dans A et B, on appellera
« isolement acoustique brut » la différence D = LA – LB exprimée en dB pour une
fréquence donnée.
Chapitre 3 – Acoustique architecturale 175
F Autres définitions
T
L′2 = L2 − 10 log
0, 5
d’où :
T
Dn = L1 − L2 + 10 log
0, 5
Dn est l’isolement acoustique normalisé au bruit aérien pour une fréquence
donnée.
S
R = L1 − L2 + 10log
A
où S est la surface de la paroi essayée et A l’aire d’absorption équivalente du local
de réception.
Chapitre 3 – Acoustique architecturale 177
Dn 35 25 36 40 44 48 dB
On peut voir immédiatement que cette paroi comporte une faiblesse dans la
bande d’octave 250 Hz. On considère un niveau d’émission théorique de 80 dB par
bande d’octave :
Pondération A 16 8,5 3 0 –1 –1
Depuis 1999, de nouveaux indices européens sont utilisés pour définir les notions
précédentes ; ils résultent non plus d’un calcul, mais de la comparaison de la
courbe des valeurs de l’isolement entre 125 Hz et 2 kHz à des courbes de réfé-
rence. Ainsi :
• L’isolement acoustique standardisé pondéré, noté DnT,A, a remplacé l’isole-
ment acoustique normalisé DnAT (rose) calculé par rapport à un spectre de
bruit rose à l’émission. Il est exprimé en dB et non en dB(A) rose. On a en
général la relation : DnT,A = DnAT – 1.
• L’isolement acoustique standardisé pondéré au bruit de l’espace extérieur,
noté DnT,A,tr, a remplacé l’isolement acoustique normalisé DnAT(route) calculé
par rapport à un spectre de bruit route à l’émission. Il est exprimé en dB et
non en dB(A) route. On a en général la relation : DnT,A,tr = DnAT(route).
• L’indice d’affaiblissement acoustique pondéré Rw (C ; Ctr ) a remplacé
l’indice d’affaiblissement acoustique R mesuré en laboratoire ; l’indice
d’affaiblissement acoustique pondéré par rapport à un spectre de bruit
rose est noté RA et égal à Rw + C ; l’indice d’affaiblissement acoustique
pondéré par rapport à un spectre de bruit route est noté RA,tr et égal à
Rw + Ctr. On a en général les relations suivantes : RA,tr = Rroute et RA = Rrose – 1.
Attention : beaucoup de fabricants ignorants ou peu scrupuleux donne l’indice
Rw sans préciser les termes C et Ctr , ce qui peut conduire à bien des erreurs ou
désillusions ; en effet, ces termes sont en général négatifs et peuvent donc conduire
à des indices RA ou RA,tr inférieurs de plusieurs dB à la valeur du Rw.
Voir également l’équivalent pour les bruits d’impact.
D 36 40 46 51 57
© Dunod – Toute reproduction non autorisée est un délit.
À la vue de ces résultats, nous constatons que l’isolement acoustique pour une
masse surfacique donnée croît de 6 dB environ lorsque la fréquence est doublée.
Cette expérience réalisée avec d’autres parois de nature différente aboutirait au
même résultat : l’isolement acoustique d’une paroi de masse donnée est propor-
tionnel au logarithme de la fréquence : c’est ce qu’exprime la loi des fréquences
(figure 3.44b).
1
τ= 2
m f
1+ s
ρ oC o
ms étant la masse surfacique de la paroi en kg/m2, f la fréquence de l’onde
incidente et ρ0 c0 la résistivité acoustique de l’air.
Il est important de noter immédiatement que ce coefficient de transmission est
inversement proportionnel aux carrés de la masse de la paroi et de la fréquence
de l’onde.
1
R =10 log dB
τ
m f 2
R = 10 log 1 + s dB
ρoCo
Cette formulation de l’indice R d’une paroi est connue sous l’appellation « loi de
masse/fréquence ».
Pour une utilisation pratique, cette loi peut s’écrire : R = 20log( f × ms ) – 47 dB.
Son domaine de validité est limité par ms > 150 kg/m2. Pour les masses surfa-
ciques inférieures à 150 kg/m2, seule la mesure en laboratoire donnera l’indice R.
Le logarithme de la fréquence par la masse surfacique nous montre bien que le
fait de doubler (diviser) la masse ou la fréquence entraîne un accroissement (une
diminution) de l’isolement de 6 dB environ. Doublons la masse par exemple,
il vient :
R′ = 20 log( f × 2 ms) − 47 dB
R′ = 20 log 2 − 20 log( f × ms) − 47 dB
R′ = R + 20 log 2 R + 6 dB
Matériau Épaisseur f
c 2 1 12ρ
fc = × ×
2π d E
où c est la célérité du son dans l’air en m/s, d l’épaisseur de la paroi en mètre, ρ la
masse spécifique du matériau utilisé en kg/m3, E le module d’Young du matériau
utilisé. Cette expression mathématique nous montre que :
• plus le matériau est dense, plus la fréquence critique est élevée ;
• pour un même matériau :
– doubler l’épaisseur de la paroi divise sa fréquence critique par 2,
– diviser par 2 l’épaisseur de la paroi double sa fréquence critique ;
• moins l’élasticité du matériau est grande (c’est-à-dire E petit), plus la
fréquence critique est élevée. Ainsi, pour le plomb, matériau peu élastique
par excellence (ne pas confondre avec peu déformable), la fréquence
critique est en dehors du domaine audible.
✧✧ Cas de la séparation d’un local en deux parties par une paroi simple
Supposons que l’on veuille séparer un local en deux parties, il sera inutile de
construire une paroi ayant un isolement moyen supérieur à 50 dB. En effet, le
bruit dans le premier local transmis par propagation solidienne et rayonné par les
murs latéraux dans le second local serait supérieur au bruit transmis à travers la
cloison. À moins, bien entendu, de réaliser un doublage flottant des murs du
premier local.
Chapitre 3 – Acoustique architecturale 185
✧✧ La porosité
Bien que n’étant pas à proprement parler un défaut dû au principe même de la
paroi simple, force nous est de constater que la plupart des matériaux couram-
ment utilisés en maçonnerie sont poreux : parpaings, briques, blocs de béton
alvéolaires, etc.
C’est pourquoi l’application d’un enduit (plâtre, ciment) sur les deux faces d’une
paroi construite avec ces matériaux augmente l’isolement de 5 à 10 dB suivant les
fréquences, et permet d’atteindre à peu de choses près l’isolement prévu par la loi
de masse.
✧✧ La masse
Nous savons qu’une paroi de parpaings pleins de 15 cm donne un isolement
d’environ 40 dB à 500 Hz.
Supposons que nous voulions obtenir 48 dB à 500 Hz ; d’après la loi de masse, il
faudrait pratiquement quadrupler la masse de cette paroi, c’est-à-dire construire
un mur de 60 cm d’épaisseur, ce qui n’est guère réaliste alors qu’un isolement de
48 dB à 500 Hz est insuffisant pour isoler un studio d’enregistrement par exemple.
minérales : les tasseaux ont ainsi une liberté de mouvement très grande par
rapport à la paroi ; l’espace entre chaque tasseau est garni de laine de verre ou de
laine de roche, et des panneaux de particules (d’aggloméré) de 3 à 4 cm d’épais-
seur sont cloués sur ces tasseaux. Cette technique, de mise en œuvre assez longue,
est surtout utilisée lorsque l’on ne dispose que de peu d’épaisseur pour l’isolation
(figure 3.50).
✧✧ Définition
Comme son nom l’indique, c’est une paroi composée de couches successives de
matériaux différents. Pour cette raison, elle est rarement réalisée en matériaux de
maçonnerie lourde.
188 Le livre des techniques du son
Pour une masse surfacique d’environ 100 kg/m2, une telle paroi donne un isole-
ment au moins égal à celui d’une paroi de parpaings pleins de 15 cm d’épaisseur
(masse surfacique 400 kg/m2). Cette « légèreté » de la paroi composite est intéres-
sante lorsque les planchers existants n’autorisent pas de surcharges importantes.
F La paroi double
✧✧ Principe
Lorsque l’isolement d’une paroi simple n’est pas suffisant, on peut l’augmenter
en construisant une deuxième paroi à une certaine distance de la première
(le doublage par un système masse-ressort n’est en fait qu’un cas particulier de la
paroi double).
Considérons l’exemple de la figure 3.52 :
1 1 1
fo = 840 +
d m1s m2s
où d est la distance (en cm) séparant les deux parois m1s et m2s ,, leurs masses
surfaciques respectives.
À cette fréquence apparaît (comme pour les parois simples) une baisse sensible
de l’isolement.
Au-delà de cette fréquence l’isolement croît plus rapidement que celui d’une
paroi de masse équivalente, jusqu’à présenter un autre minima qui correspond à
la plus basse fréquence de résonance de la cavité entre les deux parois.
On élimine ce défaut en collant contre une des deux parois (de préférence celle
située du côté le moins bruyant), une couche de laine de verre ou de roche de
quelques centimètres d’épaisseur (figure 3.52).
Cette couche de laine de verre ou de roche ne doit pas toucher les deux parois ni
être tassée entre celles-ci ; elle irait alors à l’encontre de l’effet recherché, en créant
un couplage entre les deux parois.
✧✧ Règles pratiques
• les deux parois ne doivent pas avoir la même fréquence de résonance ni la
même fréquence critique pour ne pas ajouter leurs propres défauts d’isole-
ment ; aussi, si elles sont constituées du même matériau, elles ne devront
pas avoir la même épaisseur ;
• on recherchera à diminuer l’élasticité et à augmenter l’amortissement de
chaque paroi en soignant particulièrement, comme dans le cas d’une paroi
simple, la technique de maintien en périphérie ;
• la distance séparant les deux parois est au moins égale à 10 cm, et la cavité
est amortie par un matériau absorbant ;
• il n’est, bien sûr, toléré aucun « pont phonique » c’est-à-dire liaisons méca-
niques évidentes (ciment, clou, etc.) entre les deux parois.
Le calcul de l’isolement d’une double paroi est assez complexe surtout en raison
de la multiplicité des facteurs souvent mal définis (encastrement, etc.).
Chapitre 3 – Acoustique architecturale 191
Quand les quatre règles énoncées ci-dessus sont parfaitement respectées, l’isole-
ment d’une paroi double peut être estimé par la formule empirique suivante :
R = R1 + 0,5R2
avec R1 isolement de la paroi 1 > R2 isolement de la paroi 2.
✧✧ Parois multiples
Pour atteindre des isolements élevés (par exemple 70 dB à 500 Hz), on peut aller
jusqu’à tripler la paroi.
Les principes restent les mêmes que pour la paroi double.
Figure 3.53 — (a) Principe d’un sas isolant sur une paroi simple.
(b) Principe d’un sas isolant sur une paroi double.
192 Le livre des techniques du son
Dans le cas de parois multiples, il faudra bien sûr disposer autant de portes que de
parois.
Mais pour des raisons évidentes de commodité, il n’est pas question de faire un sas
par paroi ; on ne peut alors qu’augmenter le poids de chaque porte et augmenter
à l’endroit du passage l’espacement entre les murs pour que les deux portes soient
aussi éloignées que possible (figure 3.53b). L’étanchéité à l’air en périphérie de la
porte devra être parfaite.
F Baies vitrées
Les baies se comportent aussi comme des parois simples.
En raison de leur faible épaisseur (entre 8 et 20 mm) leur fréquence critique se
situe dans la région où l’oreille est la plus sensible : la fréquence critique d’une
vitre de 10 mm est de 1 500 Hz environ.
Les améliorations que l’on peut apporter le sont éventuellement au niveau
de la fixation de la glace à sa périphérie : on aura intérêt à la maintenir par
l’intermédiaire de joints caoutchouc assez mous, (diminution de l’élasticité,
augmentation de l’amortissement), qui assurerait également l’étanchéité.
Comme pour les portes, au regard de la loi de masse, les baies vitrées sont une
faiblesse pour l’isolement d’une paroi, qui est souvent plus lourde.
On sera donc amené à doubler les glaces sur une même paroi et à rencontrer
les mêmes inconvénients que pour les parois doubles, dus au système masse-
ressort-masse ainsi constitué. Dans ce cas, il n’est bien sûr pas question d’inter-
caler une laine de verre dans la cavité mais on peut en garnir les tableaux de baie.
Dans le cas de parois multiples, il faudra bien sûr mettre une baie vitrée au moins
par paroi, chacun des bâtis étant propre à chaque paroi. Les épaisseurs seront
différentes.
Afin de diminuer les effets dus aux résonances de la cavité d’air on incline une
vitre sur deux ce qui évite aussi les réflexions visuelles multiples qui existeraient
en cas de parallélisme.
Pour diminuer les effets dus à l’élasticité (effet « ressort » de l’air prisonnier entre
les deux vitres d’une même paroi), on est amené à faire communiquer la cavité de
l’air et l’intérieur du local par pose de plusieurs conduits de très faible section
(Ø ≈ 4 mm), qui permettent une décompression. Ces conduits ne nuisent pas à
l’isolement de la paroi.
Chapitre 3 – Acoustique architecturale 193
F Parois hétérogènes
✧✧ Définition
Ce sont celles dont une partie de la surface est constituée d’un autre matériau (ne
pas confondre avec les parois composite) ; par exemple une paroi maçonnée dans
laquelle existe une baie vitrée.
1
R =10 log (loi de masse/fréquence)
τ
1
avec τ = 2
f × ms
1+
ρ oC o
où S1… Sn sont les surfaces des parties de la paroi composée des matériaux de
coefficient de transmission τ1… τn.
1
On a donc Rmoy = 10 log .
τmoy
✧✧ Définition
Le mot isolement ne peut s’employer pour caractériser la capacité d’une paroi à
transmettre un bruit de choc.
Nous avons vu (§ 3.3.1) que le mot isolement impliquait qu’il y ait au départ une
transmission aérienne. Or, dans le cas d’un bruit de choc, la propagation du bruit
est d’abord solidienne et ensuite aérienne.
194 Le livre des techniques du son
Les locaux 1 et 2 sont séparés par un plancher. Dans le local 1, un marteau frappe
le plancher ; ce plancher va rayonner dans le local 2 en donnant naissance à une
onde sonore de niveau L2. Ce niveau L2 est représentatif de la capacité du plan-
cher à transmettre le choc.
Mais, si l’on veut comparer deux planchers, il faudra bien que le choc soit le même :
c’est pourquoi l’acousticien a été amené à construire une machine à choc norma-
lisée, qui produira des chocs identiques sur tous les planchers : elle est constituée
de cinq marteaux pesant 500 g chacun, tombant l’un après l’autre d’une hauteur
de 4 cm et frappant le sol à la cadence de 10 coups par seconde.
On appelle niveau de pression acoustique brut du bruit de choc, le niveau L2,
mesuré dans le local de réception, par un micro omnidirectionnel, placé à un
mètre au moins de toute paroi. Ce niveau est mesuré pour les bandes 1/3 d’octave
normalisées.
Chapitre 3 – Acoustique architecturale 195
Pour résumer :
La valeur du niveau de pression acoustique brut du bruit de choc est le niveau
perçu dans le local de réception ; on ne tient pas compte du niveau L1 produit par
le choc dans le local d’émission, au contraire de l’isolement, qui représente la
différence entre deux niveaux.
Plus le niveau de pression acoustique brut transmis du bruit de choc est élevé,
plus mauvaise est l’isolation aux bruits de choc du plancher.
✧✧ Principes
Deux méthodes sont utilisées :
196 Le livre des techniques du son
Notons que dans les deux cas, l’isolement du plancher se trouve ainsi renforcé par
l’isolation aux bruits de choc réalisée.
Signalons aussi que dalle flottante et plancher flottant peuvent être utilisés pour
réduire les transmissions par propagation solidienne, non pas entre deux locaux
superposés, comme dans le cas de la figure 3.55a, mais aussi entre deux locaux
adjacents (figure 3.56).
Chapitre 3 – Acoustique architecturale 197
F Choix de l’appareillage
Il devra être le plus silencieux possible et situé dans un local désolidarisé du
studio. Les ventilateurs de soufflage et d’extraction devront être centrifuges et
tourner à basse vitesse (< 1 000 tr/min).
Toutes les parties tournantes ou vibrantes devront être désolidarisées de la
© Dunod – Toute reproduction non autorisée est un délit.
✧✧ Absorption interne
Les gaines véhiculent certaines fréquences du spectre de bruit du ventilateur.
Pour absorber celles-ci, on dispose en sortie du ventilateur un « piège à son ».
Celui-ci, dûment calculé en fonction du niveau de bruit et des fréquences à
198 Le livre des techniques du son
Quand cela est possible, les parois internes des gaines seront habillées par un
matelas de laine minérale (traité en surface pour éviter le détachement de parti-
cules) collé sur une mince feuille d’aluminium. Ce matelas assure une isolation
thermique et absorbe plus ou moins les bruits véhiculés par celle-ci.
D = S × V
où V est la vitesse de l’air dans la gaine.
Afin d’éviter tout bruit d’écoulement exagéré, on détermine S de telle sorte que V
ne dépasse jamais 2 ou 4 m/s au maximum.
Elles tiennent compte des propriétés de l’oreille qui privilégie les hautes fréquences
par rapport aux basses fréquences.
Par exemple, le bruit de fond d’un bon studio de prise de son ne doit pas dépasser
la courbe NR 15.
3.4 Bibliographie
[1] V.O. Knudsen et C.M. Harris, Projet acoustique en architecture (1949). Traduit et
adapté par R. Cadiergues et A. Moles, Dunod (1957).
[2] R. Lamoral, Problèmes d’acoustique des salles et des studios. Coll. CNET, Chiron
(1967).
[3] R. Lamoral, Acoustique et architecture. Masson (1975).
[4] E. Leipp, Acoustique et musique (fac-similé de la 4e édition de 1984), Presses des
Mines, Paris (2011).
[5] J. Pujolle, Lexique – Guide d’acoustique architecturale. Coll. COMAPI, Eyrolles
(1971).
.-H. Parkin et H.-R. Humphreys, Acoustics Noise and buildings. Faber (1958).
[6] P
[7] J .-J. Matras, Acoustique et électro-acoustique. Eyrolles (1967).
. Meisser, La pratique de l’acoustique dans le bâtiment. CATED-Eyrolles (1971).
[8] M
rüel et Kjaer. Architectural Acoustics (1978).
[9] B
[10] INA Radio France, L’homme d’aujourd’hui dans la société sonore (1978).
[11] A.-C. Raes, Isolation sonore et acoustique architecturale. Chiron (1964).
[12] J. Pujolle, La pratique de l’isolation acoustique des bâtiments. Le Moniteur
(1978).
[13] L. Cremer et H.-A. Müller, Principles and applications of room acoustics. Applied
Science publishers (1982).
[14] BBC Engineering, Guide to acoustic practice (1980).
[15] V.-L. Jordan, Acousticals Design of Concert halls and theaters. Applied Science
publishers (1980).
[16] R. Mackenzie, Auditorium acoustics. Applied Science publishers (1975).
[17] H. Kuttruf, Room acoustics. Applied Science publishers (1979).
[18] M. Meisser, La correction acoustique des locaux. CATED (1983).
[19] M. Forsyth, Buildings for music. The MIT Press (1983).
[20] Bolt, Beranek and Newman Inc., Reverberation Time Data for some North
American concerts hall, unoccupied (1980).
Chapitre 3 – Acoustique architecturale 201
[21] Xu Yaying, Corrélations entre l’appréciation subjective et les paramètres objec-
tifs des salles de concert. IRCAM (1981).
[22] R. Lehmann, L’acoustique des bâtiments. PUF (1968).
[23] L. Chrétien, Éléments d’acoustique. Chiron (1960).
[24] E. Zwicker et R. Feldtkeller, Psycho-acoustique. CNET ENST, Masson (1981).
[25] Conférences des Journées d’Études du Festival du Son (1968 à 1979).
[26] G. Charrière-Grillon et L. Fabri-Canti, Le gothique et la musique à partir de
l’exemple dionysien.
[27] M.-R. Schroeder, Progress in Architectural Acoustics and artificial reverbera-
tion : Concert Hall – Acoustics and Number Theory. JAES (avril 1984).
[28] O. Alain, M.-C. Alain et H. Schack, L’intégrale de l’œuvre d’orgue de J.-S. Bach.
Costallat.
[29] P. d’Antonio et J.-H. Konnert, The reflexion phase grating diffusion : design
theory and application. JAES (avril 1984).
[30] A. Fischetti, Initiation à l’acoustique, cours et exercices. Coll. « Sup Sciences »,
Belin (2004).
[31] L. Hamayon, Comprendre simplement l’acoustique des bâtiments. Le Moniteur
(2008). En couverture, deux réalisations de l’Architecture-studio et du bureau
d’étude Éric Vivié.
[32] L. Hamayon, Réussir l’acoustique des bâtiments. Le Moniteur (2006).
Chapitre 4
La perception auditive
M’Paya Kitantou
Docteur en acoustique. Ancien responsable d’actions
de formation à l’Institut national de l’audiovisuel (INA)
F Le seuil d’audibilité
La sensibilité de l’oreille n’est pas égale sur toute sa bande passante et la zone des
fréquences moyennes comprises entre 2 000 et 3 000 Hz est favorisée de façon
naturelle (voir § 4.3.1). Le seuil d’audibilité pour une fréquence donnée est son
plus petit niveau sonore perceptible. Il est de 0 dB SPL pour un son pur de 1 000 Hz,
mais de 40 dB SPL pour un son pur de 50 Hz, soit donc une valeur de pression
100 fois plus grande que celle qui est nécessaire pour le son de 1 000 Hz. En mesu-
rant ainsi les seuils d’audibilité pour toutes les fréquences produisant une sensa-
tion auditive et en reliant les différents points obtenus on détermine une courbe
statistique représentant la courbe du seuil d’audibilité de « l’oreille moyenne »
humaine. Il est à noter que pour les fréquences médiums, l’oreille est capable de
percevoir des niveaux très faibles inférieurs à 0 dB SPL, juste un peu au-dessus du
bruit engendré par l’agitation des molécules d’air.
F Le seuil de douleur
Un son très fort provoque plutôt une sensation désagréable et même parfois
douloureuse. Cela signifie que nous ne pourrons entendre un son dont le niveau
global est supérieur à 130 dB SPL, sans risque grave de détérioration de notre
système auditif (voir § 4.3.3).
La valeur de 130 dB n’est qu’une valeur statistique, des écarts de quelques décibels
pouvant en effet exister d’un individu à un autre. L’aire délimitée par le seuil
Chapitre 4 – La perception auditive 205
Figure 4.1 — Le champ auditif d’un être humain est la zone comprise
entre le seuil de perception (limite inférieure) et le seuil de douleur (limite supérieure).
Il est à noter que les énergies mises en jeu pour atteindre le seuil de douleur et le
seuil d’audibilité sont dans un rapport de l’ordre de un à dix mille milliards dans
les fréquences médiums.
Dans la vie quotidienne, il est plus utile de détecter une information qualitative
ou relative qu’une information quantitative ou absolue. L’oreille, à l’instar des
autres organes des sens, est plus performante pour détecter une différence entre
deux grandeurs (analyse différentielle) que pour en évaluer les niveaux absolus
(mesure).
L’estimation de ce gain peut alors être exprimée sous forme d’un rapport loga-
rithmique :
∆I ∆I 100 10 1
Soit S = k log . Il vient pour notre exemple : = = = et :
1 I I 1000 100 10
S k log exprimé en Bels. Nous choisirons k égal à 10 afin d’exprimer S en
10 1
décibels, soit : S = 10 log = 10 × (−1) = −10dB.
10
Nous aurons augmenté de 10 dB la sensation en passant de 1 à 10 violons jouant
tous à la même intensité.
Ceci conduira à prendre une nouvelle unité de niveau sonore traduisant la percep-
tion subjective : le phone. Ainsi, pour un son pur, le niveau sonore perçu exprimé
en phones est, par définition, le même que celui d’un son pur de 1 000 Hz, exprimé
en dB, donnant la même sensation sonore. Pour un son complexe, l’évaluation
subjective dépend de l’intégration de chaque composante et peut donner lieu à des
« distorsions perceptives » importantes. Cette perception intégrée est modulée par
de nombreux facteurs : champ libre, champ diffus, largeur de bandes…
Par ailleurs, le fait que l’oreille ne réagisse pas de façon identique dans tout le
spectre ne peut nous permettre de généraliser.
Aussi, a-t-il fallu tenir compte de la réponse en fréquence de l’oreille et établir des
courbes de niveaux par paliers successifs sur l’ensemble de la gamme audible.
Le niveau en pondération A (on écrit alors dB(A) ou dB-A) permet de réaliser une
bonne corrélation entre les nombreux critères d’évaluation subjectifs possibles
existants. Aussi, la plupart des mesures de bruit sont-elles faites presque unique-
ment en dB(A).
Pour l’évaluation du bruit de survol d’un avion, on a longtemps utilisé une pondé-
ration D au lieu de A, en raison de la nature particulière de ce type de bruit.
Toutefois les décibels pondérés dans leur ensemble ne sont plus utilisés depuis
l’année 2000, année de l’harmonisation des normes acoustiques dans l’Union
européenne. L’unité de niveau acoustique adoptée pour toute situation de mesure
est le décibel (dB). En France, néanmoins, le dB(A) reste employé pour la mesure
des niveaux de bruit de fond d’un lieu et du bruit de climatisation.
F L’audiogramme tonal
Afin de déceler les pertes d’audition ou les lacunes tonales chez un être humain,
© Dunod – Toute reproduction non autorisée est un délit.
Figure 4.5 — Audiogramme tonal des deux oreilles (OD + OG) d’une personne
et montrant leur déficience marquée à la fréquence entre 4 et 6 kHz.
L’audiogramme tonal, n’étant réalisé qu’avec des sons purs, reste souvent insuffi-
sant. Des tests d’intelligibilité de la parole et de la perception par conduction
osseuse complètent cette étude.
✧✧ Avec la fréquence
La hauteur est une grandeur liée à la fréquence mais il y a lieu de faire la distinc-
tion entre : la fréquence qui est la grandeur physique caractérisant le stimulus et
la hauteur subjective qui caractérise la sensation.
La hauteur subjective ou hauteur perçue n’est pas une fonction linéaire de la
fréquence. L’oreille comprime l’échelle des fréquences et l’octave de 1 000 Hz ne
correspond pas à 2 000 Hz mais à 2 100 Hz. Comme on l’a fait pour la sonie en
introduisant une échelle qui traduit la perception relative de deux sons de niveaux
© Dunod – Toute reproduction non autorisée est un délit.
✧✧ Avec le timbre
La présence d’un formant dans un spectre peut modifier la sensation de hauteur
d’une note. Un formant aigu peut faire apparaître une note plus haute. De ce
phénomène, ont été tirés les sons « paradoxaux » étudiés par J.-C. Risset [22].
1er harmonique
2e H 3e H 4e H 5e H 6e H 7e H 8e H 9e H 10e H
fondamental
Nous vérifierons que l’octave, intervalle simple entre Do2, Do3, Do4 et Do5
correspond à un doublement de la fréquence (1e H, 2e H, 4e H et 8e H).
L’intervalle défini par le 2e et le 3e harmonique soit Do3-Sol3 correspond à une
quinte (rapport de 3/2).
Entre le 8e et le 9e harmonique, Do5 et Ré5, existe un intervalle de seconde majeure
(rapport de 9/8). Les autres intervalles théoriques sont donnés par le tableau 4.1
et ont servi de base pour l’établissement des différentes gammes dont le système
tempéré.
Tableau 4.1 — Les intervalles théoriques déterminés par les harmoniques d’un Do.
Dans la gamme tempérée, l’octave a été divisée en 12 demi-tons égaux. Une suite
géométrique de raison α régit la répartition des demi-tons consécutifs f0, f1, f2…
et f12 l’octave. Ils seront liés par la relation f1 = α f0 et f2 = α f1, soit f2 = α2 f0 et ainsi
de suite… f12 = α12 f0.
f α12 f 0
Sachant d’autre part que 12 , il vient alors = 2 et α12 = 2 donc
f0 f0
α = 2 = 1, 059 .
12
© Dunod – Toute reproduction non autorisée est un délit.
En effet, lorsqu’un piano est bien accordé, on remarque que les notes graves sont
un quart de ton plus bas qu’en théorie et les notes aiguës plus hautes de la même
quantité. Il s’agit cette fois du mécanisme de la perception des spectres inharmo-
niques du piano. Les accordeurs ont raison de se fier à leur oreille plutôt que de
faire des calculs de fréquence [15], en utilisant entre autres le phénomène de
battements.
F La perception de la durée
La perception subjective du temps est une grandeur très difficile à évaluer.
Contrairement à celle de la fréquence (oreille absolue), l’évolution de la durée
d’un phénomène est sujette à une grande variabilité. Elle dépend de nombreux
facteurs psychologiques (état d’éveil, conditions d’écoute, habitude…).
Le facteur temps joue un rôle primordial dans sa relation avec les autres variables :
fréquence, niveau, espace… qu’il affecte de façon significative.
F L’effet de masque
Dans les conditions générales d’environnement, les sons ne se produisent jamais
de façon isolée et ne sont pas constitués de sons purs mais plutôt complexes. Ces
sons complexes simultanés interagissent pour donner lieu à une perception
globale qui peut être très différente de celle de chaque son pris isolément.
Nous avons déjà tous constaté la gêne qu’il y avait à percevoir correctement un
son en présence d’un autre son ou d’un bruit continu. La vie de tous les jours nous
en offre de multiples exemples : une conversation relativement aisée dans une
voiture ou un train à l’arrêt devient en effet pénible à poursuivre lorsqu’ils
démarrent. Cela oblige les interlocuteurs à élever le ton en rendant au besoin la
voix plus aiguë pour continuer à se comprendre. Tout se passe comme si l’oreille
devenait atteinte d’une surdité partielle vis-à-vis du son qui l’intéresse quand elle
se trouve ainsi exposée en même temps à d’autres sons ou bruits. Lorsque le
Chapitre 4 – La perception auditive 215
Figure 4.8 — Effet de masque d’un son pur de 1 200 Hz sur des sons purs
de fréquences de 20 Hz à 4 000 Hz (d’après Vegel et Lane).
En ordonnée : ∆Ls = relèvement du seuil du son masqué en présence du son masquant,
c’est-à-dire le niveau dont il faut augmenter le niveau du son masqué pour qu’il ait
la même intensité subjective que s’il n’y avait pas de masque (seuil d’audibilité).
En abscisse : fs = fréquence des sons masqués.
L’expérience des sons purs consiste à choisir la fréquence d’un son masquant
(1 200 Hz dans le cas de la figure 4.8) et à vérifier quel doit être le niveau minimum
des autres fréquences afin qu’elles ne soient pas masquées à l’écoute. On s’inté-
resse pour cela à la quantité appelée relèvement du seuil d’audibilité du son
masqué en présence d’un son masquant, noté ∆Ls et déterminé selon le prin-
cipe suivant :
On fait entendre à un auditeur placé dans un local silencieux un son de fréquence
quelconque f1 et on détermine le niveau de son seuil d’audibilité que l’on note
Ls1 (Ls pour le niveau du signal). On introduit ensuite dans le champ acous-
tique précédent un deuxième son – son masquant – émis à un niveau assez
élevé, entraînant ainsi pour l’auditeur la disparition du premier son. On cherche
à nouveau à rendre ce premier son perceptible en augmentant son niveau. Ce
qui se produit pour une certaine valeur que l’on note Ls2. La quantité obtenue
par la différence des deux niveaux donne le relèvement du seuil cherché :
∆Ls = Ls2 – Ls1.
Chapitre 4 – La perception auditive 217
F Localisation spatiale
Avant même de reconnaître la nature exacte d’un danger, l’oreille doit localiser la
source sonore dans l’espace, c’est-à-dire évaluer la direction et la distance.
Le concept de localisation par analyse différentielle des signaux parvenant aux
deux oreilles est récent. Jusqu’à la seconde moitié du xixe siècle, on pensait que le
fait d’avoir deux oreilles permettait un accroissement des capacités auditives.
Lord Rayleigh, en 1877 et 1907, puis Von Békésy en 1930 ont montré que la diffé-
rence de temps ∆t (entre les deux oreilles) ainsi que la différence d’intensité ∆I
permettent la localisation d’une source sonore.
∆l = Rθ + R sinθ
∆l
et le retard avec lequel le son parvient à la seconde oreille est tel que ∆t = ,
R c
où c est la célérité du son dans l’air. Soit : ∆t = (θ + sin θ) .
c
Lorsque la source forme un angle de 45°, avec le plan de symétrie :
2
θ = 45° = 0, 785 radian, sin θ = = 0, 707
2
0, 0875
et ∆t = (0, 785 + 0, 707) = 380 µs
340
Le son arrive alors avec un retard de 380 µs à l’oreille la plus éloignée
(∆t max = 670 µs). Nous pourrons parler d’un déphasage entre les deux oreilles
puisque le retard ∆t correspond à une longueur d’onde d’environ 0,13 m. Ce
phénomène de déphasage est plus sensible pour les fréquences basses jusqu’à
environ 800 Hz. Ensuite, pour les fréquences aiguës, la diffraction de la tête joue
un rôle dans la propagation ; par contre l’effet de phase est négligeable.
© Dunod – Toute reproduction non autorisée est un délit.
✧✧ Localisation monaurale
Il est possible, en écoute monaurale, de percevoir des différences entre les signaux
provenant d’une même source placée à des endroits différents. Le pavillon joue
220 Le livre des techniques du son
dans ce cas un rôle essentiel en créant des retards par réflexions sur ses cavités,
retards qui sont différents selon l’angle d’incidence. La combinaison du son direct
et des sons retardés crée des brèches dans le spectre comme un filtrage, fonction
de la position de la source. L’oreille peut ainsi s’orienter après un certain appren-
tissage et reconnaître la direction d’un signal familier à large bande. Les réflexions
sur les épaules participent également à ce phénomène. De même, les mouve-
ments de la tête accroissent la précision du repérage par des variations d’intensité
et de spectre.
✧✧ Localisation binaurale
L’oreille est sensible à la différence des pressions arrivant sur chacune d’elles et la
précision de la localisation dépend essentiellement du pouvoir séparateur spatial
de l’audition. Ce pouvoir séparateur est déterminé par l’angle audible minimum
nécessaire pour que l’oreille décèle une différence de position de la source. Cet
angle minimum croît avec l’azimut α et présente des incertitudes dans les
π
fréquences médium dues aux ambiguïtés de position (α= ± θ) et aux ambi-
guïtés de phase (à 2π près). 2
En règle générale, on admet que la localisation des basses fréquences est due à la
différence de temps tandis que la localisation des hautes fréquences est due à la
différence d’intensité. La transition entre les deux s’effectue aux alentours de
1 500-1 600 Hz. On parle aussi de ∆ϕ la différence de phase qui est une consé-
quence de ∆t et ne joue un rôle que pour les ondes périodiques. La différence de
spectre n’est en définitive qu’une conséquence des effets combinés de ∆I et ∆t.
En fonction de la distance de l’auditeur par rapport à la source sonore, le contenu
fréquentiel de celle-ci varie (voir chapitre 1). En effet la propagation du son dans
l’air (atmosphère ou dans un local), n’est pas homogène et les fréquences médiums
et aiguës sont absorbées relativement plus facilement que les fréquences basses.
Ce sont ainsi le contenu fréquentiel du message sonore reçu d’une part et d’autre
part l’importance et l’espacement dans le temps des réflexions qui informent l’au-
diteur sur son éloignement par rapport à la source sonore.
Dans les conditions naturelles d’écoute, ∆I et ∆t participent simultanément à la
localisation et il existe une relation entre les deux qui déterminent la cohérence
spatiale de l’image sonore.
(foule, concert, théâtre), alors qu’il ne peut se manifester en écoute via un système
de restitution sonore (enceintes, casque).
Dans un local, le temps qui sépare l’arrivée de l’onde directe de la première série
de réflexions s’appelle temps de délai initial (ti ). Pour toutes les valeurs de ti
comprises entre 600 µs et 50 ms, l’oreille localise le son du côté de l’incidence de
l’onde directe quelle que soit la direction d’arrivée des ondes incidentes. Cette loi
du premier front d’onde permet à l’auditeur de juger correctement la position de
la source malgré l’incohérence des réflexions successives. Pour les valeurs de
ti < 600 µs, l’oreille effectue une localisation de sommation. Au-delà de 50 ms,
valeur moyenne du temps d’intégration de l’oreille humaine, la fusion ne se
produit plus et l’oreille perçoit un écho.
222 Le livre des techniques du son
On ne peut parler de perception d’un son que dans la mesure où l’organe senso-
riel, le tympan en l’occurrence, est atteint.
Les informations auditives sont ensuite véhiculées vers le cerveau au même titre
que les informations issues des autres sens : vue, toucher, goût, odorat. Dans
l’ordre de perception des sens, il n’existe par réellement de priorité. D’autre part, la
vitesse de la lumière étant un million de fois supérieure à la vitesse (ou célérité)
du son, certains phénomènes sont vus avant d’être entendus. Le retard de bruit du
tonnerre après l’éclair nous permet par exemple d’évaluer la proximité de l’orage.
Les paramètres physiques d’une vibration acoustique (voir chapitre 1) sont fonc-
tion des variations de la pression en amplitude, en fréquence et en phase, mais il
n’existe pas de relations simples entre ces grandeurs physiques et la sensation.
L’étude des différents paramètres du son peut nous permettre cependant une
première analyse du phénomène auditif.
Après la sonie (ou force sonore) et la hauteur, le timbre est la troisième qualité
subjective d’un son. Comme il est dit dans le chapitre 2, cette quantité psychoa-
coustique qu’est le timbre peut être attribuée à certaines structures physiques du
son. Celles-ci se ramènent classiquement au spectre du son, c’est-à-dire à
l’ensemble constitué par le fondamental et la série des partiels ou harmoniques.
Le timbre est la sensation élaborée par le cerveau en réponse à cette analyse spec-
trale. Parler de timbre n’a ainsi de sens que dans le cas de sons complexes et ce mot
est principalement employé pour des sources sonores musicales. Une flûte et une
clarinette sonnent différemment tout en émettant la même note, c’est-à-dire
jouant à la même hauteur.
224 Le livre des techniques du son
particulier, nous avons préféré les généralités et considérons que l’ensemble des
remarques suivantes reste valable dans la plupart des cas.
✧✧ La monophonie à un haut-parleur
C’est le cas de figure le plus simple et largement utilisé aux débuts du cinéma et de
la télévision et encore aujourd’hui sur les postes de radio mais aussi les téléphones
mobiles… Le haut-parleur ou plutôt l’enceinte acoustique devient l’unique source
sonore. La notion de directionnalité des éléments reproduits disparaît au profit
de la seule direction : enceinte acoustique → auditeur. La notion de profondeur
et de distances relatives des sources est conservée. Elles s’étagent derrière
l’enceinte unique et sont d’autant plus « naturelles » que le niveau d’écoute se
rapproche du niveau d’exécution réel.
Cependant, l’oreille est souvent capable de ne pas juger seulement d’après ce
niveau absolu et reste sensible aux niveaux relatifs des différentes sources et de
leurs variations de timbre et de volume. À l’intérieur d’une certaine limite, l’oreille
accepte une translation ou une compression de la dynamique originale à condi-
tion que celle-ci ne soit pas décelable.
✧✧ L’écoute au casque
Moyen très usité en milieu professionnel et en utilisation domestique, le casque
ne peut néanmoins avoir la prétention de reproduire la réalité puisque l’image
sonore se situe au-dessus de la tête quelle que soit la position du corps. Deux
hypothèses peuvent être avancées pour expliquer ce phénomène :
• L’hypothèse couramment admise selon laquelle les oreilles sont considé-
rées comme les seuls capteurs de données sonores, et où la localisa-
tion serait facilitée par certains mouvements de la tête. Dans le cas de
226 Le livre des techniques du son
✧✧ La reproduction stéréophonique
Une reproduction stéréophonique s’obtient à l’aide de deux enceintes acoustiques
constituant, avec la place de l’auditeur, les sommets d’un triangle équilatéral
(figure 4.12). Les deux enceintes se comportent alors comme deux sources
sonores placées dans ce qu’il est convenu d’appeler « le cône de vigilance de
l’oreille » [4]. Ainsi, les vibrations acoustiques arrivent aux oreilles droite et
gauche de l’auditeur dans les conditions similaires à celles de notre perception
naturelle binaurale. L’oreille droite percevra d’abord le signal de l’enceinte de
droite, puis celui de l’enceinte de gauche avec un certain retard et une légère atté-
nuation [5]. La zone d’écoute stéréophonique n’augmente pas avec l’écartement
des enceintes : dans une salle de spectacle (ou en plein air), cette zone est réduite
à quelques mètres de part et d’autre de l’axe médian. Si les deux signaux sont
complètement différents, le cerveau en déduira la présence de deux sources
distinctes et les localisera dans les deux axes formés par l’auditeur et chacune des
deux enceintes acoustiques (respectivement AG et AD sur la figure 4.12). Lorsque
les deux signaux sont corrélés, les sources semblent alors provenir de la zone
délimitée par les deux enceintes acoustiques. C’est le cas pour des signaux mono-
phoniques dirigés artificiellement mais aussi des signaux stéréophoniques pour
lesquels la corrélation existe dès la prise de son.
Chapitre 4 – La perception auditive 227
F L’oreille externe
Elle est constituée du pavillon et du conduit auditif (ou méat). Le pavillon à la
manière d’un cornet acoustique canalise les ondes sonores venues de l’extérieur
vers le conduit auditif. Il joue aussi un rôle non négligeable dans l’orientation
spatiale (localisation des sources sonores) comme l’a montré Wayne Batteau en
1967. Le pavillon se comporterait également comme un système coupe-vent.
Le conduit auditif est un canal d’environ 27 mm de long et 8 mm de diamètre. Il
protège les éléments relativement fragiles de l’oreille moyenne contre la pous-
sière, les insectes, etc. Le duvet de poils fins recouvrant notamment l’entrée de ce
conduit répond à cette nécessité.
Il joue également un rôle d’amplificateur de pression acoustique. En effet, par un
phénomène de résonance du conduit, il en résulte un léger renforcement de
fréquences entre 2 000 Hz et 5 000 Hz avec un maximum se situant autour de
3 700 Hz (figure 4.14).
F L’oreille moyenne
Enfermée dans une cavité osseuse (ou caisse du tympan) la protégeant, l’oreille
moyenne est constituée du tympan, de la chaîne des osselets et de la trompe
d’Eustache. Tous ces éléments baignent dans un fluide qui est l’air.
Le tympan, mince membrane élastique, transmet mécaniquement les vibrations
acoustiques provenant de l’oreille externe à la chaîne des osselets. Celle-ci est
formée de trois petits os : le marteau solidaire du tympan, l’enclume et l’étrier.
Leur rôle est de transmettre les vibrations du tympan à la fenêtre ovale, « entrée »
de l’oreille interne. Reliés souplement à la cavité osseuse par des muscles et des
ligaments, les osselets participent aux fonctions de protection physique du
système.
Chapitre 4 – La perception auditive 231
F L’oreille interne
Appelée aussi labyrinthe en raison de sa forme complexe, l’oreille interne, cavité
osseuse (os du rocher), remplie de divers liquides est constituée de deux parties
communiquant entre elles : le vestibule et la cochlée (ou limaçon).
Le vestibule (figure 4.15) contient les organes de l’équilibre, parmi eux, les
canaux semi-circulaires, au nombre de trois, formés de demi-cercles disposés
dans trois plans perpendiculaires, c’est-à-dire suivant les trois directions de
l’espace. Ils ne jouent aucun rôle particulier dans la perception auditive propre-
ment dite mais aident à la localisation des sons en renseignant le cerveau sur la
position de la tête.
© Dunod – Toute reproduction non autorisée est un délit.
La cochlée est l’organe proprement dit de l’audition. C’est dans cette spirale
d’une longueur de 30 mm et faisant deux tours et demi autour d’un cône
osseux (la columelle) que sont perçues les vibrations sonores transmises par la
fenêtre ovale.
232 Le livre des techniques du son
Cette dernière rampe est limitée par deux membranes, la membrane de Reissner
au-dessus et la membrane basilaire au-dessous, qui se rejoignent à l’apex ou
extrémité de la cochlée.
La fenêtre ronde à l’extrémité de la rampe tympanique compense la pression
appliquée à la fenêtre ovale par l’étrier et évite une compression dangereuse. Il
existe un petit orifice (l’hélicotrême) à l’apex par lequel les deux rampes exté-
rieures communiquent. Il est à noter que les deux fenêtres (ovale et ronde) ne se
trouvent pas dans le même plan. Le contraire aurait pour conséquence des effets
d’interférences aériennes au niveau de l’oreille moyenne et perturberait de ce fait
l’audition.
Les mouvements de la périlymphe provoquent des déformations dans la rampe
cochléaire. À l’intérieur de celle-ci, l’organe de Corti qui contient une multitude
de cellules cillées (figure 4.17) sensibles, détecte ces mouvements par l’intermé-
diaire de la membrane tectoriale.
La membrane basilaire, support de l’organe de Corti, provoque par l’intermé-
diaire de la membrane tectoriale une excitation des cils et une déformation
de leurs pointes. Il en résulte une modification de l’état électrochimique de
chaque cellule ciliée qui provoque à son tour une stimulation des fibres du
nerf auditif connectées à la base de chacune de ces cellules. Ces signaux nerveux
sont ensuite transmis à l’aire auditive du cerveau pour interprétation du
stimulus.
Chapitre 4 – La perception auditive 233
© Dunod – Toute reproduction non autorisée est un délit.
Dans le cas de sons complexes, la membrane basilaire est soumise à des maxima
en différents points se déplaçant dans le temps [25].
La membrane basilaire opérerait en quelque sorte une analyse fréquentielle
(ou décomposition spectrale) du son.
Figure 4.20 — Caisse du tympan vue d’en haut d’après Gellé montrant
les différents muscles permettant de maintenir
les osselets au milieu de cette caisse.
236 Le livre des techniques du son
F La transmission nerveuse
Grâce aux expériences de Wever [27], on sait que toute oscillation dans le fluide
de la cochlée produit une impulsion électrique qui est ensuite transmise au
cerveau le long de la fibre nerveuse. La particularité de ces impulsions est d’avoir
la même intensité et la même durée quel que le soit le niveau du son (fort ou
faible) et quelle que soit la fréquence (aiguë ou grave).
Le signal est codé au niveau des cellules ciliées, transmis par les fibres nerveuses
et décodé par le cerveau. Cette transmission de type numérique fait l’objet de
multiples théories de l’audition que l’on rencontre dans la littérature acous-
tique [17], [8], [9].
Néanmoins il est apparu que les informations sont d’origine fréquentielle et
temporelle. Or, nous savons que la fréquence n’est que l’inverse d’une durée. Une
corrélation entre les différentes informations nous permet de faire une analyse
précise de tout ce qui évolue dans le temps.
F Le rôle du cerveau
Les informations acoustiques communiquées transmises au cerveau seront, à
l’instar des informations sensorielles d’autres natures, décodées dans les centres
correspondants, les aires auditives en l’occurrence. C’est là que le traitement des
informations reçues se fera par comparaison aux connaissances acquises dans
notre environnement et stockées dans des « mémoires ». Nous pouvons ainsi
reconnaître rapidement le signe acoustique véhiculé et réagir par rapport au
message qu’il nous apporte.
Nous résumons dans un tableau récapitulatif (figure 4.21) les principales caracté-
ristiques physiologiques de l’audition humaine. Il nous permet de faire le point
sur le rôle physiologique de chaque partie de l’oreille [6], [7].
Figure 4.21 — Tableau récapitulatif des principales caractéristiques physiologiques de l’audition humaine.
237
238 Le livre des techniques du son
F La fatigue auditive
Chacun de nous a déjà eu l’occasion de constater qu’il devenait légèrement sourd
aux sons environnants après avoir entendu un son intense. Cette baisse de la
sensibilité auditive est la fatigue auditive. Pouvant être très importante, elle dispa-
raît en un temps variant de quelques secondes à plusieurs heures.
La fatigue auditive due aux sons purs est faible et brève jusqu’à la fréquence de
800 Hz environ. Au-delà elle est plus importante et reste du même ordre de gran-
deur pour toutes les fréquences.
Il est montré que la fatigue auditive a son siège dans l’oreille (oreille moyenne et
oreille interne particulièrement) et non dans le nerf auditif ni dans le cerveau.
Résultant d’une longue exposition à un bruit de niveau élevé, elle se traduit par
une élévation du seuil d’audibilité. La récupération de l’oreille peut même néces-
siter 24 heures comme le montre la figure 4.23.
© Dunod – Toute reproduction non autorisée est un délit.
En abscisses : fréquences des sons tests. La récupération est plus rapide dans les
graves que dans les aiguës.
Comme on peut s’y attendre, la fatigue auditive s’accompagne d’une modification
de perception du timbre.
Une écoute prolongée à fort niveau (casque, sonorisation puissante, etc.) peut
créer des lésions irréversibles.
240 Le livre des techniques du son
des travailleurs au bruit étant fixée à 87 dBA (ou 140 dB de crête). Il est à noter
que la réduction de la nuisance sonore à la source est toujours la meilleure solu-
tion mais malheureusement pas toujours réalisable. Par exemple dans le cas
d’une sonorisation de puissance, les techniciens et les artistes sur scène sont
exposés à des niveaux sonores importants et doivent utiliser des artifices pour
se protéger…
Dans certains secteurs de l’industrie rappelons qu’il existe depuis longtemps,
pour des salariés travaillant en ambiance bruyante, des sonomètres destinés à
mesurer individuellement leur exposition au bruit pendant une période de
temps, en vue de se conformer aux dispositions réglementaires précitées. Ces
appareils de mesure, appelés dosimètre de bruit ou exposimètre, peuvent même
être portés directement par la personne. L’appareil est en liaison infrarouge avec
un système d’analyse.
Dans le cas de la réglementation relative aux établissements diffusant à titre habi-
tuel de la musique amplifiée, le Code du travail, le Code de l’environnement ou
encore celui de la santé et même du tourisme sont concernés par les problèmes de
bruit. Ils cherchent à augmenter la protection de l’audition du public en modifiant
les mauvaises habitudes prises par le passé… La gestion des niveaux est d’ailleurs
encadrée par une législation spécifique incluse dans le décret n° 98-1143 (voir
§ 4.5.1, tome 3).
d’écoute professionnelles.
Les protections auditives permettent une audition de qualité avec une courbe
de réponse quasi droite mais permettant des atténuations de 9, 15 ou 25 dB. Elles
peuvent aussi être équipées d’un filtre et choisies comme on choisit un casque.
Dans la catégorie des protections auditives se trouvent par exemple des
produits utilisés par les professionnels du son : l’EP2 Muzik de Surdifuse,
l’high fidelity music de la société lesoreilles, l’EarPad d’Earsonics, le pianissimo
de Protac ou encore le Music Safe d’Alpine. Ces produits diffèrent par leur
conception et leur réalisation et répondent à des critères que le musicien ou le
242 Le livre des techniques du son
technicien du son doit se fixer. Lire à ce propos une étude comparative faite par un
magazine professionnel [32]. Il faut savoir que la durée de vie des protections
auditives est limitée dans le temps (quelques années) et nécessite un entretien
régulier.
4.4 Conclusion
L’oreille est l’outil de travail du preneur de son et doit être à ce titre particulière-
ment préservée. On peut regretter de voir des professionnels s’exposer à des
niveaux sonores qui dépassent largement les seuils tolérables. En dehors des
risques qu’ils prennent, ils sont aussi responsables pour les spectateurs qu’ils
exposent. Préserver la qualité de l’audition doit être le maître mot car on sait
très bien que le moindre dysfonctionnement entraîne à terme des troubles
rédhibitoires.
4.5 Bibliographie
[1] R. Bücklein. The audibility of frequency response irregularities, JAES (mars 1981).
[2] C. Cable, C. Emerson. Those early arrivals – Mr Haas – What would you do ? JAES
(janvier 1980).
[3] R. Condamines. Contribution à l’étude psychologique de la régulation du niveau
sonore, Thèse doctorat d’État, Paris VI (1972).
[4] R. Condamines. Stéréophonie. Cours de relief sonore – Masson (1978).
[5] R. Condamines. Le temps et l’espace dans la perception auditive – RA (1979), no 50.
[6] E.-F. Evans, J.-P. Wilson. Psychophysics and Physiology of hearing – Academic Press,
Londres (1977).
[7] Feldkeller et Zwicker. L’oreille, récepteur d’information – Masson (1982).
[8] Goudot-Perrot Andrée. Les organes des sens – Que sais-je ? no 496, PUF (1973).
[9] Gribenski. L’audition – Que sais-je ? no 484, PUF (1975).
[10] J.-L. Hall. Model study of Zwicker’s masking period patterns – JASA (août 1978).
[11] IRA J. Hirsh. The measurement of hearing – Mac Graw Hill, New York (1952).
[12] W.-L. Howes. Loudness of steady sounds. A new theory – AC (février 1979).
[13] M. Kitantou. Influence de l’effet de masque sur l’évaluation de la qualité des modula-
tions radiophoniques – Thèse doctorat 3e cycle. Université du Maine – Le Mans
(1977).
[14] R. Lehmann. Éléments de Physio et Psychoacoustique – Dunod (1969).
Chapitre 4 – La perception auditive 243
[15] E. Leipp. Acoustique et musique (fac-similé de la 4e édition de 1984) – Presses des
Mines, Paris (2011).
[16] E. Leipp. La machine à écouter – Masson (1978).
[17] R.-B. Livingstone. Sensory processing, perception and behaviour – N.Y. Raver-Press
(1978).
[18] G. Loeds. Le remplacement des organes fonctionnels de l’oreille – Pour la science
(avril 1985).
. Moles. Théorie de l’information et perception esthétique – Flammarion (1958).
[19] A
[20] I . Pollack. Perception of complex sounds – Hidden auditory figures – JASA
(décembre 1975).
.-A Rasch. The perception of simultaneous notes such as in polyphonic music – AC
[21] R
(mai 1978).
[22] J.-C. Risset. Séminaire sur le timbre – IRCAM (avril 1985).
[23] P. Schaeffer. Traité des objets musicaux – Éd. du Seuil (1966).
[24] G. Stevin. Analyse spectrale des bruits impulsifs en vue de la protection de l’audition –
RA (1980), no 1.
[25] G. Von Békésy. Experiments in hearing – Mac Graw Hill, New York (1963).
[26] R.-M. Warren. Subjective loudness and its physical correlate – AC (juin 1977).
[27] Wever. Theory of hearing – New York (1953).
[28] F. Winckel. Vues nouvelles sur le monde des sons – Dunod (1960).
[29] E. Zwicker. Masking period patterns of harmonic complex tones – JASA (août 1976).
[30] AFNOR. Normes NF S 30 101 – 105 – 107.
[31] F. Humbert, M. Ebran, C. Matricon-Delbe. « Prothèses auditives. Comment faire le
bon choix » – Que choisir, n° 474, octobre 2009, p. 16-22.
[32] J.-L. Horvilleur, Protection auditive, la guerre des bouchons. Guitar Part, n° 184,
juillet-août 2009 – http://www.lesoreilles.com/articles/GP184_084-91_Comparatif_
Protections_Auditives.pdf
Chapitre 5
Le signal
Jacques Foret
Docteur en électroacoustique. Ingénieur conseil en acoustique.
Professeur d’acoustique et de traitement du signal
5.1.1 Généralités
Les notions de signal et d’information sont souvent associées voire confondues.
En effet, bien qu’étant des concepts distincts, l’un ne va pas sans l’autre. Une
information est quelque chose d’inobservable, c’est-à-dire que l’on ne peut
mesurer. Alors que le signal, qui est sa transcription sur le plan physique, est
mesurable.
Pour qu’il y ait information dans un signal, il faut deux conditions :
• que l’instant (ou la position) où se produit la transformation du support du
signal soit non prévisible ;
• que l’on ait convenu d’un code entre l’émetteur et le récepteur.
Prenons un exemple dans la vie courante : les feux de circulation. Physiquement,
le support de l’information est l’émission d’une onde lumineuse, soit rouge, soit
246 Le livre des techniques du son
Le signal le plus simple que l’on puisse imaginer et qui contienne une information
(c’est-à-dire transition) est un signal à deux états. L’information élémentaire est
donc une information binaire (OUI/NON).
Un signal peut au contraire contenir une information, très « nuancée », comme
l’évolution de la température d’un système, ou le débit d’un fluide. Cette informa-
tion peut prendre une infinité de valeurs (donc d’états au niveau du signal) entre
deux limites fixées arbitrairement. Ce type de signal est dit « analogique ».
Les signaux que nous venons d’évoquer sont tous susceptibles d’être repré-
© Dunod – Toute reproduction non autorisée est un délit.
sentés graphiquement, car ils ne dépendent que d’une seule variable, que cette
variable soit le temps, la distance, ou tout autre paramètre. Ils sont de la forme
y = f (x).
Ce type de signal est dit « monodimensionnel ». Notons que pour tracer son
graphe, il suffit d’une feuille de papier, soit un espace bidimensionnel. Un signal
électrique est, par nature de ce type.
✦ Signal bidimensionnel
Ce type de signal peut être décrit par une fonction qui dépend de deux variables.
248 Le livre des techniques du son
Prenons comme exemple une photographie noir & blanc sur papier. Nous
pouvons entièrement définir le signal (et donc l’information contenue dans
l’image) par la connaissance du facteur de réflexion en fonction de chaque point
(au sens mathématique) de l’image. À tout couple (x, y), nous pouvons associer
R(x, y). La représentation graphique est malaisée car il nous faut un espace à trois
dimensions. La convention de la perspective permet cette représentation
(figure 5.2).
✦ Signaux tridimensionnels
On peut les définir comme étant des signaux qui dépendent de trois variables,
exemple : une image noir & blanc animée, la surface d’un objet réel, etc.
Il ne faut pas confondre la dimension d’un signal avec le nombre de signaux
nécessaires pour transmettre une information. Une photo en couleurs est la
superposition de trois photos noir & blanc colorées. Dans ce cas, nous dirons qu’il
faut trois signaux bidimensionnels pour transmettre cette image.
5.1.3 Multiplexage
Les techniques de multiplexage ont pour but de transformer un ensemble de
signaux de même nature, en un seul signal de même dimension et de même
nature. Pour la simplicité des représentations, nous ne prendrons comme exemple
que des signaux monodimensionnels, mais la démarche reste valable dans le cas
de signaux plus complexes.
✦ Multiplexage temporel
Dans cette technique, les signaux sont comprimés dans le temps, puis transmis
par « paquets » les uns à la suite des autres. Il est à noter que si l’on a n signaux à
transmettre, de fréquence maximum Fmax, il faut alors comprimer chacun dans
un rapport d’au moins 1/n, de sorte que la fréquence maximum contenue dans
chaque « paquet » est égale à n Fmax (figure 5.3). Le signal résultant aura donc une
fréquence maximum égale à n Fmax. Ceci signifie simplement que la quantité
maximum des informations contenues dans le signal multiplexé est égale à la
somme maximum des informations contenues dans l’ensemble des signaux inci-
dents.
© Dunod – Toute reproduction non autorisée est un délit.
✦ Multiplexage fréquentiel
Cette opération est réalisée en opérant une translation fréquentielle différente
pour chaque signal (modulation), puis en faisant la somme de signaux modulés
(figure 5.4). Il est bien évident que pour pouvoir isoler ces différents signaux,
l’écart fréquentiel entre deux signaux modulés adjacents (canaux) doit être supé-
rieur à la largeur de bande occupée par chaque signal. Or, chaque canal a une
bande au moins égale à la fréquence maximum du signal à transmettre (voir
détail § 5.5). On retrouve donc là encore la bande passante du signal multiplexé,
qui est au moins égale à la somme des fréquences maximales de chacun des
signaux.
5.1.4 Échantillonnage
La technique de l’échantillonnage est utilisée pour réduire d’une unité la dimen-
sion d’un signal. Elle permet de remplacer un signal de dimension N par m
signaux de dimension N – 1, m dépend de la résolution souhaitée. Il s’agit en
quelque sorte, d’un découpage en « tranches » tel que montré sur la figure 5.6.
252 Le livre des techniques du son
5.2.2 Convolution
✦ Transformation d’un signal par filtrage
Nous allons, dans ce paragraphe, étudier les modifications apportées à un signal
quelconque lorsqu’il traverse un filtre. Afin de faciliter la compréhension et les
représentations graphiques, nous allons étudier en premier lieu un signal se
présentant sous forme de « marche d’escalier », nous passerons ensuite au cas des
fonctions continues telles qu’elles se présentent en électronique analogique, par
passage à la limite, en prenant des « marches d’escalier » de plus en plus étroites.
254 Le livre des techniques du son
Si l’on considère un signal de test I(t) tel que défini par la figure 5.7.
Prenons maintenant un signal d’entrée e(t) quelconque formé d’une suite d’échan-
tillons de durée dT0, tel que représenté sur la figure 5.8.
Ce signal est formé d’une suite d’impulsions rectangulaires de durée dT0 et d’am-
plitudes variables que nous appellerons ai, i représentant le numéro d’ordre de ces
impulsions.
Si l’on considère maintenant, non plus l’ensemble des impulsions, mais chaque
impulsion prise individuellement comme un signal, alors celui-ci ressemble fort
au signal test défini plus haut, à un décalage temporel et une amplitude près. De
sorte que par linéarité et invariance temporelle, l’on peut prédire la sortie Si(t)
correspondant à l’entrée ai (figure 5.9) :
Si(t) = ai dΤ0 Rʹ(t – i dΤ0) (3)
Chapitre 5 – Le signal 255
à l’intérieur d’un intervalle de temps fini, ce qui est inutilement restrictif. De sorte
que nous étendrons le domaine d’intégration de – ∞ à + ∞.
Nous avons la formule suivante :
+∞
S (t ) = ∫ R (t − τ) e ( τ) dτ = R (t ) * e (t ) (5 )
−∞
est l’impulsion de Dirac. Ceci est physiquement évident, puisqu’un filtre qui
aurait pour réponse percussionnelle une impulsion de Dirac, n’apporterait aucune
déformation au signal test, donc par linéarité à n’importe quel signal.
+∞
si e (t ) = e Pt alors λ= ∫ R ( τ) e − Pτdτ
−∞
✦ Analyse à Δf constant
Un bruit blanc, par définition, a une densité spectrale constante (définition
mathématique), ceci veut dire que son énergie est répartie de manière équitable
sur toutes les fréquences composant la gamme audio.
Considérons un bruit blanc dans la bande 20 Hz-20 kHz, dont la valeur efficace
est de 100 dB, mesurée sur notre sonomètre.
Si l’on fait maintenant une analyse de ce phénomène physique, à l’aide d’un analy-
seur à f constant, par exemple par canaux de 100 Hz ; nous allons avoir 200
canaux environ dans la bande de 20 Hz - 20 kHz.
Du fait de la définition de notre bruit blanc, chaque canal comprenant la même
largeur de bande, donc le même nombre de fréquence recueillera la même
énergie ; cela signifie que l’énergie de chaque bande sera de 1/200e de l’énergie
totale. Exprimée en dB, cela donne un niveau de 77 dB par canal.
Chapitre 5 – Le signal 259
Si, au lieu d’un analyseur 200 canaux, l’on prend un analyseur 400 canaux en
bandes de 50 Hz, alors le raisonnement sera le même, et cela conduira à une
valeur de 74 dB par canal. Ceci montre que la représentation d’un bruit sous
forme de spectre n’est valable que si l’on spécifie les conditions d’analyse.
avec : v(t) la tension aux bornes du dipôle, i(t) l’intensité parcourant le dipôle.
✦ Notion d’impédance
De par les propriétés de la transformée de Fourier, ces expressions écrites dans le
domaine fréquentiel sont notablement plus simples à manipuler. En effet, on
montre facilement que les opérations d’intégration et de dérivation se transfor-
ment en multiplication ou division par j. De sorte que l’on écrit usuellement :
pour une inductance V() = j L × I() (10)
1
pour un condensateur V ( ω) = × I ( ω) (11)
jC ω
V() et I() représentent respectivement les spectres des tensions et des
courants.
Ces relations étant formellement identiques à la loi d’Ohm, on a pris l’habitude
d’utiliser la notion d’impédance. Mais il ne faut pas se cacher que cette notion est
définie dans le domaine fréquentiel et n’a donc aucune réalité, contrairement à la
notion de résistance.
✦ Fonction de transfert
Ceci a un certain nombre de conséquences sur le comportement des filtres analo-
giques. On constate que ce type de filtre a toujours une fonction de transfert du type :
Chapitre 5 – Le signal 261
P ( jω )
H ( jω ) = (12)
Q ( jω )
P et Q étant des polynômes à coefficients réels (faisant intervenir R, L, C ) avec
degré de P inférieur ou égal au degré de Q. Le degré de Q est l’ordre du filtre. C’est
ce paramètre qui fixe la pente asymptotique maxima. Exprimée en dB/oct, cette
pente maxima est de 6 fois le degré de Q. Ce nombre Q représente également le
nombre d’éléments réactifs indépendants.
On appelle « zéros » les racines du numérateur et « pôles » les racines du dénomi-
nateur. Les coefficients de ces polynômes étant réels, il s’ensuit que les racines
complexes sont toujours conjuguées. C’est la raison pour laquelle on a pris l’habi-
tude en filtrage actif, de synthétiser des filtres d’ordre élevé par la mise en cascade
de filtres élémentaires d’ordre 2.
À titre d’exemple, nous donnons sur la figure 5.12 le schéma d’un filtre d’ordre 4
en technologie passive (deux condensateurs, et deux inductances) et en techno-
logie active (deux cellules d’ordre 2 comprenant chacune 2 condensateurs), et sa
fonction de transfert sous forme graphique (courbe de réponse).
© Dunod – Toute reproduction non autorisée est un délit.
Il est à noter que les signaux retardés sont soit continus (cas d’un retard de
propagation dans l’air ou milieu solidien) soit échantillonnés (retard numérique
– voir « Les périphériques », tome 2). La théorie diffère légèrement selon ces deux
cas, mais les principes et résultats de base développés ici restent valables dans les
deux cas. Le signal étudié ici sera considéré sous sa forme analogique. La transpo-
sition aux filtres numériques se fera ultérieurement (voir § 5.3.4).
Les micros « canon » sont de ce type. Le retard est plus exactement une différence
de retard dans l’air libre et la propagation dans le tube d’interférence. Cette diffé-
rence de retard est fonction de l’angle d’incidence. Le filtre ainsi constitué est un
filtre passe-bas, dont la fréquence de coupure dépend, comme pour tous les filtres
de cette nature, de la valeur des coefficients de la combinaison linéaire (grossière-
ment la largeur des fentes) et du retard élémentaire. Or, ce dernier dépend de
l’angle d’incidence, d’où la directivité de ce type de micro.
✦ Réponse impulsionnelle
Que se passe-t-il lorsque l’on envoie dans un tel filtre une impulsion de Dirac ?
Cette impulsion apparaît successivement sur l’ensemble des sorties retardées,
avec pour amplitude, la suite des coefficients affectés à chaque sortie. La réponse
Chapitre 5 – Le signal 263
✦ Réponse fréquentielle
L’opérateur retard a pour transformée de Fourier : e − j 2πKTe .
De sorte que dans le domaine fréquentiel, on peut écrire :
n
S ( ω) = ∑ E ( ω) ⋅ ak e − j 2 πKTe (14 )
k =0
aucune raison pour que la suite de ces coefficients soit finie. Or, pour des raisons
évidentes de coûts, le nombre de cellules de retard élémentaires doit être le plus
faible possible. Il ne faut donc prendre que les coefficients les plus importants qui,
généralement, sont les plus proches de l’origine. On réalise ainsi une troncature.
La fenêtre de troncature la plus simple est la fenêtre rectangulaire que l’on prend
de longueur égale à la longueur maxima du retard.
Ce faisant, on perturbe peu la réponse impulsionnelle, par contre, cela a une
grande conséquence sur la réponse fréquentielle. En effet, la perturbation que l’on
introduit dans le domaine temps est une multiplication. Ceci se comporte comme
264 Le livre des techniques du son
Cela revient à dire que pour l’instant, nous ne savons réaliser que des filtres dont
la sortie dépend de l’entrée et de ses dérivées. Alors que dans le cas des filtres
analogiques, la sortie dépend de ses propres dérivées.
Autrement dit, le problème consiste à savoir faire une division, en ne connais-
sant que la multiplication. Les électroniciens « analogiques » savent très bien
créer une fonction inverse grâce à la méthode générale de contre-réaction
(figure 5.14).
H2 = S2/E.
On trouve :
1 1
H1 ( ω ) = et H 2 ( ω) = (18)
H ( ω) + 1 1 H ( ω) + 1
La forme de H1 est particulièrement intéressante car à un coefficient + 1 près,
qu’il est facile « d’absorber » dans le calcul de H, elle fournit la réponse à notre
problème. Pour que H() soit un polynôme, il suffit que ce soit un philtre à convo-
lution que nous venons d’étudier au paragraphe précédent.
266 Le livre des techniques du son
5.4.1 Définition
On appelle « canal de transmission » tout moyen technologique permettant de
transmettre (avec éventuellement mémorisation) un signal (sous quelque forme
que ce soit) supportant une information. Citons à titre d’exemple le câble coaxial
transmettant une ou plusieurs images de télévision. Cela peut être aussi bien une
liaison satellite qu’une pellicule photographique, ou qu’un simple câble élec-
trique.
Quelle que soit la technologie employée, on peut définir des grandeurs qui carac-
térisent un canal de transmission.
aucun problème, par contre, si l’on dispose d’un canal hertzien de bande passante
1 GHz à 1,0001 GHz, il faudra translater le spectre autour de 1,00005 GHz, à l’aide
d’un modulateur. Cette opération est possible car la bande passante du canal de
transmission est de 0,0001 GHz soit 100 kHz, et est donc bien supérieure à
l’étendue du spectre du signal à transmettre.
On en trouve une application directe en vidéo analogique, sur l’un des signaux
composant les lignes test (LT 17 – « Impulsion 20 T composite ») (figure 5.16). Ce
signal contient deux impulsions superposées, l’une en basse fréquence (centrée
sur 0 Hz) et l’autre en haute fréquence (centrée sur 4,43 MHz), toutes deux ayant
une largeur de 100 kHz. Elle permet notamment de mesurer la différence de
temps de propagation entre les signaux luminance et chrominance. En effet, en
vidéo, comme dans beaucoup d’autres applications, l’important n’est pas tant le
temps de transmission proprement dit, mais la différence de temps de propaga-
tion entre des signaux participant à la description d’un même phénomène
physique. Chacun en sait l’importance dans un signal stéréophonique. Aussi
parle-t-on souvent de gain et de phase différentielle pour caractériser la variation
de ces grandeurs entre deux ou plusieurs canaux de transmission.
Figure 5.16 — Représentation simplifiée du signal de test « 20 T » utilisé en vidéo
(aspect temporel et fréquentiel).
La dynamique d’un signal, est le rapport entre la valeur la plus intense et la valeur
la plus faible contenue dans ce signal. Il est bien évident que la dynamique doit
nécessairement être plus faible que le rapport signal sur bruit. Dans le cas
contraire, il faut alors user d’artifices, tels que compresseurs et autres réducteurs
de bruit (voir « Les périphériques », tome 2).
✦ Les distorsions
✧ Les généralités
On appelle distorsion toute déformation du signal liée aux non-linéarités. Les
déformations linéaires sont un des aspects du filtrage. Lorsque l’on utilise comme
signal de test une sinusoïde, les propriétés linéaires induisent une modification
de l’amplitude et de la phase, mais non de la forme, alors que la non-linéarité du
canal introduit, elle, des déformations sur la forme de la sinusoïde. Ces déforma-
tions périodiques peuvent être perçues généralement, si l’on en fait une décom-
position spectrale, comme des harmoniques du signal de test (dans certains cas
très particuliers on peut assister à la création de sous-harmoniques notamment
sur les HP à suspension raide).
On appellera signal parasite le signal déformant le signal d’origine à l’exclusion
des déformations d’origine linéaire. À ce propos, on constate encore couram-
ment une grave confusion sur les amplificateurs de puissance, entre la limita-
tion de temps de montée sur un signal rectangulaire liée à la bande passante de
l’amplificateur, et la limitation par la vitesse de commutation des transistors
de puissance. Dans le premier cas, lorsque l’on modifie le niveau, les courbes
sont toujours déformées de la même manière, dans le second, les déforma-
tions n’apparaissent qu’à fort niveau. Il faut savoir que le temps de montée
théorique d’un signal dont la bande passante est limitée à 20 kHz, ne peut être
inférieur à 8 µs.
Les mesures de distorsion essayent de caractériser les défauts dus à la non-
linéarité du support ou du canal (figure 5.17). Du fait même qu’il s’agit d’un
phénomène non linéaire, la notion de spectre et transformée de Fourier est
inadaptée à l’observation de ce phénomène. Aussi peut-on définir une infinité
de types de distorsions, en fonction des conditions de mesures. Néanmoins, un
certain nombre de ces mesures ont été normalisées mais il n’en reste pas moins
vrai que d’une part, certaines zones d’ombre existent quant aux conditions
précises, et d’autre part, en fonction des technologies nouvelles, de nouvelles
formes et mesures de distorsion sont récemment apparues et continueront
d’apparaître.
Chapitre 5 – Le signal 271
✧ Distorsion harmonique
Dans ce type de mesure, on utilise comme signal une sinusoïde. Le signal sortant
peut se décomposer en trois termes, d’une part la sinusoïde d’entrée affectée d’un
gain et d’un déphasage, d’autre part un signal parasite résultant de la déformation
de la sinusoïde, et enfin le bruit de fond que l’on néglige à juste raison dans la
quasi-totalité des cas. On mesure le taux de distorsion harmonique en faisant le
rapport entre les valeurs efficaces du signal parasite et du signal total. On peut le
faire soit directement (taux de distorsion global), soit après une décomposition
spectrale. Dans ce cas, on précise le taux de distorsion par harmonique 2, 3, etc.
© Dunod – Toute reproduction non autorisée est un délit.
5.5.1 Généralités
Dans cette partie, on s’intéresse aux techniques de modulation usuellement utili-
sées pour transmettre un signal dans un canal de transmission. Ces techniques
peuvent présenter deux aspects, à savoir :
• adaptation à la bande passante, et aux propriétés propres du canal,
• protection de l’information.
On peut distinguer par mesure simplificatrice, deux types de modulation, les
modulations analogiques et les modulations numériques mais actuellement les
unes et les autres font appel à des circuits analogiques et numériques. Cette
distinction repose sur la nature des opérations mathématiques que l’on effectue.
Le terme « modulation analogique » recouvre des manipulations de fonctions
continues, alors que le terme « modulation numérique » suppose que l’on a affaire
à un signal final qui ne peut prendre qu’un nombre réduit d’états (en général
deux, parfois trois) et que les transitions entre états sont synchrones avec une
horloge (dans le cas contraire, on parle de modulation hybride).
Historiquement, les techniques de modulation se sont développées sous l’influence
des transmissions militaires. Transmettre un signal sonore dans l’espace hertzien,
nécessite pour le moins une translation de fréquence. Afin de multiplier le nombre
des stations émettrices sans interférences les unes sur les autres, il est nécessaire
d’utiliser pour chacune une bande relativement réduite dans cet espace hertzien.
D’autre part, les solutions mathématiques à ce problème devaient être compatibles,
sur un plan économique, avec les possibilités technologiques de l’époque.
Les premières liaisons électriques et radioélectriques furent numériques, aussi
surprenant que cela puisse paraître. Il s’agissait d’un code série asynchrone
inventé en 1832 par M. Morse ! Le principe est connu de tous, et pour réaliser une
transmission radioélectrique, il était naturel de prendre comme signal d’émis-
sion, celui qui avait le plus faible encombrement fréquentiel, c’est-à-dire une
sinusoïde, puisqu’elle ne contient, par définition, qu’une seule fréquence (posi-
tive). Partant d’une porteuse sinusoïdale, du type :
y = a sin(t + φ) (24)
On ne peut faire varier que l’un de ses trois paramètres, soit l’amplitude, soit la
fréquence, soit la phase. Il va de soi que les modulations de fréquence et de phase
présentent bien des points communs, car toutes deux modifient l’argument de la
fonction sinus. Dans certaines techniques (codage Vidéo-PAL), on utilise une
double modulation d’amplitude et de phase.
Chapitre 5 – Le signal 275
La réponse se trouve dans la phase du signal résultant. S’il n’y a pas de disconti-
nuité de phase, alors c’est l’enveloppe supérieure que l’on doit considérer, sinon il
faut suivre l’enveloppe inférieure. Dans la pratique, il est bien évident que l’on ne
connaît pas la phase à l’origine (signal porteur) sur le lieu de réception, aussi
doit-on se fier aux brusques variations de phase.
On utilise généralement pour démoduler ce type de signal un démodulateur
synchrone qui effectue (en utilisant les propriétés des fonctions trigonométriques)
une translation de spectre inverse de celle utilisée à l’émission. La figure 5.22
explique le principe de la démodulation synchrone.
Le spectre fait cette fois apparaître de l’énergie sur la fréquence 0. Dans le cas
d’une modulation sinusoïdale d’amplitude maximum a0/2 (pour éviter le point de
croisement), on trouve une distribution des niveaux telle qu’indiquée sur la
figure 5.24.
Exprimée en terme d’énergie, on constate que la porteuse consomme quatre fois
plus que chaque bande latérale et ne véhicule aucune information.
Ce type de transmission gaspille donc beaucoup d’énergie à l’émetteur,
simplement pour avoir des récepteurs peu coûteux. C’est un choix écono-
mique qui se justifiait pleinement aux débuts de la radio commerciale. Par
contre, pour des liaisons point à point, type radiotéléphone, ce type de modu-
lation n’est pas envisageable. Il est préférable d’avoir un récepteur plus sophis-
tiqué et d’économiser les 5/6e de l’énergie à l’émetteur comme on va le voir
ci-après.
Le filtre H est un déphaseur qui opère un déphasage de + /2 (quadrature) sur les
fréquences positives et de – /2 sur les fréquences négatives. Un tel filtre (filtre de
Hilbert) est un filtre à convolution réalisé à l’aide d’une ligne à retard.
La démodulation d’un tel signal est très délicate. En effet, la fréquence de la
porteuse n’apparaît ni de manière explicite, comme dans la modulation d’ampli-
tude avec porteuse, ni implicite, comme dans la modulation d’amplitude à
© Dunod – Toute reproduction non autorisée est un délit.
Φ (t ) = ∫ ω (t ) dt = ω0t + k ∫ y (t ) dt
tronique » § 6.2.4).
Ceci a comme conséquence directe que le rapport signal sur bruit en MF est
toujours meilleur dans les fréquences basses, que dans les fréquences aiguës.
✦ Préaccentuation
C’est pour cette raison que dans tous les systèmes FM, on utilise une préaccentua-
tion des fréquences aiguës. On constate que, généralement, le spectre du signal
modulant ne contient en valeur moyenne que peu d’énergie dans les fréquences
élevées, ce qui justifie cette préaccentuation qui relève le spectre avec une pente
282 Le livre des techniques du son
✦ Encombrement spectral
Le spectre d’une modulation de fréquence est relativement difficile à calculer, et
nécessite des développements mathématiques qui sortent largement du cadre de
cet ouvrage. On montre que le spectre d’une modulation de fréquence est théori-
quement infiniment large et présente de nombreuses « raies » latérales. Néan-
moins, l’énergie de celles-ci décroît lorsque l’on s’éloigne de la fréquence centrale.
On admet usuellement que l’on peut négliger ces « bandes latérales » quand elles
ont une amplitude inférieure à 1 % de la porteuse non modulée. La distorsion qui
en résulte est très inférieure à celle résultant des modulateurs et démodulateurs
eux-mêmes.
Les formules suivantes donnent la bande passante utile B, en fonction des indices
de modulation m, de la bande passante du signal à transmettre F, et de l’excursion
maximale en fréquence de la porteuse, dF.
Pour les indices de modulation faibles :
m < 0,3
B = 2F (identique à la modulation d’amplitude).
Chapitre 5 – Le signal 283
• Rapport signal sur bruit. En se plaçant dans les mêmes conditions (même
amplitude, même signal modulant, même bruit de fond dans le canal, etc.)
on trouve une amélioration en FM proportionnelle à l’indice de modula-
tion.
En AM : S/B = P/B
En FM : S/B = P/B + 20 log m
(S/B)FM/(S/B)AM = 20log(m) + k
avec k dépendant du type de signal de brouillage 0 ≤ k ≤ 6.
284 Le livre des techniques du son
Ceci étant, rien ne s’oppose alors à utiliser les mêmes techniques que pour un
signal analogique. Citons à titre d’exemple le télégraphe, les modems, les télex,
l’enregistrement d’un code temporel sur un magnétophone ou un magnétoscope,
etc. Par contre, certains canaux de transmission ne peuvent fonctionner qu’avec
des signaux à deux états, sans limitation de bande passante (front) mais une limi-
tation de débit (due au « ramollissement » des fronts). C’est le cas des liaisons
optiques guidées (fibres optiques) ou libres (liaisons infrarouges).
286 Le livre des techniques du son
Le code Miller (le mot « code » est impropre dans ce sens, on devrait parler de
procédé de modulation) est assez usité pour l’enregistrement d’un signal numé-
rique sur un support magnétique (disquette, bande). Il est autosynchronisable,
© Dunod – Toute reproduction non autorisée est un délit.
c’est-à-dire que l’on peut le démoduler, même si l’on ignore a priori, le débit utilisé
à l’émission. Le principe est simple : pour transmettre des « 0 » on fait un change-
ment de polarité, à chaque période horloge, et pour transmettre des « 1 », on fait
ce changement de polarité toutes les demi-périodes d’horloge. Là encore, on
constate que toute l’information est transmise par les transitions, mais dans ce
code, le sens de transition (bas vers le haut), (haut vers le bas), n’a aucune impor-
tance, de sorte que les inversions de polarité sur le canal de transmission n’ont
aucune importance. D’un point de vue encombrement, on trouve des signaux qui
peuvent avoir pour périodicité la durée de transmission soit d’un bit (pour « 1 »),
soit deux bits (pour un « 0 »). Ce codage n’est pas optimum, car d’après ce qui a été
288 Le livre des techniques du son
dit en début de chapitre, on s’aperçoit que pour une même bande passante, on
pourrait faire passer deux fois plus de données. Un tel code existe (double densité),
mais il n’est pas auto-synchronisable. Par contre, il est utilisé sur les machines
d’enregistrement numérique fonctionnant à vitesse fixe.
Si à partir d’un des points, on ne modifie qu’un seul bit, alors on se déplace le long
d’une arête. Pour se protéger contre ce type d’erreur, il faut éviter que deux points
autorisés puissent être contigus. On arrive donc au schéma proposé figure 5.32.
Dans ce type de code, on détecte une erreur, mais on ne peut pas la corriger, car chaque
état interdit est à proximité (même distance) de trois états autorisés qui peuvent repré-
senter chacun la vraie valeur. Pour pouvoir corriger à la réception, il faut que les
états interdits de première espèce (ceux que l’on obtient en commettant une erreur
sur un seul bit) soient « groupés » autour d’une seule valeur autorisée (figure 5.33).
Chapitre 5 – Le signal 289
Ainsi, peut-on corriger les erreurs de première espèce, et détecter les erreurs de
deuxième espèce (altération de deux bits). Le principe peut, bien sûr, être étendu
en fonction de la fiabilité du support et de la fiabilité finale désirée, mais il faut se
290 Le livre des techniques du son
convaincre que certaines erreurs ne seront pas détectées si l’on se retrouve sur une
valeur autorisée. On peut rendre, par ces codes complexes, ce phénomène très
peu probable. Dans la pratique, une transmission est considérée comme « infail-
lible » si le taux d’erreur calculé est inférieur à 10–14.
Sur un disque compact, le taux de défaillance est de l’ordre de 10–12, ce qui repré-
sente un parasite toutes les 3 000 heures d’écoute (soit environ 120 jours d’écoute
continue sans parasite).
✧ Applications
Pour retrouver le signal d’origine, il suffit de transformer la longueur du créneau
en une amplitude, ce qui se réalise à l’aide d’un simple filtre passe-bas. Cette faci-
lité de démodulation a amené certains constructeurs à utiliser ce principe pour
réaliser des amplificateurs de grande puissance (Sony, Power, Peavey). Les étages
de sortie, fonctionnant en commutation, ne dépensent qu’une énergie minime,
de sorte que les rendements dépassent les 90 %. La publicité les a fait souvent
apparaître sous le terme d’ampli numérique, alors qu’il s’agit en réalité d’un
amplificateur analogique à découpage.
Chapitre 5 – Le signal 291
Mais c’est certainement une voie d’avenir, car la conversion directe d’un signal
numérique en modulation de largeur est plus simple qu’un convertisseur simple
rampe. Il est fort probable que d’ici quelques années, le signal ne reprendra sa
forme analogique, pour venir séduire nos oreilles, que par filtrage passif, juste
avant les haut-parleurs, à moins que ce ne soit par filtrage acoustique juste après
des haut-parleurs numériques…
5.6 Bibliographie
[1] E. Roubine, Introduction à la théorie de la communication. Masson, 3 vol. (1970).
[2] J. Max, Méthodes et techniques de traitement du signal et applications aux mesures
physiques. Masson (1975).
© Dunod – Toute reproduction non autorisée est un délit.
[3] L.-R. Rabiner et B Gold, Theory and applications of digital signal processing. Prentice
Hall, Englewood Cliffs, N.J. (1975).
[4] A.-V. Oppenheim et R.-W. Schafer, Digital signal processing, Prentice Hall, Engle-
wood Cliffs, N.J. (1975).
[5] M. Calmet, Introduction aux techniques d’enregistrement. Techniques de l’ingénieur
E 5400.
Chapitre 6
Notions fondamentales
de l’électricité
Mohammed Elliq
Enseignant d’électronique appliquée à l’audiovisuel
à l’ENS Louis-Lumière.
Responsable du département d’électronique
de l’ENS Louis-Lumière.
Docteur en électronique de l’ULP de Strasbourg
(précédentes éditions rédigées par Jacques Tolza)
rnoy ≈ r0 × A1/3
Noyau mnoy = Z × mp + (A – Z) × mn qnoy = +Ze
r0 = 1,2 ×10–15 m
* Ordre de grandeur.
Le proton porte une charge électrique élémentaire positive. Le neutron est neutre
c’est-à-dire qu’il est sans charge électrique. L’électron a une charge électrique
élémentaire négative. Un nucléon est plus de 1 836 fois plus lourd qu’un électron ;
si bien que le noyau concentre quasiment toute la masse de l’atome (99,97 %). Les
charges positives, portées par les protons, sont concentrées dans le noyau de
l’atome et peuvent être considérées comme immobiles dans un solide. Les charges
négatives sont portées par les électrons qui « gravitent » autour du noyau de l’atome
à des vitesses prodigieuses et ce de manière incessante ; on parle d’un nuage élec-
tronique qui « entoure » le noyau de l’atome. Un atome contient autant de charges
positives que de charges négatives ; un atome est électriquement neutre. Cepen-
dant, dans certaines conditions (réactions chimiques, etc.), un atome peut gagner
ou perdre un ou plusieurs électrons ; il devient alors un ion. Un atome ayant reçu
un ou plusieurs électrons sera chargé négativement et s’appellera anion. Un atome
ayant cédé un ou plusieurs électrons sera chargé positivement et s’appellera cation.
Il existe donc deux types de charges électriques pour un matériau :
• une charge négative correspond à un excès d’électrons ;
• une charge positive correspond à un déficit d’électrons.
Chapitre 6 – Notions fondamentales de l’électricité 295
frottement, la règle arrache des électrons au tissu et devient plus riche en élec-
trons ; on dit qu’elle est chargée négativement. Pendant ce temps, le tissu qui a cédé
ses électrons se charge positivement. Au contact de la règle, les petits morceaux
de papier, électriquement neutres, subissent une modification de la répartition
de leurs charges électriques par un phénomène d’influence. La règle, chargée
négativement, attire les charges positives et repousse les charges négatives conte-
nues dans les petits morceaux de papier : c’est la loi de Coulomb. Si l’on arrache des
électrons, on obtiendra un matériau chargé positivement ; si on y dépose des élec-
trons, on obtiendra un matériau chargé négativement.
296 Le livre des techniques du son
✦ Différence de potentiel
On parle couramment de façon plus ou moins impropre de potentiel, de voltage,
de d.d.p., de tension, de point chaud, de point froid, etc. Ces termes ne recouvrent
en fait qu’une seule et unique notion : la différence de potentiel ou d.d.p.
Nous avons déjà vu la partie qualitative de la loi de Coulomb. La partie quantita-
tive de cette loi nous enseigne qu’une charge électrique Q crée dans l’espace qui
l’entoure un champ électrique E d’intensité :
1 Q
E= × 2
4 πε0 r
Chapitre 6 – Notions fondamentales de l’électricité 297
avec :
• Q : la charge électrique en coulombs (C).
• r : la distance à la charge en mètres (m).
• ε0 = 8,854 × 10–12 F/m : la permittivité du vide.
L’unité de champ électrique est le volt par mètre (V/m).
Si on trace une courbe continue orientée suivant le sens du champ électrique et
telle qu’en chacun de ses points le champ électrique y soit tangent, on obtient une
ligne de champ électrique. Les lignes de champ électrique sont des courbes qui
partent d’une source de charges positives et aboutissent à une source de charges
négatives. Deux lignes de champ électrique ne peuvent pas se couper. Dans une
région donnée de l’espace, le tracé de l’ensemble des lignes de champ électrique
permet de cartographier le spectre électrique.
Une charge Q, placée dans un champ électrique E, est soumise à une force élec-
trique d’intensité F = Q × E (phénomène d’attraction et de collage de poussières
sur un disque). Cette force s’exprime en newtons (N) si Q est en coulombs et E en
volts par mètre. Pour illustrer ce que représente le newton en tant qu’unité, on
pourra retenir qu’une masse de 1 kg a un poids de 9,81 N (soit environ 10 N).
Si on effectue un trajet dans un champ électrique, on franchit une d.d.p.
(figure 6.2).
© Dunod – Toute reproduction non autorisée est un délit.
Dans un champ électrique uniforme, c’est-à-dire dont les lignes de champ sont
équidistantes et parallèles, la d.d.p. entre deux surfaces équipotentielles A et B,
séparées l’une de l’autre par une distance d, vaut U = E × d, et ce, quel que soit le
trajet emprunté. C’est cette propriété qui fait l’intérêt de cette notion. En effet, peu
importe la forme des câbles et des circuits (donc du trajet des électrons), les effets
ne dépendront que de la d.d.p. Nous verrons cependant que, pour d’autres raisons,
certaines précautions sont à prendre.
L’unité de la d.d.p. est le volt (V). Elle permet de chiffrer l’énergie électrique W
fournie à une charge électrique Q se déplaçant dans un champ électrique E :
W = Q × U. Avec W en joules (J), Q en coulombs et U en volts. Par exemple, une
post-accélération de 13 kV d’un moniteur vidéo fournit à un électron une énergie
électrique W = 1,602 × 10–19 × 13 × 103 = 2,1 × 10–14 J. Cette énergie sera convertie
en rayonnement lumineux à l’arrivée de l’électron sur la face avant du tube du
moniteur vidéo.
La d.d.p. entre deux points A et B est UAB = UA – UB . UA et UB sont les potentiels
électriques aux points A et B, respectivement. Les potentiels électriques sont
comptés à partir d’un point unique arbitrairement choisi et servant de référence.
Cette notion est donc peu pratique et peu usitée, mais elle est cependant néces-
saire pour le câblage de grandes unités car la longueur des câbles de liaison y est
importante (studio, etc.).
Lorsque le potentiel UA d’un point A est mesuré par rapport au potentiel UM de
la masse (M), supposé nul par convention (UM = 0), on appellera la d.d.p. ou la
tension UAM = UA – UM = UA le potentiel du point A par rapport au potentiel de
la masse M.
Le terme voltage, bien qu’impropre (terme anglais), désigne souvent une tension
nominale (une d.d.p. qui doit normalement exister entre deux points comme par
exemple la tension du secteur, la tension d’alimentation, etc.).
Quand entre deux points A et B, il y a une d.d.p. UAB et que UA > UB, le point A
s’appellera l’anode ou le pôle positif, le point B s’appellera la cathode ou le pôle
négatif. D’une manière générale, on se souviendra qu’une anode attire les élec-
trons, tandis qu’une cathode les repousse. Dans un tube de moniteur vidéo, le
filament constitue la cathode, tandis que l’écran constitue l’anode, ce qui est
normal car l’écran doit attirer les électrons du faisceau.
Pour compter une tension alternative, on la représente par un vecteur-tension,
c’est-à-dire par une flèche. La queue de la flèche est souvent appelée « point froid »,
tandis que la pointe de la flèche est appelée « point chaud » (figure 6.3).
Chapitre 6 – Notions fondamentales de l’électricité 299
✦ Courant électrique
Lorsque des charges électriques se déplacent, elles forment un flux de charges
électriques appelé courant électrique. Suivant le milieu, les porteurs de charge
peuvent être des électrons, des manques d’électrons (appelés trous), des ions
(électrolytes), etc. En raison de cette diversité, on a été amené à ne considérer que
la charge électrique transportée et non pas le porteur de charge. D’où la définition
conventionnelle du courant : le courant électrique est un flot de charges positives.
On peut déterminer le sens du courant électrique à l’aide de la loi de Coulomb : à
l’extérieur d’un générateur, le courant électrique circule du pôle positif vers le
pôle négatif. En effet, les charges électriques positives sont repoussées par l’anode
et sont attirées par la cathode. Dans la mesure où la loi de Coulomb montre que
les électrons circulent en sens inverse, il convient de ne pas confondre le sens du
courant électrique (charges électriques positives) et le sens de déplacement du
flux d’électrons (charges électriques négatives).
L’intensité du courant électrique se chiffre en ampères (A) : un courant de 1 A
correspond au passage, à travers la section droite d’un conducteur, d’une charge
de 1 C par seconde. Il s’agit donc d’un débit de charges électriques.
Le faisceau électronique dans un tube TV est donc un courant électrique circu-
lant de l’écran vers le filament, les électrons allant en sens inverse, bien sûr.
Le courant électrique est un débit de charges électriques traversant une section
© Dunod – Toute reproduction non autorisée est un délit.
droite d’un conducteur. C’est donc une variation de la charge électrique traversant
une section droite d’un conducteur par unité de temps. On aura donc les rela-
tions :
∆Q
I= : pour la valeur moyenne de l’intensité d’un courant.
∆t
dQ (t )
i (t ) = : pour la valeur instantanée de l’intensité d’un courant.
dt
300 Le livre des techniques du son
électrique que dans un seul sens ; ils donneront naissance aux condensateurs
polarisés qui ont un pôle (+) et un pôle (–) et qui doivent impérativement
être connectés dans le bon sens (par exemple, électrochimiques, tantale).
Comme il a été montré au paragraphe « Différence de potentiel », quand on
applique une d.d.p. aux bornes d’un condensateur plan, il y a apparition d’un
champ électrique entre ses armatures. L’armature positive a perdu des électrons
tandis que l’armature négative en a gagné. Ces deux armatures sont donc, d’après
la loi de Coulomb, soumises à une force mécanique qui tend à compresser le
diélectrique. Le diélectrique doit avoir de bonnes propriétés mécaniques.
Les charges électriques Q portées par chaque armature du condensateur sont
égales en valeur absolue (principe de l’action et de la réaction) mais sont de signes
opposés. Elles seront d’autant plus grandes que le champ, donc la tension U, sera
plus fort. La loi du fonctionnement est :
Q = C × U
avec :
• Q : la charge d’une armature en coulombs.
• U : la tension appliquée aux bornes du condensateur en volts ; c’est elle qui
est responsable de l’apparition des charges +Q et –Q sur les deux arma-
tures du condensateur.
• C : le coefficient de proportionnalité entre la charge Q qu’il acquiert et la
tension U appliquée à ses bornes appelé capacité du condensateur et
exprimé en farads (F).
Le farad est une unité énorme. On utilise souvent ses sous-multiples : le milli-
farad (le millième) (mF), le micro-farad (le millionième) (µF), le nano-farad (le
milliardième) (nF) et le pico-farad (le millionième de millionième) (pF).
On peut faire varier la charge du condensateur en faisant varier la tension à ses
bornes. Une augmentation de cette tension provoquera une augmentation
© Dunod – Toute reproduction non autorisée est un délit.
du (t )
i (t ) = C × = C ×U × 2 × ω × cos ( ω t )
dt
π
i ( t ) = C × ω×U × 2 × sin ωt +
2
i est un courant sinusoïdal d’intensité efficace : I = Cω × U.
Le module Z de l’impédance étant défini par le rapport du module U de la tension
U
par le module I du courant : Z ; on voit que le module de l’impédance d’un
I
1
condensateur est ZC = et que le courant i est en avance de phase de sur la
Cω 2
tension u.
Un autre aspect très intéressant du condensateur est sa faculté de pouvoir stocker
des charges électriques. C’est donc un réservoir d’électricité. Cette quantité d’élec-
tricité Q sera stockée dans un condensateur de capacité C sous une tension U
selon la relation que nous avons déjà vue : Q = C × U. Quand ce condensateur se
déchargera, il fournira un courant sous une tension, donc de la puissance. Cela
revient à dire que le condensateur est un réservoir d’énergie électrique.
1
L’énergie stockée est donnée par la relation : W = × C ×U 2 .
2
✦ Microphone électrostatique à condensateur
L’expression de la capacité C d’un condensateur plan est de la forme :
S
C = ε 0 × εr ×
e
avec :
• ε0 : la permittivité du vide.
• εr : la permittivité relative ; c’est un coefficient qui rend compte de la nature
du diélectrique ; εr = 1 pour l’air.
• S : la surface de chacune des armatures en mètres carrés.
• e : la distance qui sépare les deux armatures (qui est égale à l’épaisseur du
diélectrique) en mètres.
Le fonctionnement d’un microphone électrostatique à condensateur est basé sur
la variation de la capacité d’un condensateur sous l’action d’une onde sonore. Le
condensateur est formé d’une armature avant légère et mobile, qui représente le
diaphragme ou la membrane du microphone, et d’une armature arrière fixe, qui
Chapitre 6 – Notions fondamentales de l’électricité 303
✦ Oxydoréduction
Une pile (un accumulateur) est une source d’électricité qui transforme directe-
ment l’énergie chimique, produite par une réaction chimique d’oxydoréduction,
en une énergie électrique, fournie à un circuit d’utilisation branché entre ses deux
bornes. Les espèces chimiques de départ, appelées réactifs, peuvent être des
atomes, des ions ou des molécules ; la consommation de ses réactifs par la réac-
tion chimique d’oxydoréduction entraîne l’usure de la pile (l’accumulateur). Une
réaction d’oxydoréduction associe une réaction d’oxydation et une réaction de
réduction et met en jeu deux couples oxydant-réducteur ; à chaque oxydant
correspond un réducteur conjugué. Elle s’accompagne du transfert d’un ou de
plusieurs électrons du réducteur du premier couple vers l’oxydant du second
couple. L’oxydant est l’espèce chimique qui subit une réaction de réduction ; il a
tendance à capter un ou plusieurs électrons (gain d’électrons). Le réducteur est
l’espèce chimique qui subit une réaction d’oxydation ; il a tendance à céder un ou
plusieurs électrons (perte d’électrons). Tout électron perdu par le réducteur du
premier couple oxydant-réducteur est automatiquement capté par l’oxydant du
second couple oxydant-réducteur.
Les performances et les conditions d’utilisation d’une pile (d’un accumulateur)
seront déterminées par ces réactions chimiques et, par suite, par les matériaux
constitutifs de celle-ci (celui-ci). Le défi majeur des fabricants de piles (d’accu-
mulateurs) est de trouver des couples oxydant-réducteur donnant des réactions
d’oxydoréduction permettant d’obtenir des piles (des accumulateurs) ayant les
meilleures performances. Ces couples se retrouvent souvent à l’origine du nom de
la technologie utilisée pour la fabrication de la pile (l’accumulateur). Par exemple,
la technologie Ni-Cd est fondée sur le couple nickel-cadmium ou plus précisé-
ment sur des dérivés chimiques de ces deux métaux.
La réaction d’oxydoréduction est plus ou moins réversible. Si on la laisse évoluer
librement, elle fournira de l’électricité ; ce sera la décharge ou le fonctionnement
en pile. Si on la force en sens inverse, ce sera la recharge ou le fonctionnement en
accumulateur. La quantité d’électricité que peut fournir une pile (un accumula-
Chapitre 6 – Notions fondamentales de l’électricité 305
teur) avant que la tension à ses bornes atteigne une valeur minimale, appelée
tension ultime ou tension d’arrêt, dépend de la façon dont elle est construite et de
la manière dont elle est utilisée. On l’appelle la capacité et on l’exprime en ampères-
heures (1 Ah = 3 600 C). Ainsi, une batterie de 48 Ah peut fournir théoriquement
un courant de 1 A pendant 48 h, ou un courant de 2 A pendant 24 h, et ainsi de
suite. Cependant, il est à noter que plus le courant de décharge est important plus
la quantité d’électricité récupérable (donc la capacité) se trouve diminuée. En
prenant pour exemple une pile courante du commerce :
• Capacité : 3,5 Ah
• Puissance maximale : 1 W
• Résistance interne : 0,4 Ω
• Intensité de court-circuit : 3 A
on obtient les courbes de décharge en fonction du régime d’utilisation de la
figure 6.6.
✦ Piles
Une pile est constituée de deux compartiments séparés (demi-piles) et d’une
jonction, qui peut être soit un pont soit une paroi poreuse, qui assure la liaison
entre les deux demi-piles. Chaque compartiment comporte un couple oxydant-
réducteur composé d’une pièce conductrice (électrode) en contact avec une solu-
tion conductrice appropriée (électrolyte).
306 Le livre des techniques du son
que la pile possède une résistance interne qui provoque une chute de tension à
l’intérieur de la pile. La valeur ohmique de la résistance interne d’une pile dépend
de sa technologie de fabrication et de ses constituants chimiques, de sa capacité,
de son état de décharge, de son âge, de sa température, etc.
La capacité énergétique d’une pile dépend de son type, de son régime de décharge
et de sa tension d’arrêt. On désigne par énergie massique d’une pile, l’énergie
qu’elle peut fournir par unité de masse en utilisation « normale ». Elle est forte-
ment diminuée pour un régime de décharge sévère du fait des réactions chimiques
et de la température de la pile.
On trouvera les caractéristiques principales de quelques piles dans le tableau 6.2.
✦ Accumulateurs
Pour les accumulateurs, on définit une notion supplémentaire : le rendement.
L’énergie que peut fournir un accumulateur est inférieure à l’énergie nécessaire
© Dunod – Toute reproduction non autorisée est un délit.
Robuste, l’effet
Cadmium- mémoire impose des
1,2 V 45-80 Wh/kg cycles de décharges
nickel
complètes
Ne supporte pas la
Nickel-métal surcharge, nécessite
1,2 V 900 W/kg 60-110 Wh/kg
hydrure un chargeur spécialisé
Performants, forts
Lithium-Ion 3,7 V 1 500 W/kg 90-180 Wh/kg courants, dangereux à
l’échauffement
Moins performants
Lithium- mais plus robustes que
3,7 V 250 W/kg 100-130 Wh/kg
Polymère les LiPo
On en déduit :
∆W U × I × ∆t
Pmoy = = =U × I
∆t ∆t
✦ Loi de Newton
Les problèmes d’échauffement peuvent être prévus au moyen de la loi de Newton
(figure 6.7) :
Δθ = Rth × P
310 Le livre des techniques du son
D’après la loi de Newton, pour une puissance P et une résistance thermique Rth
données, Δθ est fixe. Il faut que la température de jonction soit la plus faible
possible ; il faut donc que la température de l’air environnant le radiateur soit la
plus basse possible.
Il faudra donc disposer les radiateurs et les appareils de telle sorte que l’air puisse
circuler pour que θf (voir figure 6.7) soit la température de l’air ambiant.
Pratiquement, le doigt est un bon indicateur de température si on se souvient
qu’on ne peut laisser le doigt en contact avec un radiateur lorsque la température
de celui-ci dépasse 50 °C. Pour un système correctement conçu, une température
de radiateur de 50 °C correspond à 90 °C environ au niveau de la jonction, la
température de fusion, donc de destruction d’un composant électronique à base
de silicium étant de 120 °C environ.
aimant excitateur et qui la perd en grande partie dès que l’aimant excitateur est
retiré s’appelle aimant artificiel non permanent ou temporaire.
Les deux extrémités d’un aimant, qui jouissent plus particulièrement de la
propriété de magnétisme, constituent ses deux pôles ; indissociables mais non
identiques, ils sont baptisés pôle Nord et pôle Sud. Lorsqu’on brise un aimant
pour séparer ses deux pôles, chacun des fragments obtenus se comporte comme
un nouvel aimant avec son pôle Nord et son pôle Sud ; ainsi, il est impossible
d’isoler les pôles Nord et Sud d’un aimant en le brisant. Par ailleurs, lorsqu’on
approche les pôles identiques de deux aimants l’un vers l’autre, on constate qu’ils
se repoussent. Lorsqu’on approche les pôles opposés de deux aimants l’un vers
l’autre, on constate qu’ils s’attirent.
✦ Grandeurs magnétiques
✧ Champ magnétique
Les forces magnétiques exercées par un aimant sur toute substance ferromagné-
tique ou sur tout autre objet aimanté agissent à distance. Elles le font par l’inter-
médiaire d’un champ magnétique généré par l’aimant ou par l’objet aimanté. On
appelle champ magnétique créé par un aimant la région de l’espace qui l’entoure et
dans laquelle son action sur toute substance ferromagnétique ou sur tout autre
objet aimanté se manifeste.
La théorie montre que le champ électrique et le champ magnétique font partie de
la même entité : le champ électromagnétique. Le champ électromagnétique se
propage dans l’espace, raison pour laquelle on parle aussi d’onde électromagné-
tique.
Un champ électrique est associé à la présence d’une charge électrique ; à chaque
point de l’espace, le champ électrique a une direction, un sens et une intensité qui
dépend de la distance à la charge. Un champ magnétique est lié au déplacement
de charges électriques, donc par la circulation d’un courant électrique.
© Dunod – Toute reproduction non autorisée est un délit.
✧ Flux circulant
Les notions de champ magnétique et d’excitation magnétique sont physiquement
fondamentales mais très peu pratiques car elles dépendent de la géométrie des
systèmes. Pour s’en affranchir, on définit le flux circulant. C’est essentiellement le
produit scalaire du vecteur champ magnétique par un vecteur représentant la
section du circuit magnétique (voir § 7.1.4). Ce sens est choisi arbitrairement, ce
qui revient à dire qu’il est nécessaire d’orienter les circuits magnétiques avant
d’écrire toute relation.
Dans le cas particulier d’un champ uniforme B à travers une section S qui lui est
orthogonale, on peut écrire : Φ = B × S. Le flux magnétique Φ se chiffre en webers
(Wb).
Conventionnellement, on considère que le flux magnétique circule comme le
champ magnétique. C’est un nombre algébrique représentant la « quantité de
champ magnétique » qui traverse la section du circuit magnétique.
Le champ magnétique a des lignes de champ fermées. Elles constituent des
« tubes de champ ». En effet, le long d’un tube de champ, la valeur du flux circu-
lant est constante. Si on se souvient que les matériaux ferromagnétiques cana-
lisent les lignes de champ, on peut alors affirmer en première approximation que
le flux circulant est constant le long d’un circuit magnétique, et ce, quelle que soit
la forme de ce circuit. Dans les sections fortes, le champ sera faible ; et dans les
sections faibles, le champ sera fort (figure 6.11). Le flux circulant est donc la
notion de base du magnétisme. Il concerne les circuits magnétiques et donc le
« fer ».
Il ne faut surtout pas le confondre avec le flux total ou le flux embrassé qui est une
notion intéressant les bobinages et donc le « cuivre ».
Chapitre 6 – Notions fondamentales de l’électricité 317
✧ Coefficient d’auto-induction
Si un circuit magnétique comporte un bobinage de N spires, chaque spire du
bobinage sera traversée par le flux circulant ΦC, vu précédemment. Le flux total
ΦT qui traverse le bobinage de N spires est donc : ΦT = N × ΦC.
Selon les auteurs, ΦT s’appelle flux total, flux embrassé, flux du bobinage et parfois
tout simplement, flux. Pour augmenter encore les risques de confusion, l’unité
pour le flux total est également le weber.
C’est le flux total ΦT qui permet de définir le coefficient d’auto-induction L du
bobinage par la relation :
ΦT = L × I
avec :
• ΦT : le flux embrassé par le bobinage exprimé en webers (N × ΦC).
• L : le coefficient d’auto-induction, l’inductivité, la self, l’inductance ou la
self-inductance du bobinage, exprimé en henrys (H).
• I : l’intensité du courant électrique circulant dans le bobinage exprimée en
ampères.
© Dunod – Toute reproduction non autorisée est un délit.
✧ Fil rectiligne
Un courant électrique I qui circule dans un fil rectiligne de longueur infinie,
crée, en un point de l’espace situé à une distance r du fil, un champ magnétique
B dont :
318 Le livre des techniques du son
✧ Bobine. Solénoïde
Une bobine est un enroulement régulier en hélice d’un fil conducteur recouvert
d’un isolant (vernis, émail) autour d’un support cylindrique de longueur L et de
rayon r. Chaque tour de fil s’appelle conducteur circulaire, boucle ou spire. L’espace
intérieur du support peut être vide (bobine à air) ou contenir un matériau ferro-
magnétique (bobine à noyau ou bobine à circuit magnétique).
Lorsque les N spires constituant l’enroulement sont jointives et uniformément
réparties sur un support dont la longueur L est inférieure au rayon r, on parle de
bobine plate. Lorsque la longueur L du support est du même ordre que son rayon
r, on parle de solénoïde. Lorsque la longueur L du support est très grande devant
son rayon r, on parle de solénoïde long. Le rapport entre le nombre N de spires
Chapitre 6 – Notions fondamentales de l’électricité 319
✧ Électro-aimant
Un électro-aimant joue le rôle d’un aimant dont on peut contrôler les caractéris-
tiques (intensité, sens) par l’intensité et le sens du courant électrique qui le
traverse, par le nombre de spires que contient son bobinage et par les caractéris-
tiques de son circuit magnétique (nature de ses matériaux, forme). Par rapport à
un aimant permanent, un électro-aimant rend possible l’inversion à volonté des
© Dunod – Toute reproduction non autorisée est un délit.
commun, pas même la masse, entre les parties opérative (contacts du relais) et
commande (bobine de l’électro-aimant).
Le relais électromagnétique est constitué d’un électro-aimant, d’une palette arti-
culée (un levier) placée au-dessus de l’électro-aimant, d’un ressort de rappel fixé
sur la palette articulée et d’un jeu de contacts. Lorsque l’électro-aimant est traversé
par un courant électrique, le champ magnétique engendré attire la palette arti-
culée et ferme le contact. Lorsque l’électro-aimant n’est traversé par aucun
courant, la palette articulée n’est pas attirée par l’électro-aimant et reste levée
grâce au ressort de rappel ; le contact est ouvert.
✧ Tête magnétique
Une bande magnétique est constituée d’un ruban souple en matériau non magné-
tique, tel que le plastique (polyester), recouvert d’une couche en matériau magné-
tique renfermant des microcristaux d’oxyde de fer ou d’oxyde de chrome (voir
§ 7.4.3). Une tête magnétique est un simple électro-aimant dont le rôle est de
transformer un courant électrique en un champ magnétique qui sera inscrit sur
la bande (pour l’enregistrement) et réciproquement de transformer le champ
magnétique rayonné par la bande en une tension électrique (pour la lecture)
(figure 6.13).
Cet électro-aimant est composé d’un noyau torique autour duquel est enroulée
une bobine. Parcourue par le courant d’excitation, qui correspond au signal élec-
trique à enregistrer, la bobine génère un champ magnétique dont l’intensité est
proportionnelle au courant d’excitation et dont les lignes de champ sont canali-
sées par le noyau. Pour permettre aux lignes de champ de s’échapper du noyau,
celui-ci a été percé d’une fente ayant une certaine largeur appelée entrefer. Les
lignes de champ se développent dans et autour de l’entrefer. L’entrefer, présentant
une perméabilité magnétique très inférieure à celle du noyau, confère la réluc-
Chapitre 6 – Notions fondamentales de l’électricité 321
tance la plus élevée au passage des lignes de champ. Lorsqu’on fait défiler la bande
à une certaine vitesse devant l’entrefer, les lignes de champ se referment plus
volontiers à travers la couche magnétique qui recouvre la bande et qui est magné-
tiquement plus perméable et ainsi aimantent les microcristaux d’oxyde que
celle-ci contient. Les microcristaux aimantés conservent leur état d’aimantation
après la suppression du courant d’excitation. Pour la lecture, lorsque la bande
défile à une certaine vitesse devant la tête magnétique, les lignes de champ sortent
de la bande, pénètrent dans l’entrefer de la tête magnétique et induisent des
tensions aux bornes de la bobine.
Pour obtenir les équations de fonctionnement, nous suivrons la méthode d’étude
des circuits magnétiques à entrefer.
(a) On définit la réluctance du circuit magnétique.
Une bobine, comportant N spires enroulées autour d’un matériau magnétique
de perméabilité µ = µ0 × µr, parcourue par un courant électrique d’intensité I,
engendre un champ magnétique B qui se répand dans tout l’espace qui l’entoure.
Les lignes de champ à travers la section S sont à l’origine d’un flux magnétique
ΦC. La bobine crée une force magnétomotrice (f.m.m.) F qui force le flux magné-
tique ΦC à circuler dans le circuit magnétique. C’est l’analogue d’une force élec-
tromotrice U qui fait circuler un flux d’électrons (c’est-à-dire un courant
électrique d’intensité I) dans le circuit électrique (voir tableau 6.4). La force
magnétomotrice F produite est reliée à l’intensité I du courant qui circule dans la
bobine et au nombre N de spires de la bobine par la relation : F = N × I. L’inten-
sité de l’excitation magnétique dans le noyau est donnée par la loi d’Ampère :
N × I = H × l dans laquelle l désigne le parcours moyen du flux dans le matériau
magnétique et S la section de ce dernier. Le flux magnétique circulant dans le
circuit magnétique est égal à :
N ×I
ΦC = B × S = µ × H × S = µ ×
(N ×I ) = F
×S =
l 1 l R
µ×S
© Dunod – Toute reproduction non autorisée est un délit.
1 l
R = × s’appelle la réluctance du circuit magnétique. Elle caractérise la « résis-
µ S
tance » qu’oppose le circuit magnétique à la circulation du flux magnétique. Elle
s’exprime en A×tr/Wb ou en A/V×s.
Le tableau 6.4 montre l’analogie entre les grandeurs et les équations qui régissent
un circuit électrique et les grandeurs et les équations qui régissent un circuit
magnétique. Il faut remarquer qu’il ne s’agit que d’une analogie des grandeurs et
des équations. En effet, la conductivité électrique est constante alors que la
322 Le livre des techniques du son
perméabilité magnétique ne l’est pas pour les matériaux usuels. De plus, il n’existe
pas d’isolant magnétique comme il existe des isolants électriques.
Conductivité : σ Perméabilité : µ
Résistance : R Réluctance : R
R = ρ × l =1 × l R =1 × l
S σ S µ S
1 l 1 l 1 l fer
R = × fer + × air ⇒ R = × + lair
µ 0µ r S µ 0 S µ 0S µr
On remarquera que 1 mm d’air représente la même réluctance que 80 cm de fer si
la perméabilité relative du fer est de 800. C’est, entre autres, pour cette raison que
l’on s’efforce d’avoir des entrefers les plus petits possible.
(b) On utilise la loi d’Hopkinson :
F = N × I = R × ΦC
Chapitre 6 – Notions fondamentales de l’électricité 323
Le flux créé dépend du courant et non pas de la tension. En toute rigueur, une tête
magnétique doit donc être attaquée en courant pour transcrire un signal sur une
bande magnétique.
N ×I N
2
Φ
On en tire : T = N × Φ C = N × = × I = L× I .
R R
(c) On peut en déduire la relation entre la réluctance R et la self L (coefficient
d’auto-induction) d’un dispositif :
N2
L
R
(d) On peut en déduire le champ magnétique B dans l’entrefer :
ΦC L × I N × I
B= = =
S N ×S R ×S
✦ Loi de Faraday-Lenz
✧ Énoncé
Comme nous l’avons déjà vu, un bobinage embrasse un certain flux appelé flux
total ΦT et valant N fois le flux circulant ΦC, où N est le nombre de spires du bobi-
nage.
Si le flux embrassé ΦT est constant, il n’y a aucune réaction électrique du bobi-
nage.
La f.é.m. induite à ses bornes est nulle en supposant nulle la résistance de bobi-
nage.
Si ΦT varie, alors le bobinage essaie de s’opposer à cette variation de flux. Si ΦT
diminue, il essaie de créer un flux additionnel de même sens que ΦT. Si ΦT
augmente, il essaie de créer un flux additionnel de sens contraire à ΦT.
Le bobinage essaie de créer ce flux additionnel en produisant une f.é.m. e(t) à ses
bornes. Si le circuit électrique le permet, cette f.é.m. crée un courant qui fournira
© Dunod – Toute reproduction non autorisée est un délit.
La loi de Faraday dit que la f.é.m. induite dans un bobinage fermé placé dans un
champ magnétique, appelé champ magnétique inducteur, est proportionnelle à la
variation au cours du temps du flux du champ magnétique qui entre dans le circuit.
La f.é.m. induite fait apparaître dans le circuit un courant induit. Le courant
induit crée son propre champ magnétique, appelé champ magnétique induit. Le
flux du champ magnétique induit s’oppose à la variation du flux du champ magné-
tique inducteur : c’est la loi de Lenz.
Alors que la loi de Faraday permet de déterminer la valeur de la f.é.m. induite, la
loi de Lenz, qui correspond au signe (–), permet de déterminer sa polarité.
✧ Auto-induction
Tout circuit, et en particulier un bobinage, présente une self L (coefficient d’auto-
induction).
Comme nous l’avons déjà vu, le flux magnétique total est donné par la relation :
ΦT(t) = L × i(t)
La self (coefficient d’auto-induction) est donc définie comme le coefficient de
proportionnalité entre le flux embrassé par le bobinage et le courant qui le
traverse. Si le courant est variable, alors le flux est également variable. Ainsi, pour
un courant quelconque : ΦT(t) = L × i(t).
Un raisonnement qualitatif, comme au paragraphe précédent (figure 6.14),
montre que si le bobinage est repéré en convention récepteur, une augmenta-
Chapitre 6 – Notions fondamentales de l’électricité 325
tion de courant crée une tension positive. D’où la loi tension/courant pour
une self :
d i (t )
u (t ) = L ×
dt
Si le courant i est alternatif sinusoïdal d’intensité efficace I de pulsation ω = 2πf et
de fréquence f :
i ( t ) = I × 2 × sin ( ωt )
Φ ( t ) = L × i ( t ) = L × I × 2 × sin ( ωt )
d i (t )
u (t ) = L × = L × I × 2 × ω × cos ( ω t )
dt
π
u ( t ) = L × ω× I × 2 × sin ωt +
2
u est une tension sinusoïdale de valeur efficace U = Lω × I. On notera que le
module de l’impédance d’une self est ZL = Lω et que le courant i(t) est en retard de
phase de par rapport à la tension u(t).
2
✧ Cellules magnétiques
Ici aussi, on a affaire à un circuit magnétique muni d’un bobinage. Le circuit
magnétique peut être un aimant (cellule de platine de tourne-disque, par
exemple) ou non (tête de magnétoscope, par exemple). La bobine peut être fixe
(tête de magnétophone, par exemple) ou mobile (microphone, par exemple).
Quel que soit le système technologique employé, le but est toujours de faire varier
le flux embrassé par le solénoïde (figure 6.15).
© Dunod – Toute reproduction non autorisée est un délit.
Si le bobinage est soumis à un flux variable, la loi de Lenz montre qu’il y aura
création d’une tension à ses bornes.
326 Le livre des techniques du son
Si ΦT ( t ) = ΦT × 2 × sin ( ωt )
dΦT (t )
alors u (t ) = = ΦT × 2 × ω × cos ( ω t )
dt
π
u ( t ) = ΦT × ω× 2 × sin ωt +
2
π
u ( t ) = ΦT × 2 × π × f × 2 × sin ωt +
2
Z1 U 1 U 1 I 2 1 N1
I1 I1 m
C’est pour cela que les transformateurs lignes (ou écran) sont libellés en rapport
d’impédances (figure 6.16).
U1 U2 mU1 U2
1200
m 2 1, 4
600
Si le primaire de ce transformateur est alimenté par un microphone d’impédance
interne 200 Ω et délivrant une tension de 2 mV, le circuit électronique, placé après
le secondaire du transformateur, « voit » un microphone d’impédance externe
400 Ω et délivrant une tension de 2,8 mV.
Interrupteur électronique
Dans l’exemple suivant, la source d’énergie U1 alimente la charge via un interrup-
teur K (figure 6.17). Pour calculer la puissance perdue au niveau de l’interrupteur,
328 Le livre des techniques du son
IK K
UK
U2
U1
En faisant le bilan de puissance, il est facile de voir que la puissance perdue est
toujours nulle (théoriquement). Ainsi, la totalité de la puissance fournie par la
source est transmise à la charge, quasiment sans pertes, et le rendement est très
proche de l’unité. Ceci est très appréciable lorsque la source est une pile ou une
batterie électrique.
On appelle fréquence de hachage la cadence d’ouverture et de fermeture de l’inter-
rupteur. L’interrupteur étant électronique, par exemple un transistor, il n’y a pas
de limitations hautes pour la fréquence de hachage autres que celles imposées par
le transistor. Ainsi, ces fréquences sont couramment de l’ordre de quelques
dizaines de kilohertz (10 kHz-50 kHz typiquement).
Inductance magnétisante
Le montage précédent présente l’inconvénient majeur d’imposer au récepteur
une tension hachée qui est généralement incompatible avec le fonctionnement
des modules électroniques. On introduit dans le système une inductance afin de
supporter ce hachage et un condensateur pour lisser la tension. Il existe un
ensemble de façons de faire et on se reportera à un ouvrage spécialisé pour plus
d’informations [9]. L’exemple suivant est fondé sur une structure de hacheur
série (convertisseur Buck en anglais, figure 6.18) :
Chapitre 6 – Notions fondamentales de l’électricité 329
U1 C U2
On montre que U2 = × U1. On peut donc régler la tension aux bornes du récep-
teur avec un rendement excellent.
On montre également que l’ondulation du courant vaut :
U1 −U 2 U U1
∆I L = × α ×T = α × (1 − α ) × 1 ≤
L L× f 4× L× f
© Dunod – Toute reproduction non autorisée est un délit.
✦ Loi de Laplace
constitué d’un cylindre, situé entre les pièces polaires de l’inducteur, qui porte le
long de ses génératrices N conducteurs logés dans N rainures appelées encoches.
Les N conducteurs sont reliés deux à deux pour former N/2 spires. Les deux
conducteurs (C1 et C2) de chaque spire sont disposés de telle sorte qu’ils soient
droits, longitudinaux et diamétralement opposés. Les deux extrémités de chaque
spire sont soudées à deux lames conductrices diamétralement opposées du
collecteur (L1 et L2). Les deux lames conductrices tournantes (L1 et L2) du collec-
teur sont raccordées au circuit électrique extérieur de l’induit au moyen de deux
contacts portés par le stator et diamétralement opposés appelés charbons ou
balais (B1 et B2). Les deux balais fixes (B1 et B2) établissent deux contacts glissants
avec les deux lames conductrices tournantes (L1 et L2) du collecteur grâce à un
système à ressort. En réalité, le collecteur d’une machine à courant continu dont
l’induit est formé de N conducteurs est composé d’un cylindre solidaire de l’arbre
de rotation de la machine qui comporte à sa périphérie une couronne N de lames
conductrices séparées les unes des autres par des lames isolantes.
En fonctionnement moteur, les spires de l’induit génèrent un champ magnétique
appelé champ induit ou champ rotorique ; pour cela, elles sont alimentées, grâce
au système balais-collecteur, par un courant continu, appelé courant d’alimenta-
tion du moteur provenant de son circuit électrique extérieur. Les deux conduc-
teurs actifs (C1 et C2) de chaque spire, placés dans le champ magnétique statorique
et parcourus par un courant continu de même intensité mais dans deux sens
opposés, sont soumis à deux forces électromagnétiques de Laplace (F1 et F2) de
même intensité mais de sens opposés. Ces deux forces forment un couple de
forces qui entraîne la rotation de la spire et par conséquent celle de l’induit.
Lorsque les deux lames conductrices tournantes (L1 et L2) du collecteur (C), qui
relient les deux conducteurs actifs (C1 et C2) de la spire aux deux balais (B1 et B2),
traversent la ligne neutre, la lame conductrice L1 se trouve en contact avec le
balais B2 et la lame conductrice L2 se trouve en contact avec le balais B1 ; le sens de
circulation du courant continu dans les deux conducteurs actifs (C1 et C2) s’in-
verse ; le sens des forces auxquelles ils sont soumis s’inverse en même temps. La
rotation de la spire et par conséquent celle de l’induit se poursuit. Il en est de
même pour tous les ensembles de conducteurs diamétralement opposés qui
constituent l’induit de la machine à courant continu. La somme de tous les
moments de ces couples de forces constitue le moment du couple électromagné-
tique.
Quand on fait circuler un courant électrique dans les conducteurs rotoriques,
tout se passe comme s’ils étaient soumis à des forces de Laplace (le phénomène
physique est différent, on se reportera à un ouvrage spécialisé pour une descrip-
tion exacte du phénomène). L’ensemble de ces forces tend à mettre le rotor en
mouvement et le couple est de la forme :
Chapitre 6 – Notions fondamentales de l’électricité 333
T = K × Φp × I
avec :
• T : le moment du couple électromagnétique en newtons × mètres ;
• K : la constante qui dépend de la construction de la machine ;
• Φp : le flux sous un pôle en webers ;
• I : le courant dans l’induit de la machine en ampères.
À flux Φp constant, le moment du couple électromagnétique T est ajustable par un
contrôle du courant dans l’induit I, opération aisée avec les hacheurs ou les
redresseurs.
Par ailleurs, dès que l’induit se met à tourner un autre phénomène se manifeste :
c’est l’effet de fonctionnement en génératrice (dynamo) d’une machine à courant
continu. On considère une spire de l’induit, constituée de deux conducteurs
diamétralement opposés, mise en rotation dans une région où règne le champ
magnétique statorique. Elle sera soumise d’après la loi de Faraday-Lenz à une
force contre-électromotrice u = –dΦ(t)/dt qui va tenter de s’opposer au mouve-
ment de rotation de la spire. La tension induite est alternative. On démontre qu’en
connectant les deux extrémités de la spire à deux lames conductrices du collec-
teur, on obtient aux bornes des deux balais avec lesquels elles sont en contact une
tension pratiquement constante dont la valeur moyenne est proportionnelle à la
vitesse de rotation Ω de la spire et au flux Φp créé par l’inducteur sous un pôle.
Le moteur à courant continu, quand il tourne, crée une force contre-électromotrice
E qui s’oppose à la tension qu’on lui applique. Cette f.c.é.m. est de la forme :
U = K × Ω × Φp
avec :
• U : la force contre-électromotrice en volts.
• K : la constante qui dépend de la construction de la machine (la même que
© Dunod – Toute reproduction non autorisée est un délit.
pour le couple).
• Ω : la vitesse de rotation en radians par seconde (dite aussi pulsation de
rotation).
• Φp : le flux sous un pôle en webers.
En résumé :
• Doubler le courant (et non pas la tension) revient à doubler le couple d’un
moteur.
334 Le livre des techniques du son
✧ Machine synchrone
Une machine synchrone est un convertisseur électromécanique réversible. Elle
peut transformer l’énergie électrique qu’elle reçoit d’un réseau en énergie méca-
nique ; dans ce cas on l’appelle moteur synchrone. Mais elle peut aussi convertir
l’énergie mécanique fournie par une turbine (centrale électrique) ou un moteur
Diesel (groupe électrogène) en énergie électrique ; dans ce cas, on la nomme
génératrice synchrone (alternateur). La machine synchrone est composée d’un
inducteur (celui qui crée le champ magnétique) et d’un induit (celui qui subit les
courants « induits ») séparés par un entrefer. En première approximation, une
machine synchrone a la structure inversée d’une machine à courant continu.
L’inducteur est la partie tournante de la machine synchrone : c’est le rotor. L’in-
duit est la partie statique de la machine synchrone : c’est le stator. Une machine
synchrone présente p paires de pôles au rotor ainsi qu’au stator. En effet, comme
un enroulement se comporte comme un aimant et comme un aimant possède
deux pôles, un pôle Nord et un pôle Sud, c’est-à-dire une paire de pôles (p = 1), on
caractérise le bobinage du stator et du rotor d’une machine synchrone non par
son nombre de pôles mais par son nombre p de paires de pôles : si p = 1 on aura 2
pôles, si p = 2 on aura 4 pôles, etc.
Le stator d’une machine synchrone triphasée comporte trois enroulements iden-
tiques décalés de 120° (2π/3) les uns par rapport aux autres. L’ensemble de ces
enroulements constitue le bobinage statorique. Les conducteurs de ces enroule-
ments sont logés dans des encoches situées à la périphérie du stator. Chacun des
trois enroulements du stator est constitué d’une ou de plusieurs bobines dont
l’organisation définit le nombre de paires de pôles. Lorsque les enroulements du
stator sont alimentés par un réseau triphasé, ils créent en son centre un champ
magnétique tournant BS , nommé champ statorique, à une vitesse de rotation
Chapitre 6 – Notions fondamentales de l’électricité 335
pour les plus gros ; c’est l’inducteur. Le stator, l’induit, est constitué de bobinages
parcourus par des courants variables, engendrant un champ magnétique dont on
peut faire varier la direction (figure 6.21). C’est un champ tournant ou glissant
(selon les auteurs).
Le stator et le rotor créent respectivement
un champ magnétique statorique BS
et un champ magnétique rotorique BR . Un couple mécanique sera créé et sera de
la forme :
C = k × BR × Bs × sin
336 Le livre des techniques du son
On aura le couple maximal pour a = cste = et un couple nul pour = cste = 0.
2
Il est donc clair que le système évoluera de telle sorte que a soit constant. C’est
donc la fréquence des courants statoriques qui fixe la vitesse de rotation de la
machine et non pas comme pour le moteur à courant continu, la tension.
Les moteurs synchrones sont utilisés à chaque fois que l’on veut une vitesse parfai-
tement constante et indépendante des conditions extérieures de fonctionnement.
Ces moteurs sont pilotés par des oscillateurs dont on peut ajuster la fréquence en
fonction des besoins.
On les trouve comme moteur de cabestan de magnétophone et comme moteur
d’entraînement en particulier dans les lecteurs optiques (CD par exemple) ; ce
type de moteur a largement pris le pas sur le moteur à courant continu.
La figure 6.22 montre la réalisation d’un lecteur de disque où la machine est extra-
plate. Le rotor est constitué d’un anneau de ferrite constituant l’aimant perma-
nent. Le stator est constitué d’un ensemble de bobines. L’oscillateur crée une
séquence permettant de faire glisser l’aimantation de pôle en pôle, que le pôle de
ferrite du rotor suivra. Un autre avantage de ce genre de réalisation est le fait que
le rotor est large, constituant ainsi un volant d’inertie suffisant pour lisser les
ondulations de vitesse et obtenir un mouvement suffisamment uniforme.
Chapitre 6 – Notions fondamentales de l’électricité 337
vitesse de synchronisme.
On peut remarquer que si on fait circuler un courant continu dans les bobinages
rotoriques d’un moteur asynchrone, celui-ci devient un moteur synchrone. Quand
un moteur peut démarrer comme un asynchrone et ensuite annuler sa fréquence
de courants rotoriques, on a affaire à un moteur asynchrone synchronisé.
338 Le livre des techniques du son
✦ Bruits d’influence
On entend par bruits d’influence tous les signaux indésirables qui sont transmis
par d’autres appareils. Leur mode de transmission permet un classement grossier
de leur nature et des remèdes à apporter pour les combattre.
Les vibrations mécaniques seront combattues de préférence à leur source d’émis-
sion par des systèmes anti-vibratiles (socle de groupe électrogène, dalle flottante
de studio pour combattre les vibrations du bâtiment, etc.).
Les vibrations acoustiques seront combattues, quand cela est nécessaire, au
niveau de l’appareil à isoler.
Chapitre 6 – Notions fondamentales de l’électricité 339
✦ Défauts de construction
Ils peuvent être réduits au strict minimum par le choix d’organes de première
qualité et par un contrôle mécanique et électrique méticuleux à la fabrication.
Une amplification élevée exagère l’influence des défauts localisés dans les circuits
d’entrée qui doivent être étudiés et réalisés avec un soin tout particulier.
Actuellement, le problème est bien résolu au niveau de l’appareil. Il n’en est pas de
même pour une installation complète comme une machine ou un studio. Il n’est
pas toujours aisé de concilier les besoins techniques et les performances souhai-
tées. Un soin tout particulier devra être apporté à l’installation et à la disposition
des appareils ainsi qu’à leurs interconnexions.
✦ Bruits intrinsèques
Ils prennent naissance directement dans les circuits électriques constituant l’ap-
pareil.
On ne peut pas les combattre comme les précédents par de bons blindages ou de
bons découplages. Ceux-là sont inhérents à la structure des circuits et aux compo-
© Dunod – Toute reproduction non autorisée est un délit.
sants utilisés. Nous allons passer en revue ces principaux types de bruits.
✧ Bruit thermique
On le connaît également sous le nom de bruit de Johnson.
Les mouvements désordonnés des électrons qui se superposent de façon aléa-
toire à leur mouvement d’ensemble dans les conducteurs, créent des fluctuations
de forces électromotrices aux bornes des résistances.
340 Le livre des techniques du son
✧ Bruit rose
Il s’agit d’un bruit qui a été défini pour les besoins de la métrologie. Son origine
physique est le bruit de Flicker ou de scintillation. Il est provoqué par des modifi-
cations transitoires des états de diffusion de surface dans les transistors et les
circuits intégrés.
Physiologiquement, le bruit rose est régulier tandis que le bruit de Flicker est
perçu comme une suite de « plops ». Ce n’est pas un bruit blanc car sa densité
spectrale varie comme l’inverse de la fréquence (1/f). Ce bruit sera très fort aux
fréquences basses. Il est très difficile de réduire ce bruit si ce n’est par une connais-
sance très fine des phénomènes de surface dans les semi-conducteurs. Les progrès
technologiques de ces dernières années ont permis d’abaisser considérablement
le niveau de ce type de bruit.
✧ Bruit grenaille
Le bruit de Schottky est dû à la circulation des électrons sous forme de paquets
aléatoires en nombre et en position. Microscopiquement, la circulation des élec-
Chapitre 6 – Notions fondamentales de l’électricité 341
trons n’est pas régulière et uniforme. La chute aléatoire des gouttes de pluie sur un
toit donne une bonne image de cette circulation des électrons par paquets.
Le bruit de Johnson est représenté par une f.é.m. ; le bruit de Schottky sera repré-
senté par un courant. La valeur quadratique moyenne de ce courant sera donnée
par :
i2 = 2 × q × I0 × Δf
avec :
• q = 1,6 × 10–19 C : charge de l’électron ;
• I0 : courant moyen en ampères ;
• Δf : bande fréquence considérée.
Sa densité spectrale est constante. C’est donc un bruit blanc. Ce bruit est d’autant
plus fort que le courant est fort.
6.2.1 Électrocinétique
L’objet de l’électrocinétique est d’étudier les comportements des circuits élec-
triques et électroniques en courant continu et en courant alternatif.
bornes.
L’électrocinétique manipule des grandeurs algébriques. Pour tenir compte du
signe, il est essentiel de faire attention à l’orientation des conducteurs. C’est cette
orientation qui permet de donner un signe correct aux courants et aux tensions.
✦ Système d’unités
Les systèmes d’unités utilisés en électrocinétique reposent sur deux relations :
• la loi d’Ohm : U = R × I ;
• la loi de Joule : P = U × I.
Pour exprimer ces deux relations, on peut se servir :
• du système international : volt, ampère, ohm, watt ;
• du système dit « des électroniciens » : volt, milliampère, kilo-ohm,
milliwatt.
On peut remarquer que :
1 V = 1 Ω × 1 A = 1 kΩ × 1 mA
D’autre part, pour les puissances :
1 W = 1 V × 1 A et 1 mW = 1 V × 1 mA
Des remarques de même type sont vérifiées pour toutes les relations qui découlent
des deux précédentes. En particulier, pour une résistance :
U2
P =U × I = R× I 2 =
R
Chapitre 6 – Notions fondamentales de l’électricité 343
U0
U0
Générateur de Thévenin U0
© Dunod – Toute reproduction non autorisée est un délit.
Générateur de Norton
La valeur du générateur de Thévenin (U0) est la tension à vide aux deux bornes du
dipôle. On l’obtient très simplement par un essai à vide (courant de sortie nul) du
dipôle. U0 est aussi appelé force électromotrice (f.é.m.) du dipôle. La valeur du
générateur de Norton (I0) est le courant de court-circuit du dipôle. On peut l’ob-
tenir par un essai en court-circuit quand celui-ci est possible.
La résistance R0, dite résistance de Thévenin ou encore résistance interne, pourra
U
se calculer à partir de la relation : R0 0 .
I0
U0
U0
U0
On peut donc, à l’aide de ces deux modèles, donner des schémas équivalents simples
de dispositifs sans se préoccuper de leur structure interne. Ainsi, une batterie au
nickel-cadmium 9 V/4 Ω pourra être représentée indifféremment par un généra-
teur de Thévenin de 9 V mis en série avec une résistance de 4 Ω ou bien par un
générateur de Norton de 9/4 = 2,25 A mis en parallèle avec une résistance de 4 Ω.
✦ Théorèmes de l’électrocinétique
Dans ce paragraphe, nous nous bornerons à rappeler rapidement les principaux
théorèmes de l’électrocinétique. Nous conseillons au lecteur de se reporter à un
ouvrage plus spécialisé pour une description plus complète de ces théorèmes.
Chapitre 6 – Notions fondamentales de l’électricité 345
✧ Résistances. Association
• La résistance électrique est une grandeur arithmétique (toujours positive).
Elle est symbolisée par la lettre R. Son unité est l’ohm (Ω). L’inverse d’une
résistance s’appelle la conductance. Elle est symbolisée par la lettre G. Son
unité est le siemens (S).
• Des résistances associées en série sont toutes parcourues par le même
courant. La résistance RS équivalente à la mise en série de plusieurs résis-
tances R1, R2, R3… est la somme de ces résistances :
RS = R1 + R2 + R3 + …
• Des résistances associées en parallèle sont soumises à la même tension. La
résistance RP équivalente à la mise en parallèle de plusieurs résistances
R1, R2, R3… peut être déterminée à partir de la conductance équivalente
GP = 1/RP qui est égale à la somme des conductances G1 = 1/R1, G2 = 1/R2,
G3 = 1/R3…
GP = G1 + G2 + G3 + …
1/RP = 1/R1 + 1/R2 + 1/R3 + …
Les électroniciens ont défini, par commodité, l’opérateur ⊕ correspondant à la
mise en série de deux résistances et l’opérateur || correspondant à la mise en
parallèle de deux résistances :
RS = R1 ⊕ R2 = R1 + R2
R1 × R2
RP = R1 || R2 =
R1 + R2
Ces deux relations montrent que la valeur ohmique de la résistance équivalente à
deux résistances mises en série est voisine de celle qui a la valeur ohmique la plus
grande et que la valeur ohmique de la résistance équivalente à deux résistances
mises en parallèle est voisine de celle qui a la valeur ohmique la plus petite. Par
ailleurs, ces deux relations montrent que lorsque R1 = R2 = R, on aura : RS = 2 × R
© Dunod – Toute reproduction non autorisée est un délit.
et RP = R/2.
✧ Lois de Kirchhoff
✧ Théorème de superposition
Le théorème de superposition permet de déterminer facilement le courant qui
circule dans une branche et/ou la tension à ses bornes lorsque ceux-ci font partie
d’un circuit linéaire comportant plusieurs sources de tension et/ou de courant.
Dans un circuit linéaire comportant plusieurs sources de tension et/ou de courant,
le courant circulant dans une branche est égal à la somme algébrique des courants
circulant dans celle-ci, calculés en éteignant successivement toutes les sources
sauf une.
Dans un circuit linéaire comportant plusieurs sources de tension et/ou de courant,
la tension aux bornes d’une branche est égale à la somme algébrique des tensions
aux bornes de celle-ci, calculées en éteignant successivement toutes les sources
sauf une. Pour éteindre une source, il suffit de la remplacer par sa résistance
interne :
• un court-circuit (un fil) pour une source de tension parfaite ;
• un circuit ouvert pour une source de courant parfaite.
✧ Théorème de Millman
Le théorème de Millman permet de déterminer facilement le potentiel d’un nœud
quelconque d’un circuit linéaire constitué de n branches parallèles comprenant
chacune un générateur de tension parfait Ei en série avec une résistance Ri ; les
potentiels des extrémités des branches sont tous définis par rapport au même
potentiel de référence. Le théorème de Millman dit que le potentiel au nœud
auquel aboutissent n branches est la moyenne des tensions de tous les dipôles
pondérées par les conductances respectives, le tout divisé par la somme des
conductances (figure 6.26). Lors de la mise en œuvre du théorème de Millman, il
ne faut pas oublier de faire figurer au dénominateur les conductances des branches
dont le potentiel de l’extrémité est nul.
Chapitre 6 – Notions fondamentales de l’électricité 347
U1 U2 Un
U1 U2 Un
✦ Diviseur de tension
On le rencontre fréquemment dans les circuits électroniques, mais on le trouve
sous les noms les plus divers (atténuateur potentiométrique, fader, etc.).
Nous allons traiter ce dispositif courant avec plus de détails pour illustrer les
notions précédentes. Le schéma est celui de la figure 6.27.
• U1 = R1 × I ;
• U2 = R2 × I ;
• U = (R1 + R2) × I.
U2 R2 × I R2
= ⇒U2 = ×U
U ( R1 + R2 ) × I R1 + R2
348 Le livre des techniques du son
U0 U0
UT IT
R2
UT = ×U 0
R1 + R2
U0
IT
R1
(c) Résistance de Thévenin : on l’obtiendra par la relation :
U T R1 × R2
RT = = = R1 || R2
IT R1 + R2
RT
UT
UT U0
UT U0
IT
RT R1
✦ Théorème de superposition
L’étude directe des signaux électriques de forme quelconque mais périodiques
est difficile, et parfois peu adaptée aux besoins que l’on a en électronique et en
métrologie. L’analyse de Fourier montre qu’un signal périodique quelconque
peut être considéré comme étant la superposition d’un grand nombre de signaux
sinusoïdaux purs de fréquences différentes (voir § 1.4.6). De plus, on sait que tous
ces signaux sinusoïdaux vont se propager pour leur propre compte (c’est-à-dire
indépendamment les uns des autres) dans un circuit électrique linéaire (voir les
modèles de Thévenin et de Norton). Ces considérations forment ce que l’on
appelle le théorème de superposition.
On étudiera donc les circuits pour les signaux sinusoïdaux, et ce, à toutes les
fréquences. On pourra ainsi prédire le comportement des circuits pour les graves,
pour les aiguës, etc.
✦ Signal sinusoïdal
L’expression d’un signal sinusoïdal u(t) est la forme :
© Dunod – Toute reproduction non autorisée est un délit.
u ( t ) = U × 2 × sin ( ωt + ϕ )
avec :
• u(t) : la valeur instantanée ou l’expression temporelle ;
• U 2 : l’amplitude ou la valeur crête ;
• U : la valeur efficace ;
• 2 U 2 : la valeur crête à crête ;
350 Le livre des techniques du son
u(t)
Le signal commence par augmenter, puis passe par un maximum pour une phase
de π/2, diminue jusqu’à s’annuler pour une phase de π, s’inverse et augmente dans
les valeurs négatives jusqu’à son maximum pour une phase de 3π/2, revient à
zéro, s’annule pour une phase de 2π, s’inverse et recommence.
Le décalage de phase entre le repérage en temps et le repérage en phase donne la
phase initiale du signal.
Pendant une période, la quantité de signal positif sera égale à la quantité de signal
négatif. La valeur moyenne sera nulle : on dira qu’il n’y a pas de composante
continue, soit, en anglais, qu’il n’y a pas d’offset. Étant donc toujours nulle, la
valeur moyenne est insuffisante pour décrire un signal sinusoïdal, on fait alors
appel à la valeur efficace aussi connue sous le nom de valeur RMS (Root Mean
Square, soit racine carrée de la valeur moyenne du carré) :
1 T 2
× u ( t ) × dt
T ∫0
U eff = U RMS =
Chapitre 6 – Notions fondamentales de l’électricité 351
Les valeurs 0 dBm, 1 mW, 600 Ω et par conséquent 0,775 V ont pour origine histo-
rique le fait qu’anciennement les signaux audiofréquences étaient presque exclusi-
vement acheminés par les lignes téléphoniques. Or, pour transférer le maximum de
puissance de la source à la charge, le réseau téléphonique commuté (RTC) travaillait
en adaptation d’impédance en puissance, c’est-à-dire que l’impédance de la source,
l’impédance caractéristique de la ligne téléphonique (à 800 Hz) et l’impédance de la
charge devaient avoir le même module : soit 600 Ω. Ainsi, un niveau de tension de
0 dBm correspond à la tension efficace, qui, appliquée aux bornes d’une résistance
600 Ω, engendre une puissance efficace de 1 mW, soit 0,775 V.
352 Le livre des techniques du son
( )
4
N dBu = +4= 20 × log U U =
= 20 × log 0 ,775 soit U 0 ,775 ×10 20 ≈ 1,23V
U réf
L’amplitude correspondante sera de 1,74 V et sa valeur crête à crête de 3,48 V.
Nous citerons également une autre référence de niveau souvent utilisée en métro-
logie et en hi-fi grand public. La tension de référence est ici 1 V. Le niveau sera
alors exprimé en dBV. Il y aura 2,21 dB de décalage entre les NdBu et les NdBV.
Le niveau nominal d’une ligne grand public NdBV est le plus souvent de –10 dBV ;
il correspond à tension efficace U de 0,317 V ; c’est celui d’un lecteur de disque
compact (CD), par exemple.
Le réglage du niveau sur les appareils électroacoustiques se fait à l’aide d’un
VU-mètre. Ce vocable vient de l’anglais : Volume Unit meter. Cet appareil mesure
donc des unités de volume sonore et non pas des dBu ou des dBv. Le VU-mètre
doit être connecté en un point de la chaîne électroacoustique où l’on désire que le
niveau maximal soit celui d’une sinusoïde de niveau +12 dBu. Le VU-mètre, par
construction, indiquera zéro pour une tension sinusoïdale de niveau +4 dBu. Il y
aura un décalage de 4 dBu entre l’indication d’un VU-mètre et les dBu.
Chapitre 6 – Notions fondamentales de l’électricité 353
✧ Représentation de Fresnel
C’est une méthode de représentation vectorielle de grandeurs sinusoïdales ayant
la même pulsation ; seules les amplitudes et les phases à l’origine sont différentes.
Elles seront représentées par des vecteurs tournants tracés dans un plan. Le plan
sera repéré en coordonnées polaires. Le plan est muni d’un sens de rotation pris
conventionnellement dans le sens trigonométrique. En général, on prend l’ori-
gine des temps à l’instant t = 0. Comme la fréquence est la même, la valeur effi-
cace et la phase initiale de chaque grandeur sinusoïdale seront représentées
respectivement par l’intensité et l’angle du vecteur de Fresnel correspondant.
Pour représenter un signal sinusoïdal :
(a) on porte la phase initiale c’est-à-dire à l’instant initial ; on obtient ainsi la
direction du vecteur représentant le signal ;
(b) le long de cette direction, on porte, à l’échelle, la valeur efficace du signal qui
est égale à l’intensité du vecteur qui le représente.
On trouvera un exemple de tracé en figure 6.31a.
U
© Dunod – Toute reproduction non autorisée est un délit.
U U
✧ Nombres complexes
Un nombre complexe peut être représenté par un vecteur dont l’intensité et l’angle
correspondent respectivement au module et à l’argument du nombre complexe.
C’est une généralisation de la représentation de Fresnel. Les nombres complexes
permettront une écriture algébrique faisant apparaître la fréquence. On consi-
dère qu’un signal sinusoïdal ne sera plus représenté par un vecteur, mais par un
point du plan : l’extrémité du vecteur de Fresnel, celui-ci ayant son origine
confondue avec celle du plan.
Il y a essentiellement deux méthodes pour repérer un point du plan (figure 6.31b).
Elles donneront deux écritures algébriques équivalentes : les nombres complexes.
Méthode « polaire » :
Pour obtenir le point U du plan :
(a) tourner de l’angle φ ;
(b) porter U le long de cette direction ;
(c) le point obtenu est U.
Avec la convention suivante :
• on indique une rotation géométrique de φ par une multiplication
algébrique par la quantité ejφ.
On pourra donc écrire : U = U × ejφ.
Méthode « cartésienne » :
Pour obtenir le point U du plan :
(a) porter l’abscisse a (ou la partie réelle) le long de l’origine des phases ;
(b) tourner de +90° ;
(c) porter l’ordonnée b (ou la partie imaginaire) le long de cette direction ;
(d) le point de coordonnées (a, b) est U.
Avec les conventions suivantes :
• on indique une rotation géométrique de +π/2 par une multiplication
algébrique par le symbole j ;
• l’axe correspondant à l’origine des phases sera l’axe des réels. On portera le
long de cet axe les nombres réels (ici a) ;
Chapitre 6 – Notions fondamentales de l’électricité 355
U = a2 + b 2 et tg ( ϕ) = b a
✦ Relations tension/courant
✧ Résistances
La loi d’Ohm s’écrit : u(t) = R × i(t).
La valeur efficace de u(t) est R fois la valeur efficace de i(t). Soit U = R × I. La
valeur ohmique d’une résistance ne dépend pas de la fréquence.
La tension u(t) aux bornes d’une résistance R et le courant i(t) qui la traverse sont
en phase.
© Dunod – Toute reproduction non autorisée est un délit.
On écrit : U = R × I.
✧ Self
La loi d’Ohm s’écrit : u(t) = L × di(t)/(dt) (cf. loi de Lenz).
La valeur efficace de u(t) est Lω fois la valeur efficace de i(t). Soit U = Lω × I.
Le module de l’impédance d’une self est proportionnel à la fréquence. Elle se
comporte comme un interrupteur fermé (court-circuit) pour les signaux de
fréquences très basses et comme un interrupteur ouvert (circuit ouvert) pour les
356 Le livre des techniques du son
signaux de fréquences très hautes. On peut dire qu’une self oppose moins de
résistance au passage des basses fréquences et plus de résistance au passage des
hautes fréquences.
u(t) est en avance de phase de π/2 sur i(t).
On écrit : U = jωL × I.
✧ Condensateur
La loi d’Ohm s’écrit : i(t) = C × du/dt.
La valeur efficace de i(t) est Cω fois la valeur efficace de u(t). Soit U = I/Cω.
Le module de l’impédance d’un condensateur est inversement proportionnel à
la fréquence. Il se comporte comme un circuit ouvert pour les signaux de
fréquences très faibles et comme un court-circuit pour les signaux de fréquences
très hautes.
u(t) est en retard de phase de π/2 sur i(t).
On écrit : U = 1 × I .
j ωC
En résumé, on retiendra le diagramme de Fresnel de la figure 6.32.
✦ Principaux théorèmes
Tous les théorèmes de l’électrocinétique sont valables si on exprime les tensions
et les courants par leur valeur complexe et si on remplace les résistances par les
impédances des dipôles.
Ainsi, par exemple, quand on réalise un diviseur de tension à l’aide d’une résis-
tance et d’un condensateur (figure 6.33).
U1 U2 U1
U2
jω C
6.2.3 Quadripôles
Jusqu’à présent, nous n’avons eu affaire qu’à des dipôles. Un quadripôle est un
ensemble de composants (boîte noire) possédant quatre bornes. Deux bornes
sont réservées pour l’entrée du signal, les deux autres sont réservées pour la sortie
de ce signal après traitement de celui-ci par le quadripôle. Nous nous limiterons,
dans cet ouvrage, aux quadripôles sans réaction de la sortie sur l’entrée. En
général, un appareil électronique peut être modélisé par ce type de quadripôle.
358 Le livre des techniques du son
Is
U
U Av0 . Ue Us
U Av0 U
u(t)
Is
U Av0 . Ue Us
Is
Us
U U U Av0 . Ue
P
Is
P'
U'e ≠ Ue si P' ≠ P
Or, pʹ(t) est différent de p(t). Donc ue′ ( t ) sera différent de ue ( t ) et le signal sera
mal transmis. C’est pourquoi, pour des liaisons à longues distances, on préfère les
quadripôles à entrée symétrique. Un quadripôle à entrée symétrique n’aura pas
son impédance d’entrée reliée à la masse. Les potentiels d’entrée seront dits « flot-
tants ».
Supposons maintenant qu’un parasite se produise sur le câble reliant le généra-
teur fournissant la tension d’entrée ue ( t ) et le quadripôle. Ce parasite p(t) se
produira identiquement sur chaque brin du câble : pʹ(t) = p(t).
On aura alors : ue′ ( t ) = ue ( t ) + p ( t ) − p′( t ) = ue ( t ) .
La tension parasite p(t) sera annihilée. On voit que les quadripôles à entrée symé-
trique permettent de supprimer les parasites se produisant sur le câble
(figure 6.39).
U'e
U
P
Is
U Av0 . Ue' Us
P’
U'e Ue
Ie Zs Is
Ze Av0 . Ue Us
U
mIe Is
U mAv0 . Ue Us
On veut que U s soit égal à Av 0 U e . Il faut que Rs soit beaucoup plus petit que Rʹe.
Dans ce cas, on peut négliger Rs devant Rʹe et on peut simplifier par Rʹe dans l’ex-
pression.
364 Le livre des techniques du son
Is I' e I' s
U'e Av0 . U e
′
Pratiquement, on considère que la condition est réalisée si Rs < Re .
10
Un autre type d’adaptation est l’adaptation d’impédance en puissance. Reprenons
la figure précédente. On va chercher la valeur de Rʹe pour laquelle il y aura la plus
grande puissance transférée du premier au deuxième quadripôle. Calculons cette
puissance :
R′ × A ×U A ×U R′ × ( Av 0 ×U e )
2
P = U e′ × I s = e v 0 e × v 0 e = e
Re′ + Rs Re′ + Rs ( Re′ + Rs )
2
( A ×U )
2
A ×U
Re′ = Rs U e′ = v 0 e P = v0 e
2 4
Une autre structure du schéma de sortie, équivalente à celle que nous venons
d’étudier, est la sortie symétrique. Cette structure permet d’alimenter des
quadripôles à entrée symétrique flottante et est bien adaptée à la liaison longue
distance de deux appareils. Le schéma est donné à la figure 6.42.
Dans l’hypothèse où les deux courants de sortie sont égaux, on a :
Zs × Is Av 0 ×U e Av 0 ×U e Zs × Is
Us = − + + − = Av 0 ×U e − Z s × I s
2 2 2 2
Il s’agit bien là de la loi de fonctionnement des quadripôles.
Chapitre 6 – Notions fondamentales de l’électricité 365
Is
U Av0 . Ue
2
U's U'e
I's
Av0 . Ue
2
A’v0 . Ue' U's
On remarquera que la sortie n’est pas flottante. Ceci permet de fixer les potentiels
autour du potentiel de la masse et d’éviter ainsi des saturations accidentelles.
Si on désire alimenter un quadripôle à entrée asymétrique, à partir d’une sortie
symétrique, il faudra utiliser la masse et un autre fil. On ne disposera alors que de
la moitié de la tension, ce qui correspond à une atténuation de 6 dB.
tension de sortie et la tension d’entrée dans cet ordre. La tension Ue sert d’origine
des phases et l’argument de l’amplification indique la phase initiale de la tension
de sortie. Ainsi une phase positive indiquera une avance de la tension de sortie
par rapport à celle d’entrée, tandis qu’une phase négative indiquera un retard. À
ce niveau, deux cas particuliers sont à considérer :
• Av 0 est un réel positif. Les tensions d’entrée et de sortie seront en phase. Le
déphasage sera nul. Le quadripôle est dit « suiveur ».
366 Le livre des techniques du son
teur ». Si le gain est négatif alors Av 0 1 . La tension de sortie est plus petite que
la tension d’entrée et on a affaire à un « atténuateur ».
Le tableau 6.5 des valeurs remarquables permet de mieux se rendre compte de la
relation qu’il y a entre le gain et l’amplification.
6.2.4 Filtrage
L’étude des variations du gain et du déphasage en fonction de la fréquence
constitue le filtrage.
✦ Notion de filtre
Il faut redire ici que le signal est la forme de la grandeur physique qui le transporte
et non pas cette grandeur physique elle-même. Ainsi les systèmes numériques
sont des systèmes de codage et de calcul permettant de stocker et manipuler ces
formes. La notion de filtrage s’applique à la forme des signaux (musique, voix,
etc.) et non pas au moyen de transport ou de stockage de ce signal (tension élec-
trique, flux magnétique).
Ainsi, si un signal audio est véhiculé par une tension électrique, le signal sera la
forme de cette tension électrique. Si on désire modifier ce signal (rendre une
musique plus grave ou plus aiguë, par exemple), on utilisera un dispositif apte à
Chapitre 6 – Notions fondamentales de l’électricité 367
✦ Plan de Bode
On considère un quadripôle dont la fonction de transfert A(ω) a pour module
A(ω) = |A(ω)|, pour phase φ(ω) = argA(ω) et pour gain G(ω) = 20 × log|A(ω)|
= 20 × logA(ω).
Le diagramme de Bode permet de tracer l’évolution du gain G(ω) et de la phase
© Dunod – Toute reproduction non autorisée est un délit.
Reprenons l’exemple du filtre passe-bas du premier ordre déjà vu plus haut afin de
préciser la relation existant entre un circuit électrique et son comportement en
tant que filtre :
✦ Gabarits élémentaires
Sur l’exemple en question (figure 6.44a), on peut voir que figurent deux tracés : la
courbe réelle et une courbe constituée de segments de droite : les asymptotes qui
constituent le gabarit.
Ce sont en fait ces segments de droite qui sont faciles à obtenir mathématique-
ment. Ce sont encore eux qui permettront une première interprétation qualita-
tive et quantitative commode du comportement d’un filtre.
© Dunod – Toute reproduction non autorisée est un délit.
✧ Tracé et interprétation
Pour illustrer la méthode, nous prendrons la fonction de transfert d’un filtre
passe-haut du premier ordre :
370 Le livre des techniques du son
R
A=
1
R+
jωC
La méthode de tracé est la suivante :
(a) Obtenir une expression complexe ne faisant intervenir que des polynômes en
jω. Il faut essayer de factoriser au maximum cette expression. (On remplace très
souvent jω par la lettre p en référence à la transformée de Laplace.)
Pour notre exemple, nous obtenons :
jωRC
A=
jωRC + 1
RCp
ou bien A =
RCp +1
ω → ∞ ⇒ A → 1 ⇒ A = 1 et ϕ = 0
On interprète les équations de ces asymptotes :
• l’asymptote ayant le degré le plus élevé en ω est l’asymptote basses
fréquences et ce degré est 1 ; on en déduit que l’on a affaire à un filtre du
premier ordre ;
• on cherche la fréquence correspondant à l’intersection des deux asymp-
totes : c’est la fréquence de coupure ; on constate que les deux asymptotes se
coupent quand RCω = 1 ; on en déduit la fréquence de coupure fC =
1/(2πRC) ; c’est cette fréquence qui définit la frontière entre fréquences
basses (« graves ») et fréquences élevées (« aiguës ») de ce filtre.
(c) On exprime les équations des asymptotes dans le plan de Bode :
ω = 0 ⇒ G = 20 × log(RCω) = 20 × log(RC) + 20 × logω
ω → ∞ ⇒ G = 20 × log(1) = 0
Chapitre 6 – Notions fondamentales de l’électricité 371
✧ Dérivateur (figure 6.45a)
Son expression est A = jωRC.
Exprimée en décibels, elle devient :
G = 20 × log|jωRC| = 20 × log(RC) + 20 × log(ω)
La pente est de +20 dB par décade, soit +6 dB par octave.
372 Le livre des techniques du son
Ce circuit amplifie les hautes fréquences. Il aura tendance à amplifier les para-
sites, et pour cela, il peut être dangereux de l’utiliser. Cependant, on voit sur la
courbe qu’il ne transmet pas les tensions continues. Cela peut être utile afin d’éli-
miner les tensions d’offset.
✧ Intégrateur (figure 6.45b)
1
Son expression est A = .
jωRC
Exprimée en décibels, elle devient :
1
G = 20 × log = −20 × log jωRC = −20 × log ( RC ω)
jωRC
On peut remarquer que la représentation graphique est identique à celle du déri-
vateur, avec un changement de signe.
Le déphasage est lui aussi, l’opposé du précédent : il vaut − π .
2
Celui-ci a le comportement inverse du précédent, comme le montrent les courbes
des figures 6.45a et b. Il a donc une bonne immunité aux parasites. Ce montage est
très utilisé en calcul opérationnel, dans les asservissements, dans la synthèse des
filtres paramétriques, etc. Cependant, il est sujet à des dérives de tension lentes
car, comme on peut le voir sur la courbe de réponse, il amplifie énormément les
tensions continues ou variant très lentement.
Intégrateurs et dérivateurs ne sont en fait utilisables que dans la bande de
fréquence pour laquelle ils ont été calculés.
Chapitre 6 – Notions fondamentales de l’électricité 373
✧ Polynôme du 1er ordre
Au numérateur (figure 6.46a), on étudie A = 1 + jωRC.
Il y a deux asymptotes. Les pentes sont 0 et +6 dB par octave.
1
La fréquence de coupure est fC = .
2πRC
✧ Polynôme du 2e ordre 2
1 jω jω
Au numérateur, on étudie A = 1 + × + .
Q ωC ωC
On a ici aussi deux asymptotes. Les pentes sont de 0 et +12 dB par octave.
© Dunod – Toute reproduction non autorisée est un délit.
ωC
La fréquence de coupure vaut : fC = .
2π
Pour la fréquence de coupure, on a ω = ωC et G = 20 × log(Q). Q s’appelle le coeffi-
cient de surtension.
Si on étudie Aʹ = 1/A, on obtient la courbe représentative par inversion de signe
de celle de A. On obtiendra le réseau de courbes de la figure 6.47.
La fonction de transfert A' est typique du filtre passif passe-bas du second ordre
(figure 6.48). On reconnaît là, le classique circuit R, L, C.
374 Le livre des techniques du son
Ue Us
LωC 1 1 L
Q= = =
R RC ωC R C
On sait que les circuits R, L, C résonnent, on reconnaît ici les résultats relatifs à
cette résonance.
La fonction de transfert du second ordre est donc une fonction importante car
c’est principalement elle qui décrira le comportement des circuits résonnants. Ils
permettent de réaliser des filtres ayant une bande passante étroite B. Cette bande
passante étant égale au rapport B fC . Cette relation montre que le produit de
Q
la bande passante B par le facteur de surtension Q est une constante qui est égale
à la fréquence de coupure fc.
✦ Additivité des gabarits
Nous allons étudier maintenant une propriété très intéressante quant à ses consé-
quences. Elle permet de corréler l’action d’un ou de plusieurs maillons d’une
chaîne avec l’ensemble de la chaîne sonore.
Le signal sonore, tout le long de son parcours, traverse des étages qui ont tous, qu’on le
veuille ou non, une action de filtrage. Pour connaître ou prédéterminer l’action de
toute une chaîne, il est bon de connaître l’action de chaque maillon, et à partir de cette
connaissance, d’en déduire les caractéristiques de tout ou partie de la chaîne.
Pour ce faire, on décompose la chaîne en une suite de quadripôles montés en
cascade (figure 6.49). On recherche la fonction de transfert de chaque quadripôle
et on effectue les tracés correspondants. Chaque quadripôle de la chaîne ayant été
étudié comme précédemment, on peut obtenir l’action totale sur le signal en
additionnant toutes les courbes de réponse, donc les gains et atténuations.
© Dunod – Toute reproduction non autorisée est un délit.
A1 A2 A3
U0 U1 U2 U3
A
U0 U3
Soit : A = A3 × A2 × A1 .
Ce sont des nombres complexes. Ils peuvent être mis sous la forme :
j ( ϕ1 + ϕ2 + ϕ3 )
Ae jϕ = A1 × e jϕ1 × A2 × e jϕ2 × A3 × e jϕ3 = A1 A2 A3 × e
On en tire les résultats très importants :
• l’amplification totale est le produit des amplifications (le gain total en dB
est la somme des gains) ;
• le déphasage total est la somme de tous les déphasages.
Regardons la conséquence au niveau des courbes de réponse :
• Pour la courbe de réponse amplitude/fréquence, on représente le gain en
fonction de la fréquence. Cela nous donne :
G = 20 × log|A3 × A2 × A1|
G = 20 × log|A3 | + 20 × log|A2 | + 20 × log|A1|
G = G3 + G2 + G1
• Le gain total est donc la somme des gains et la courbe résultante est donc
bien la somme des courbes.
• Pour la courbe de réponse phase/fréquence, on représente le déphasage en
fonction de la fréquence. Le déphasage total étant la somme de tous les
déphasages, on voit, là aussi, que la courbe résultante est la somme des
courbes.
Les courbes amplitude/fréquence et phase/fréquence sont donc additives. Cette
propriété aura les conséquences pratiques suivantes :
(a) Quand on désire tracer les courbes représentatives d’une fonction de transfert
compliquée :
• on décompose celle-ci en un produit de fonctions de transfert simples ;
• on trace chaque fonction de transfert (ce qui doit être facile) ;
Chapitre 6 – Notions fondamentales de l’électricité 377
• on fait la somme de toutes les courbes obtenues pour obtenir les courbes
résultantes.
(b) Quand on veut connaître l’action d’une chaîne électro-sonore :
• si on connaît les courbes représentatives de chaque maillon, donc de
chaque appareil ; on peut obtenir les courbes globales par sommation des
courbes de chaque appareil.
(c) Quand on veut connaître l’effet d’un maillon de la chaîne sur les courbes
globales (filtre paramétrique ou autre) :
• on trace les courbes du maillon considéré ;
• par soustraction, on en déduit la courbe représentative du reste de la chaîne ;
• on étudie les modifications apportées par le maillon au reste de la chaîne
en regardant l’influence de la courbe de réponse du maillon étudié sur la
courbe globale.
(d) Quand on a une courbe globale donnée, et que l’on désire l’adapter à ses
besoins ; il faut pouvoir la modifier :
• on peut agir sur les réglages des filtres prévus dans la chaîne audio. La
modification porte alors sur les caractéristiques de filtrage d’un ou de
plusieurs maillons de la chaîne. Ceci revient, du point de vue mathéma-
tique, au cas précédemment étudié ;
• on peut également, dans le cas où cela est nécessaire, insérer des maillons
dans la chaîne (par exemple, inserts de console) afin de pouvoir ajouter la
forme désirée aux courbes globales de celle-ci ;
• nous nous souviendrons qu’ajouter mathématiquement une courbe de
réponse revient, technologiquement, à introduire dans la chaîne un appa-
reil ou un quadripôle supplémentaire.
© Dunod – Toute reproduction non autorisée est un délit.
6.2.5 Conclusion
Nous venons de survoler dans ce chapitre, les principaux aspects de l’électronique.
Cet exposé est bref et n’a pas la prétention d’être exhaustif. Nous devons signaler que
le § 6.2.3 et le § 6.2.4 concernant les quadripôles et le filtrage sont généralisables.
En effet, tous les dispositifs que sait réaliser l’être humain sont des transducteurs,
des transmetteurs, des transformateurs ou encore des convertisseurs. Ainsi, un
microphone convertit un signal acoustique en signal électrique. Un haut-parleur
effectue la conversion inverse. Ces deux transducteurs ont pour but de changer le
support physique du signal, mais pas le signal proprement dit. Cependant, on sait
qu’ils agissent sur le signal car ils ne sont pas parfaits, et ce faisant, se comportent
comme des filtres. De même, une salle intervient sur la façon dont est transmise une
musique à un auditeur. Une suspension de groupe électrogène influe sur la trans-
mission des vibrations solides. Il en est de même pour la dalle flottante d’un studio.
On peut multiplier ainsi les exemples à l’infini. Pour tous ces exemples, on peut
considérer qu’il y a une ou plusieurs grandeurs d’entrée et une ou plusieurs gran-
deurs de sortie. Pour une cellule de platine tourne-disque, les grandeurs d’entrée
Chapitre 6 – Notions fondamentales de l’électricité 379
seront les mouvements mécaniques du diamant et les grandeurs de sortie seront les
tensions électriques des voies gauche et droite ; le signal sonore, dans cet exemple,
sera porté tantôt par une grandeur mécanique, tantôt par une grandeur électrique.
C’est donc le signal qui est important, plutôt que le type d’énergie qui le véhicule.
Lors de la constitution d’une chaîne électroacoustique, on met en cascade toute une
série d’éléments depuis l’instrument de l’artiste jusqu’aux oreilles de l’auditeur. Du
point de vue formel, on aura mis une série de quadripôles en cascade (qu’ils soient
électriques, acoustiques, électroacoustiques ou autres) et on aura additionné autant
de courbes de réponse amplitude/fréquence et phase/fréquence que de quadripôles.
6.3 Bibliographie
[1] Berkeley, Cours de physique, volume n° 2 – Électricité et magnétisme. Armand Colin,
1984.
[2] J.-L. Queyrel et J. Mesplede, Précis de physique-électronique. Classes préparatoires,
Bréal, 1988.
[3] R. Beauvillain et J. Laty. Électricité, Tome 1 et Tome 2. Classiques Hachette (1979 et
1971).
[4] G. Seguier et F. Notelet, Électrotechnique industrielle. Techniques et documentation,
1977.
[5] P. Bildstein, Filtres actifs. Éditions Radio, 1980.
[6] M. Hasler et J. Neyrynck, Filtres électriques. Dunod, 1981.
[7] J.-J. Matras, Acoustique appliquée. Coll. « Que sais-je ? », PUF, 1977.
[8] R. Boylestad, Analyse de circuits. ERPI, 2e édition, 1985.
[9] P. Barrade, Électronique de puissance : méthodologie et convertisseurs élémentaires.
Presses polytechniques et universitaires romandes, 2006.
[10] A. Brelat, N. Hulin-Jung, J. Klein et E. Saltiel, Électricité-magnétisme. Hermann,
1967.
[11] I. Jelinski, Toute l’électronique en exercices. Vuibert, 2000.
© Dunod – Toute reproduction non autorisée est un délit.
L’enregistrement magnétique
Michel Calmet
Ingénieur en chef des télécommunications.
Ancien conseiller technique à Radio France
Jacques Fournet
Ancien chef du département audio-vidéo
professionnel Agfa-Gevaert France
Certains des textes et schémas de ce chapitre (§ 7.3 à 7.7) sont extraits de l’article
« Enregistrement magnétique, étude théorique » du même auteur, paru dans la
collection des Techniques de l’Ingénieur. Nous renvoyons le lecteur à cet ouvrage
pour toutes démonstrations, normes et tableaux de valeurs.
✧ Loi d’Ampère
Le champ magnétique H créé par un conducteur linéaire infini en un point situé
à une distance r de ce conducteur parcouru par un courant d’intensité I, a pour
valeur :
I
H=
2πr
I en ampères, r en mètres, H en ampères/mètre.
Un observateur couché le long du fil, le courant entrant par ses pieds et sortant
par sa tête, voit les lignes de force du champ tourner de sa droite vers sa gauche
(figure 7.2). Pour un conducteur en forme de spire (figure 7.3), le champ au centre
de la spire est :
I
H
2r
On peut classer les corps suivant leur comportement en présence d’un champ
magnétique en trois grandes familles.
Si désigne l’angle formé par les vecteurs B et S :
Φ = B × S cosα
B en tesla, S en m2, en weber (Wb).
Si la surface est perpendiculaire à la direction du champ :
Φ = BS
Φ
d’où B = donc 1 tesla = 1 Wb m 2 .
S
Le flux d’induction magnétique est conservatif (figure 7.7). En d’autres termes,
le flux d’induction total à travers une surface fermée est nul.
7.1.5 Perméabilité
La perméabilité magnétique représente l’aptitude plus ou moins grande d’un
corps à se laisser traverser par un flux magnétique. La perméabilité, dénommée
aussi perméabilité absolue, est égale au quotient de l’induction magnétique B par
le champ magnétique H :
B
µ=
H
B en tesla, H en ampère/mètre, µ en henry/mètre.
On a vu que dans le vide B = µ 0 H .
µ
La perméabilité relative µr = = 1 + x caractérise le milieu magnétique.
µ0
dans le sens transversal ne pourrait être qu’un signal auxiliaire. La bande passante
est restreinte et le rapport signal/bruit faible. Ce procédé a cependant été utilisé
pour superposer des signaux de synchronisation au signal audiofréquence.
L’aimantation longitudinale d’une piste enregistrée varie en fonction de l’abscisse
x le long de la piste. Pour un signal sinusoïdal, on peut écrire :
2πx
M = M 0 sin
λ
On peut considérer d’autres grandeurs que l’aimantation, pour caractériser le
signal enregistré (figures 7.15 et 7.16). On sait, en effet, qu’une aimantation non
uniforme est équivalente à une distribution de masses magnétiques de densité
volumique : = – div M.
Cette formule se réduit ici à :
dM 2πM 0 2πx
ρ=− =− cos
dx λ λ
© Dunod – Toute reproduction non autorisée est un délit.
Exemple : considérons une bande sonore de 6,25 mm de large dont la couche fait
15 µm d’épaisseur et contient 1,8 g/cm3 d’oxyde Fe2 O3. L’aimantation maximale
Ms est de 70 000 A/m et le flux maximal vaut :
Une tête est un circuit magnétique en forme d’anneau coupé par un entrefer
étroit. L’entrefer est obtenu par intersection d’une cale de matériau non magné-
tique, et son plan est, en principe, perpendiculaire à l’axe de la piste. Des impératifs
de construction font qu’il existe à l’arrière un second entrefer.
La piste ne passe pas à l’intérieur de l’entrefer mais devant lui (figure 7.18), ce qui
est la seule façon de réduire la zone active de la tête et d’utiliser l’aimantation
longitudinale. Le matériau constituant la tête doit avoir une grande perméabilité.
N Φ N 2 µ 0 N 2S
L= =
I R δ
7.4.2 L’effacement
La tête d’effacement comporte au moins un entrefer large (de l’ordre de 100 µm) et
souvent même deux entrefers. Elle est alimentée en courant alternatif de haute
fréquence (60 à 120 kHz en général). En passant devant l’entrefer, la piste subit de
nombreuses alternances du champ magnétique alternatif qui règne dans cette zone.
Ce champ décroît quand la piste s’éloigne de l’entrefer. L’effacement est de bonne
qualité si l’intensité maximale du champ est suffisante pour saturer l’oxyde (plus
de 50 000 A/m) et si la décroissance du champ est suffisamment progressive.
L’oxyde décrit ainsi un cycle d’hystérésis dont l’amplitude tend lentement vers
zéro, ce qui le laisse dans un état parfaitement neutre.
Les procédés d’effacement à aimant permanent sont abandonnés car ils laissent
sur la piste une aimantation qui est modulée en amplitude par les défauts d’ho-
mogénéité de la couche d’oxyde, ce qui se traduit par du bruit de fond. Il est à noter
qu’un champ alternatif dissymétrique (oscillateur donnant des harmoniques de
rang pair) conduit au même défaut.
© Dunod – Toute reproduction non autorisée est un délit.
δ 200 ×10 −6
R= = −7 −6
3 × 107 A Wb
µ 0 S 4 π × 10 × 6 × 10
Pour produire un champ de 100 000 A/m, il faut une force magnétomotrice :
N 2 50 × 50
L= = 0, 08 mH
R 3 ×107
Son impédance à 100 kHz est de 50 environ et la tension d’effacement néces-
saire de 20 V. La puissance active dissipée par la tête n’est fort heureusement pas
de 8 W. La tête fait partie d’un circuit accordé, série ou parallèle, selon l’impé-
dance de source de l’oscillateur.
7.4.3 Enregistrement
Le champ créé dans l’entrefer par le courant d’enregistrement est H = NI/. Le
champ auquel la piste est soumise, est nettement plus faible, puisque la bande
passe à l’extérieur de l’entrefer. Cette valeur est comprise entre 0,5 H pour la
surface de la couche magnétique et 0,15 H pour les couches profondes.
Sous réserve que l’aimantation prise par l’oxyde soit proportionnelle au champ
maximal rencontré, le signal enregistré est proportionnel au signal électrique
appliqué à la tête :
M = k NI/
Cette transformation du champ en aimantation de la piste constitue une des prin-
cipales difficultés de l’enregistrement magnétique. Celle-ci a été résolue grâce à la
polarisation alternative, procédé qui consiste à superposer au signal utile un
signal haute fréquence de grande amplitude, qui est fourni généralement par l’os-
cillateur d’effacement.
Exemple : une tête d’enregistrement ayant un entrefer de 15 µm de long et de
6 mm2 de section, a une réluctance :
R = 2 ×106 A Wb
Pour produire un champ de 40 000 A/m, il faut une force magnétique NI = 0,6 A,
soit par exemple, 10 mA et 60 tours de fil. La self-inductance de cette tête est de
1,8 mH et son impédance d’environ 110 à 10 kHz et 1 100 à 100 kHz. Il lui
faut une tension de polarisation de 11 V environ.
7.4.4 Lecture
Pour la piste, la tête de lecture doit constituer un court-circuit magnétique. Dès
lors, comme le montre la figure 7.18, seule la notion de piste située en face de
l’entrefer contribue au flux utile capté par la tête.
Chapitre 7 – L’enregistrement magnétique 401
F0 = ∫ M ( x ) dx
surδ
Donc F0 = M si l’on suppose M constant d’un bord à l’autre de l’entrefer, c’est-à-
dire si >> .
La réluctance du circuit se réduit à celle de l’élément utile de piste :
δ
R =
µ 0 ηh
et le flux dans la tête est :
F0
Φτ = = µ 0ηhM
R
donc égal au flux de la piste. La piste se déplace à la vitesse V par rapport à la tête,
et si l’aimantation varie le long de la piste (par exemple sinusoïdalement), le flux
dans la tête varie de la même façon en fonction du temps t :
2πVt
Φ τ = µ 0ηhM 0 sin
λ
Il apparaît donc une force électromotrice d’induction aux bornes de la tête :
dΦ
e = −N = 2 NhVBs
dt
L’amplitude maximale du signal lu en régime sinusoïdal est :
Les forces magnétomotrices des différents éléments de pistes sont ici mises en
parallèle mais le résultat est le même que ci-dessus pour l’effet d’entrefer, avec
toutefois deux effets supplémentaires. Du fait des instabilités de défilement du
support, l’azimut est fluctuant autour de sa valeur moyenne. Une instabilité
d’azimut a peu d’influence pour un réglage correct. Autour d’un mauvais réglage,
elle provoque une fluctuation de niveau importante.
L’autre effet se manifeste dans les systèmes multipistes et consiste en un dépha-
sage entre les signaux lus sur des pistes différentes. Si h est la distance entre les
axes des deux pistes, le décalage temporel entre les deux signaux est htg/V, soit,
pour des signaux sinusoïdaux de longueur d’onde , un déphasage angulaire de
2 htg/ (en radians).
© Dunod – Toute reproduction non autorisée est un délit.
simple dans le cas d’un signal sinusoïdal enregistré sur une piste mince et
large (h >> >> ) :
ε
Φ ε = Φ 0 exp −2π
λ
avec :
• ε flux capté par la tête ;
• 0 flux de la piste ;
• distance séparant la tête de la piste.
Le facteur d’éloignement peut être évalué grâce à la formule pratique :
∆ 55ε λ
de transfert. Les distorsions sont faibles mais le niveau de bruit de fond est relevé
et l’amplitude maximale du signal enregistré réduite, d’où un mauvais rapport
signal/bruit. De plus les crêtes positives du signal sont enregistrées sur des parti-
cules à plus fort champ coercitif que les crêtes négatives.
On peut augmenter l’amplitude du signal enregistré en partant d’un matériau non
plus effacé mais saturé dans un sens et en le polarisant dans l’autre sens par un
champ continu égal à Hc . Malgré le gain ainsi obtenu, la polarisation continue a été
rapidement abandonnée au profit de la polarisation alternative haute fréquence.
tion, un signal de très faible amplitude arrive à atteindre des particules fortement
coercitives.
Seule la représentation de Preisach permet d’interpréter complètement le phéno-
mène, mais elle sort du cadre de cet ouvrage.
7.8 Bibliographie
[1] R. Buffard. Enregistrement magnétique – Cours de l’ENST.
[2] M. Calmet. Technique de l’ingénieur : l’enregistrement magnétique.
[3] ortf. Une nouvelle bande pour le contrôle des réglages azimut des magnétophones –
Étude ORTF no 9152.
[4] R.E.B. Hickman. L’enregistrement magnétique – Dunod (1958).
[5] C.D Mee. The physics of magnetic recording – North Holland (1964).
412 Le livre des techniques du son
[6] R.L. Wallace. The reproduction of magnetically recorded signals – Bell System Technical
J. (oct. 1951).
[7] G. Schwantke. Der aufsprechvoyang beim magnetton – Verfahren in Preisach darstellung
– Frequenz no 12 (déc. 1958).
[8] C.D. Mee et E.D. Daniel. Magnetic Recording – Mac Graw Hill (1987).
[9] E. du Tremolet de Lacheisserie. Magnétisme : matériaux et applications – Coll. Grenoble
Sciences, EDP Sciences (2000).
Chapitre 8
La technologie audionumérique
Alain Fromentel
Ingénieur diplômé Supélec.
Directeur des Études de l’EFREI – École d’Ingénieurs
Une source sonore génère une pression acoustique vibratoire variable dans le
temps. Le microphone capte ces variations, les reproduit grâce aux mouvements
de sa membrane et engendre un courant électrique dont les variations sont à
l’image des vibrations. Un amplificateur électrique augmente l’amplitude de ces
mêmes vibrations, sans pour autant en changer la nature (fréquence, spectre,
timbre, durée conservés). Enfin, la membrane du haut-parleur produit des vibra-
tions mécaniques à l’image toujours des vibrations initiales, à l’amplitude près et
génère donc un son. Ainsi, ces étapes successives produisent des signaux analo-
gues (c’est-à-dire identiques à un facteur multiplicatif près) : voilà l’origine de l’ex-
pression « techniques analogiques ». Les différents systèmes électriques et
électroacoustiques de la chaîne de traitement du son produisent constamment
une dégradation du signal sous la forme de l’addition d’un bruit (fonction aléa-
toire), d’une non-linéarité et d’une irrégularité de la bande passante (voir
chapitre 1 « Introduction à la technologie audiofréquence », tome 2). De ce fait, le
signal subira de façon incontournable et irréversible une dégradation croissante
au fur et à mesure de son trajet dans les systèmes. Toutefois, il faut remarquer que
ces dégradations entraîneront un signal modifié par rapport au signal initial, mais
414 Le livre des techniques du son
représentatif d’un son que reproduira le haut-parleur, sans qu’aucun procédé (en
général) ne puisse détecter ni, encore moins, corriger les défauts introduits : par
exemple, comment un système pourrait faire la différence entre un son déformé à
cause d’une distorsion « naturelle » d’un amplificateur (non-linéarité) et le même
son modifié volontairement grâce à un effet spécial nommé « boîte de distor-
sion » ? En effet, les seules caractéristiques que l’on peut associer à un signal analo-
gique représentant un son résident en : une fonction du temps, de valeur moyenne
nulle, dont les valeurs sont comprises entre deux extrêmes (négative et positive)
et dont le spectre est composé de fréquences comprises entre 20 Hz et 20 000 Hz.
Il y a une infinité de signaux répondant à ces critères et de même une infinité de
déformations possibles. Ces faits illustrent les limites des technologies analo-
giques en ce sens où une déformation involontaire d’un son sera en général non
détectable et encore moins corrigible (un amplificateur peut détecter une satura-
tion de ses circuits et provoquer l’allumage d’un voyant lumineux, néanmoins, le
son est déformé !). Il en est de même d’un bruit additif, qu’il est rigoureusement
impossible de soustraire… car ce bruit est une fonction aléatoire !
L’originalité des « technologies numériques » est d’introduire un déterminisme
(c’est-à-dire une connaissance a priori) le plus important possible au niveau des
signaux traités de manière à pouvoir détecter puis corriger au fur et à mesure les
défauts introduits par le système de traitement. Alors que les signaux analo-
giques, comme nous l’avons vu précédemment, n’ont pas de caractéristiques
déterminantes, il faudra au contraire définir les signaux numériques de façon
aussi précise (valeurs bien définies) et restrictive (un minimum de valeurs) que
possible. Ainsi si le signal analogique peut prendre toutes les valeurs entre deux
extrêmes, le signal numérique ne pourra prendre qu’un nombre fini de valeurs
distinctes en tentant de limiter au maximum l’incertitude, d’où le choix de la
représentation binaire qui est en plus facile à réaliser électriquement (un courant
passe ou ne passe pas). De même, si la fonction représentant le signal analogique
peut prendre une infinité de formes, celle représentant le signal numérique ne
prendra qu’une seule forme prédéfinie. Cette dernière propriété montre alors l’ai-
sance de détection d’une déformation involontaire d’un signal numérique et de
même, la possibilité de régénération de la forme « correcte ».
Ainsi, si l’on opère une transformation du signal représentatif d’un son (issu d’un
microphone par exemple), à l’origine sous sa forme naturelle de vibration (par
abus de langage, on dit « forme analogique ») en un signal numérique muni des
propriétés évoquées plus haut, ce signal numérique sera traité dans les systèmes
électriques sans subir de dégradations telles que bruit additif, distorsion et limi-
tation de bande passante. En fin de traitement, le signal numérique sera retrans-
formé en un « signal analogique » qui fera vibrer la membrane du haut-parleur.
En particulier, si le système est destiné à stocker un son ou à dupliquer un son, la
Chapitre 8 – La technologie audionumérique 415
taire de correspondance.
Ce choix autorise à subir une modification involontaire de valeur (due au bruit
additif, à la non-linéarité, à une limitation de bande passante) sans pour autant
modifier le chiffre binaire en faisant tout simplement le choix préalable d’une
valeur de seuil de discrimination. Prenons, pour illustrer les valeurs suivantes :
chiffre binaire 0 associé à –10 V et chiffre binaire 1 associé à +10 V ; des perturba-
tions involontaires peuvent entraîner des modifications de ces valeurs (par
exemple, –10 devient –8 et +10 devient +11 à cause de perturbations électriques).
Le choix évident ici d’un seuil de discrimination égal à 0 V permet d’affirmer sans
416 Le livre des techniques du son
équivoque que le chiffre binaire 0 est bien resté 0 et que le chiffre binaire 1 est bien
resté 1. En effet, une simple évaluation du signe de la valeur permet de restituer
les chiffres binaires corrects.
En règle générale, on se fixe ainsi deux niveaux électriques notés H (High, pour
niveau haut) et L (Low, pour niveau bas) ainsi qu’une règle de correspondance
avec les chiffres 0 et 1. Ces derniers se nomment bit (contraction de binary digit)
ou e.b. (initiales de « élément binaire »). Puis on définit le signal numérique
comme étant la fonction du temps, représentative d’une suite de bits prenant
deux valeurs (H ou L) avec, en plus, une propriété de durée qui augmentera encore
plus le déterminisme : la transition entre les valeurs H et L ne pourra se faire qu’à
des instants bien précis, multiples d’un temps fondamental nommé période
d’horloge. Cette horloge (clock) cadence ainsi les variations du signal numérique
(figure 8.1). La règle de définition de la fonction du temps est nommée « codage ».
Le résultat est appelé « code » ou « représentation ».
La cadence est ici représentée graphiquement par des flèches marquant l’instant
de la transition éventuelle.
Il existe plusieurs codages normalisés en fonction des propriétés que l’on souhaite
adjoindre au signal numérique :
• occupation minimale de la bande de fréquences : il est toujours intéressant
que cette bande de fréquences (dite aussi « étendue spectrale ») soit mini
male, surtout pour les systèmes de transmission pour lesquels « la fréquence
est une ressource rare et précieuse », ce qui est le cas des télécom
munications. Ceci s’obtient en minimisant le nombre de transitions : en
effet, la bande de fréquences occupée est significative des variations d’un
signal par unité de temps (dérivée de la fonction) – théorème de Fourier ;
• transition systématique pour chaque nouveau bit : cette propriété peut
s’avérer intéressante pour transmettre de façon sûre la cadence d’horloge
d’un système à un autre par l’intermédiaire du seul signal numérique, on
Chapitre 8 – La technologie audionumérique 417
dit alors que l’horloge est intrinsèque dans ce signal (remarquer que cette
condition entraîne une propriété inverse de la précédente) ;
• spectre nul aux basses fréquences : cette propriété est indispensable si le
signal numérique doit traverser un transformateur par exemple (il s’agit ici
d’une propriété électrique liée au transformateur), etc.
Ces différentes propriétés pouvant être contradictoires quant au choix d’un code,
ce dernier est choisi en fonction du système de traitement et peut être le résultat
d’un compromis. Il n’y a aucun caractère d’universalité car ce n’est pas nécessaire.
Au besoin, la conversion d’un type de codage à un autre est très aisée au niveau
des interfaces des systèmes.
Nous allons décrire sommairement quelques codes couramment employés
(figure 8.2).
La représentation NRZ (no return to zero) est la plus triviale puisqu’à « 0 » elle fait
correspondre le niveau bas et à « 1 » le niveau haut. La transition se produit aux
instants d’horloge.
La représentation « biphase » (dite aussi Manchester) fait correspondre à « 0 » une
transition L H et à « 1 » une transition H L, ces deux transitions sont seules
significatives du bit et ont lieu à mi-temps de la période d’horloge. Il est à noter
que le choix de cette représentation entraîne l’existence systématique d’au moins
une transition par bit, quelle que soit la suite de bits (ce qui n’est pas le cas en
NRZ). Enfin, le code biphase possède un spectre nul aux basses fréquences, mais
418 Le livre des techniques du son
la bande de fréquences occupée est double de celle occupée par le codage NRZ. Ce
code biphase est particulièrement utilisé lorsque la récupération du rythme
d’horloge est fondamentale.
La représentation NRZI (no return to zero, inversion) est un codage de type
« différentiel » en ce sens qu’un « 0 » ne modifie pas l’état précédent (H ou L),
alors qu’un « 1 » provoque un changement d’état à mi-période d’horloge. Dans
la mesure où le signal numérique comprendrait un grand nombre de zéros, ce
codage apportera peu de transitions relativement aux états stables et de ce fait,
la bande de fréquences occupée sera plus faible que pour le codage NRZ. Par
ailleurs, si néanmoins, on peut garantir un certain nombre minimal de « 1 » sur
un temps donné, le rythme d’horloge pourra être transmis par ce codage. Il est
clair que le codage NRZI ne peut pas s’appliquer sur une suite quelconque de
bits au risque de perdre les propriétés énoncées. À cet effet, ce codage est
précédé d’un « pré-codage » binaire modifiant la suite binaire initiale en une
autre suite possédant les qualités requises (on parle parfois de code NRZI
modifié : M-NRZI). Lors du décodage, l’opération inverse est bien sûr réalisée.
Cette méthode est employée en particulier pour la gravure du CD audio : cas du
code nommé 4/5 M-NRZI, où chaque suite de 4 bits est modifiée en une autre
suite de 5 bits de telle façon à proscrire une longue suite de 0 (par exemple,
[0000] sera recodé [00100] pour éviter la suite de 0 alors que [1111] sera recodé
[10101] pour éviter d’avoir trop de transitions pouvant entraîner une augmen-
tation de la bande de fréquences).
La représentation AMI (Alternate mark inversion) est également d’un type
différentiel mais sur les niveaux (figure 8.3). Ce codage est ternaire : il utilise
trois états : H, 0, L (avec L = – H). Un 0 binaire est représenté par le niveau 0, un
1 binaire est représenté par H ou L alternativement. Ce codage possède un
spectre de l’étendue ce celui occupé par le codage NRZ, mais ce spectre est nul
aux basses fréquences. Si l’on peut garantir un nombre minimal de 1, la trans-
mission de l’horloge est assurée ; en revanche, ce codage ne supporte pas une
longue suite de 0 car une telle situation ne serait pas différente d’une absence ou
coupure d’information, qui produirait le même effet. Ce type de codage est très
employé au niveau des transmissions, mais en faisant précéder le codage d’un
« pré-codage » destiné à éviter une longue durée de valeur nulle, un dispositif
nommé « embrouillage » (srambling) est utilisé à cet effet ; ce dispositif s’appa-
rente à un cryptage binaire dont la clé serait normalisée (donc publique).
Enfin, la variante nommée HDB3 est également un « AMI modifié » empêchant
justement d’avoir plus que trois états successifs nuls et assurant ainsi la trans-
mission du rythme d’horloge.
Chapitre 8 – La technologie audionumérique 419
8.2 Conversion
Le signal d’origine, tel qu’issu d’un microphone par exemple, est une fonction
analogique du temps que l’on notera s(t). Afin d’aboutir à une représentation
numérique que l’on notera sN(t), il est nécessaire d’opérer une transformation :
cette opération de conversion de s(t) en sN(t) se nomme conversion analogique-
numérique : CAN (Analog to digital conversion : ADC).
L’opération inverse se nomme conversion numérique-analogique : CNA
(Digital to analog conversion : DAC). Elle permettra de restituer à la fin du trai-
tement une fonction analogique propre à alimenter un haut-parleur, donc à resti-
tuer un son.
✦ Échantillonnage
Le signal acoustique d’origine ne possède pas a priori de cadence intrinsèque
définie. Le rythme d’horloge exigé par le signal numérique n’a pas de sens dans un
signal analogique, même si ce dernier est périodique : il n’y a pas de rapport
évident entre le futur rythme d’horloge et la période du signal original. Le conver-
tisseur va donc tout d’abord en introduire une par l’opération dite d’échantillon-
nage (voir § 5.1.4 et figure 8.4). Ceci définit une première cadence : la cadence
d’échantillonnage exprimée en hertz (symbole : Hz). Le théorème de Nyquist-
Shannon fixe la valeur minimale théorique de cette cadence à deux fois la
420 Le livre des techniques du son
✦ Filtrage préalable
L’opération temporelle d’échantillonnage fait apparaître une répétition pério-
dique du spectre initial. Un recouvrement entre les spectres translatés introdui-
rait des composantes étrangères dans le spectre d’origine, rendant impossible la
restitution finale du signal analogique : ceci constitue bien sûr la condition de
Nyquist-Shannon précédemment citée. Il faut néanmoins être certain que, dans
le spectre du signal d’origine, il n’existe aucune composante ultra-sonore. Cet
événement serait sans grande importance (en général) dans un système analo-
gique, mais désastreux dans un système utilisant l’échantillonnage, cas des
systèmes numériques. L’effet obtenu est appelé repliement du spectre. Pour s’en
prémunir à tout prix, on prévoit, en amont de l’échantillonnage, un filtrage
passe-bas de fréquence de coupure égale à la moitié de la fréquence d’échantillon-
nage, ayant une pente aussi raide que possible en bande, coupée de façon à affai-
blir au maximum les éventuelles composantes ultra-sonores (figures 8.5 à 8.8).
Après un filtrage passe-bas rendu ainsi nécessaire, le signal passe dans un inter-
rupteur analogique constituant l’échantillonneur proprement dit (figure 8.11).
✦ Quantification
Chaque valeur échantillonnée est ensuite convertie en nombre binaire. Se pose
alors le problème de la précision, donc le nombre de chiffres binaires (0 ou 1),
significatifs de la valeur considérée.
La valeur échantillonnée est, comme le signal d’origine, une grandeur continue,
alors que la valeur numérique binaire est forcément discrète, passant d’une valeur
à celle immédiatement supérieure en changeant un chiffre binaire. De ce fait,
chaque valeur échantillonnée sera approchée par la valeur correspondante
binaire la plus proche : c’est l’objet de la quantification réalisée naturellement
dans le convertisseur analogique-numérique.
Enfin, le signal audio étant essentiellement alternatif (car représentatif d’une
vibration), il faut donc traiter des valeurs positives et négatives. Or, le signe
n’existe pas en binaire ; en effet, seuls existent les chiffres 0 et 1, à l’exception des
signes, qui, s’ils existaient conduiraient à 3 valeurs (0, +1 et –1) et non plus
2 valeurs seulement. Il faudra donc convenir d’une règle afin de désigner des
nombres positifs et négatifs. Une pratique courante est d’assigner le premier bit
au codage du signe (0 signifie –, 1 signifie +) ; les bits suivants codent la valeur
absolue : ce codage est du type « amplitude-signe ».
Ceci revient à décaler le signal audio afin de le rendre constamment positif,
comme le montre la figure 8.12 (construite en prenant 4 bits, pour simplifier). La
valeur maximale négative peut ainsi se coder : 0000, celle positive : 1111 et la
valeur moyenne (repérée par le nombre 8) se code : 1000. On remarque que le
premier bit indique bien le signe du signal d’origine.
Sur l’exemple de la figure 8.12, on a représenté une échelle de 16 valeurs numérotées
de 0 à 15 et la valeur équivalente en binaire, soit respectivement de 0000 à 1111.
À chaque échantillonnage (a, b, c, d, e…) correspond une valeur que l’on
approche d’une des 16 valeurs prédéterminées en prenant, par exemple, la
valeur immédiatement inférieure quand elle ne tombe pas juste.
© Dunod – Toute reproduction non autorisée est un délit.
Par exemple, pour l’échantillon noté c, la valeur véritable est 12,5. La valeur
décimale quantifiée correspondant à l’expression en 4 bits est 12, si on décide de
quantifier par défaut.
Tableau 8.1
Échantillon a b c d e f
Il est clair, que les échantillons quantifiés c, e, f ont désormais la même valeur, ce
qui est faux relativement au signal d’origine : la quantification introduit ici une
erreur dite erreur de quantification qui n’est pas corrigible par la suite, donc qui
dégrade le signal audio. Par contre, cette erreur est systématique et parfaitement
chiffrable : elle représente au maximum une erreur de 1 unité sur 16 valeurs, donc
l’erreur maximale est 1/16 soit 6,25 %.
Plus on augmentera le nombre de valeurs (donc par conséquent de bits), plus
cette erreur sera faible.
On peut construire à partir de s(t) et du signal échantillonné quantifié corres-
pondant que l’on notera sq(t) un signal d’erreur (t) = s(t) – sq(t). Ce signal a les
caractéristiques d’un bruit et est perçu comme tel (bruit de quantification) :
figure 8.13.
Chapitre 8 – La technologie audionumérique 425
On peut alors définir, comme en analogie, le rapport S/B (signal sur bruit) de
l’énergie du signal audio s(t) à l’énergie du signal d’erreur (t).
Le nombre de valeurs quantifiées pour un signal d’amplitude maximale donnée
étant fixé, le rapport S/B est parfaitement connu. Dans un système numérique, le
rapport S/B est ainsi fixé à l’origine, par choix du constructeur.
Sous réserve qu’il n’y ait pas d’autres dégradations (et la suite du système sera conçue
dans ce but), la valeur S/B choisie sera effectivement celle du dispositif global, quel
que soit le type de traitement ou de support d’enregistrement, le cas échéant.
Il faut bien prendre la mesure de la phrase précédente : en technologies analo-
giques, nous subissons le bruit et donc le rapport S/B ; en technologies numé-
riques, nous choisissons ce rapport S/B aussi grand que nous le souhaitons (au
prix certes de l’utilisation d’un codage binaire à « grand » nombre de bits par
valeur échantillonnée).
© Dunod – Toute reproduction non autorisée est un délit.
Afin de permettre une qualité supérieure à celles apportée par les systèmes analo-
giques, on choisit un rapport S/B nettement supérieur à 60 dB (qui est l’ordre de
grandeur courant pour les systèmes d’enregistrement analogique sur bande
magnétique par exemple). On retient en général la valeur de S/B = 90 dB ce qui
rend le bruit de quantification quasiment inaudible.
Le calcul du rapport signal à bruit S/B est relativement aisé dès lors que l’on se fixe
le nombre de valeurs quantifiées Q (car l’erreur est majorée par l’intervalle de
quantification) ; par ailleurs, ce nombre de valeurs quantifiées entraîne le choix
du nombre de bits n grâce à la relation : Q = 2n.
426 Le livre des techniques du son
S/B = 6,02n + 1,78
que l’on peut approcher par une expression plus simple : S/B = 6n.
Ainsi, nous pouvons élaborer le tableau 8.2 :
✦ Sérialisation
La valeur quantifiée binaire apparaît électriquement sur n fils électriques
(n = nombre de bits). Cette forme est commode pour effectuer des calculs (donc
pour exécuter un traitement en temps réel). En revanche, dès qu’il s’agit d’enregis-
trer sur support (disque optique ou magnétique) ou de transmettre (radiodiffu-
sion), il est préférable d’avoir à chaque instant un seul bit et non pas n (sinon il
faudrait n disques affectés à s(t) ou n canaux de radiodiffusion !).
Pour remédier à cela, il est possible de stocker à un instant donné les n valeurs
binaires et de les exploiter une par une, dans un ordre défini (en commençant par
le bit le plus à gauche par exemple), sachant que l’on a le temps séparant deux
échantillons successifs (la période de la cadence d'échantillonnage) pour réaliser
cette opération.
La cadence binaire est donc au minimum n fois la cadence d’échantillonnage.
Pour effectuer une conversion A-N série (figure 8.15), reprenons l’exemple de la
figure 8.12 et du tableau 8.1.
Le signal numérique est alors prêt à être stocké ou transmis sur un seul support
ou canal. La fréquence d’horloge de bit (Hb) vaut n fois la fréquence d’horloge
d’échantillonnage. Par exemple, avec fH = 50 kHz et n = 12 bits, on obtient
fHb = 600 kHz et 600 000 bits par seconde sont présents sur la sortie série, ce qui
constitue un débit numérique de 600 000 bits/s.
© Dunod – Toute reproduction non autorisée est un délit.
Noter enfin que si le signal numérique est destiné à des traitements, il est au
contraire plus indiqué de le conserver en format parallèle : ce signal numérique
consiste alors en des « nombres binaires » de n bits, qui participeront à des opéra-
tions arithmétiques.
428 Le livre des techniques du son
sous forme d’un calcul numérique. Le signal numérique ayant une représenta-
tion électrique, ce calcul se fera lui-même grâce à des circuits électroniques
développés à cet effet : la famille des circuits logiques. Ceux-ci opèrent sur des
tensions binaires et retournent également des tensions binaires. Les opérations
élémentaires sont au nombre de deux : l’inversion logique et le produit logique.
L’inversion logique opère sur un bit et retourne le bit inverse : 0 1 et 1 0. Le
produit logique opère sur deux bits et retourne un bit qui est la multiplication
des deux bits d’entrée : 00 0, 01 0, 10 0, 11 1. On montre (théorèmes
de De Morgan) que de ces deux opérations se déduisent toutes les autres (addi-
tion avec ou sans retenue de deux bits, addition, soustraction, multiplication et
430 Le livre des techniques du son
Exemple
Avec fe = 50 kHz, le débit binaire vaut, dans le cas d’un message parallèle :
Dp = 50 000 bits/s
Remarque
On utilise parfois les notations kbit (kilobit), Mbit (mégabit) ou Gbit (gigabit). Il ne
faut pas confondre ces multiples avec les multiples décimaux habituels. En effet, nous
sommes en système binaire, donc les multiples sont toujours des multiples de 2.
Chapitre 8 – La technologie audionumérique 433
Ds = 800 000 bits/s
800 000
soit Ds 781 kbit/s
1024
Enfin, la représentation électrique va déterminer, entre autres, la rapidité de
modulation (R).
Cette grandeur est, par définition, l’inverse de la durée du signal élémentaire
significatif d’un bit (Tse). La rapidité de modulation est exprimée en baud (les
multiples kbaud, Mbaud et Gbaud suivent la même règle que les multiples du bit).
Reprenons les exemples du NRZ et du biphase.
© Dunod – Toute reproduction non autorisée est un délit.
Dans le cas d’un message parallèle, la représentation est en général NRZ, la valeur
de R coïncide avec celle de Dp ; soit en reprenant l’exemple précédent :
Message NRZ parallèle : Dp = 48,8 kbits/s ; il vient R = 48,8 bauds.
434 Le livre des techniques du son
Dans le cas d’un message série, on choisit une autre représentation, où les valeurs
ne sont pas identiques :
Message biphase série Ds = 781 kbits/s ; R = 1 562 kbauds (R = 2Ds car
:
Tse = 1/2 période d’horloge de bit).
Un système (de traitement, d’enregistrement ou de diffusion) accepte des
signaux de rapidité de modulation maximale limitée.
Pour un débit binaire fixé, on a intérêt à avoir une rapidité de modulation la plus
faible possible, (donc une bande passante réduite), sinon il y a risque de détério-
ration de l’information, hypothèse que l’on a voulu écarter depuis le départ, en
fixant le rapport S/B par la simple connaissance de la quantification lors de la
conversion analogique-numérique.
Il existe, à cet effet, des représentations pour lesquelles R est inférieure à D.
Citons par exemple le cas du HDM-1 (High density modulation).
• Fréquence d’échantillonnage :
Valeurs : 32 kHz ; 44,1 kHz ; 48 kHz ; 96 kHz, choisies suivant une norma-
lisation internationale, parfois dans un souci de compatibilité avec d’autres
équipements (vidéo en particulier).
• Nombre de bits :
Valeurs : 12, 14, 16, 24 ou 32 bits.
• Message parallèle dans le cas de traitement de l’information sans enregis-
trement sur support mécanique, ni transmission. La représentation élec-
trique est alors NRZ pour tous les bits parallèles.
• Message série dans le cas de l’enregistrement sur support mécanique
(bande magnétique en stéréophonie ou multipiste, disque audionumé-
rique…) ou dans le cas de la transmission (radiodiffusion directe ou par
satellite, liaison inter-studio…). Les représentations électriques sont alors
NRZ, biphase, HDM-1, modulations et autres…
Ce procédé n’est pas sans faille : si le bruit est trop important ou si un parasite
arrive juste à l’instant caractéristique, la reconstitution est erronée. Mais alors,
indépendamment de la représentation, le résultat est qu’un bit à 0 initialement a
été reconstitué en 1 ou inversement.
Il faut remarquer qu’une erreur résiduelle après reconstitution n’est qu’un échange
entre les valeurs binaires 0 et 1. Cette remarque est fondamentale car elle va
permettre le processus de correction d’erreur.
En effet, s’il existe une procédure permettant de contrôler la vraisemblance du
message binaire (succession de 0 et 1), on peut imaginer de faire un contrôle
systématique. Ce contrôle peut alors déceler une erreur : on dit que l’on détecte
l’erreur. Si en plus, on arrive à localiser le bit faux, on dit que l’on corrige l’erreur
puisqu’il suffit de changer le 0 faux en 1 ou inversement.
les bits ainsi désignés seront alors simplement inversés (un 0 deviendra un 1 ou
inversement) pour rétablir le message initial.
La réalisation pratique de ces codages repose sur deux principes différents [2].
Le premier principe engendre un mot-code séparable, c’est-à-dire comprenant
une première partie constituée du message initial et une deuxième partie (dite
« clé » ou « contrôle ») calculée à partir de la première (famille des codes
« linéaires », tels que ceux utilisés pour le calcul de clé d’un RIB, d’un numéro de
carte bancaire, d’un numéro de sécurité sociale…). Ce premier principe fournit
des codes sûrs (détection et correction à coup sûr) mais limités en performance
(comportement aléatoire si dépassement de la capacité de correction).
Le deuxième principe engendre un mot-code non séparable, c’est-à-dire qu’il
substitue le message initial par un mot-code à plus de bits, mais d’une seule partie,
bits calculés à partir de ceux du message initial (famille des codes convolutifs). Ce
deuxième principe engendre des codes plus performants face à des erreurs multi-
ples, même en grand nombre, mais moins sûrs (probabilité de fausse correction :
le message restitué est faux alors que le décodeur le considère juste).
Le choix d’un type de codage se fera alors suivant le type d’erreurs attendues
(dépend du système) et la tolérance que l’on peut accepter sur les erreurs non
corrigées. Cette tolérance n’est pas choquante car, dans le cas des systèmes analo-
giques, les défauts et perturbations engendrent des erreurs qui ne peuvent jamais
être corrigées, alors que dans le cas des systèmes numériques, les mêmes défauts
et perturbations engendrent des erreurs qui peuvent parfois ne pas être corrigées.
✦ Contrôle de parité
La procédure de contrôle de parité est un codage très élémentaire car uniquement
détecteur d’une seule erreur binaire par message.
La clé est ici le résultat sur un bit de l’addition modulo 2 de l’ensemble des bits du
message.
Cette opération réside en une simple addition sans tenir compte de la retenue.
Elle se désigne par le signe .
La table d’addition modulo 2 est la suivante :
0 ⊕ 0 = 0
0 ⊕ 1 = 1 addition ordinaire
1 ⊕ 1 = 1
1 ⊕ 1 = 0 car 1 + 1 = 10 (en binaire), donc le résultat vaut 0 sans retenue.
Chapitre 8 – La technologie audionumérique 439
Exemple
mot initial de 4 bits, génération d’un 5e bit égal à la somme modulo 2 des
4 premiers :
1000 1000 1
0110 0110 0
1111 1111 0
Dans cet exemple, le fait d’ajouter le cinquième bit modifie forcément le débit
binaire : il est augmenté dans le rapport 5/4 : c’est le prix à payer pour pouvoir
effectuer un contrôle. On dit aussi que la redondance est de 1 pour 4 soit 25 %
(1 bit rajouté à chaque séquence de 4 bits).
Le contrôle du message se fait en comptant le nombre de 1 du message redon-
dant : il doit forcément être pair étant donné le calcul qui est fait pour le 5e bit. On
remarque que cela est équivalent à faire le calcul de la somme modulo 2 de
l’ensemble des 5 bits et à vérifier que ce résultat est nul.
Exemple
émis → reçu
,
1001 0 → 1001 0 1 ⊕ 0 ⊕ 0 ⊕ 1 ⊕ 0 = 0 : pas d erreur
1101 1 → 1101 1 1 ⊕ 1 ⊕ 0 ⊕ 0 ⊕ 1 = 1 : erreur détectée
Le contrôle de parité constitue un code détecteur d’erreur, non correcteur
(puisque l’on ne peut pas déterminer la position dans le message du bit erroné).
Ce code a des limites : si le message est perturbé par deux erreurs (ou un nombre
pair d’erreurs en général), le contrôle ne signale rien !
Exemple
émis → reçu
© Dunod – Toute reproduction non autorisée est un délit.
,
1001 0 → 1010 0 1 ⊕ 0 ⊕ 1 ⊕ 0 ⊕ 0 = 0 : pas d erreur
Le message est reconnu bon malgré les deux erreurs.
Aussi, l’efficacité d’un code à détecter et éventuellement corriger, est une notion
statistique liée au nombre d’erreurs estimées dans un message.
✦ Code de Hamming
Le codage de Hamming est destiné à permettre la localisation d’un bit erroné (un
seul par mot binaire), donc de conduire à sa correction.
440 Le livre des techniques du son
abcdabcdLMN
avec la propriété importante que les valeurs LMN dépendent des valeurs abcd.
Lors du traitement ou du stockage de ce mot binaire de 7 bits, il peut y avoir
des défauts ou altérations conduisant à une ou plusieurs erreurs binaires, une
Chapitre 8 – La technologie audionumérique 441
ou plusieurs des valeurs abcd LMN peut ou peuvent être erronées. Si tel est le
cas, les équations établies précédemment ne seront plus vérifiées. Ceci
signifie que si, après traitement ou stockage, nous faisons à nouveau les
calculs précédents, il y a « peu de chance » que ces équations soient toutes
vérifiées.
En général, ce n’est pas le cas (sauf s’il n’y a aucune erreur) et on obtient alors les
résultats suivants :
quement que cette condition est vérifiée si l’on fait le choix suivant (écriture
compacte) :
l1 l2 l3 l4 = 1 1 0
m1 m2 m3 m4 = 0 1 1
n1 n2 n3 n4 = 1 0 1
On obtient enfin la correspondance entre toutes les valeurs possibles non toutes
nulles de Z et les positions d’erreurs :
442 Le livre des techniques du son
n = 2k – 1
Cette dernière relation impose donc le choix de la longueur du mot binaire
d’origine m :
m = n – k
Ainsi, avec k = 3, on obtient n = 7 et m = 4, ce qui fut notre exemple.
Avec k = 4, on obtient n = 15 et m = 11…
✦ Code cyclique
La limitation des codes de Hamming tient au fait qu’ils ne peuvent localiser
qu’une erreur par mot binaire. Or, nous sommes incapables de savoir s’il y a eu
une ou plusieurs erreurs, sauf par des tests statistiques qui peuvent nous donner
une indication sur le nombre moyen d’erreurs par mots. Il est donc nécessaire de
prévoir des codes correcteurs multi-correcteurs, le cas échéant.
Un code cyclique résulte d’un codage linéaire séparable multi-détecteur et
multi-correcteur. Selon leur capacité de correction, on distingue les codes cycli-
ques simples (qui sont en réalité des codes de Hamming mono-correcteurs), les
codes BCH (multi-correcteurs orientés bits) et RS (multi-correcteurs orientés
octets).
Le code cyclique simple est également appelé CRCC (Cyclic redundancy correc-
ting code). Son principe est basé sur l’arithmétique des polynômes et la règle
utilisée est celle de la divisibilité. Pour cela, le message est d’abord écrit sous une
forme dite polynômiale : chaque bit (0 ou 1) devient le coefficient d’un des termes
de ce polynôme, la puissance de x de chaque terme indique l’emplacement du bit
correspondant (en partant de 0 pour le bit le plus à droite). On transcrit ainsi
aisément un message binaire en un polynôme en x :
Chapitre 8 – La technologie audionumérique 443
message : 1 0 1 0
polynôme correspondant : m( x ) = 1x 3 + 0 x 2 + 1x + 0 = x 3 + x
La technique du codage cyclique est alors de modifier ce polynôme m(x) (donc le
message binaire) de façon à le rendre divisible par un polynôme choisi appelé « poly-
nôme générateur » g(x). La théorie [2] impose un choix de ce polynôme compte tenu
en particulier de la longueur du message. En suivant notre exemple de message de
4 bits, la théorie nous conduirait à choisir un polynôme g(x) = x3 + x2 + 1.
Le codage consiste alors à faire les opérations successives suivantes :
• multiplier m(x) par x3 (3 est le degré de g(x)) ;
• diviser x3 m(x) par g(x) et noter le reste de cette division r(x) ;
• ajouter r(x) à x3 m(x) pour obtenir un nouveau polynôme p(x).
Alors, on montre que p(x) est à présent divisible par g(x) (ceci constitue la règle
qui sera à vérifier lors du décodage).
Dans notre exemple, on aura successivement :
• x3 m(x) = x6 + x4
• (x6 + x4)/g(x) r(x) = 1
• p(x) = x6 + x4 + 1 = 1x6 + 0x5 + 1x4 + 0x3 + 0x2 + 0x + 1
Il suffit à présent de retranscrire p(x) sous forme binaire pour obtenir le mot-code.
Il contiendra 7 bits, ses 4 premiers bits seront forcément les 4 bits du message
initial, les trois derniers seront la clé.
Dans notre exemple le message 1010 devient 1010 001.
Ce code sera noté C(7,4) : code cyclique à 7 bits dont les 4 premiers de message
(code séparable).
Imaginons que lors d’un traitement, le signal numérique correspondant au
© Dunod – Toute reproduction non autorisée est un délit.
mot-code subisse une altération telle que le mot-code devienne 1000 001 (c’est-à-
dire que le troisième bit en partant de la gauche se soit modifié).
En aval de ce traitement, le système décodeur va effectuer un contrôle de la vrai-
semblance de ce mot-code, donc le respect de la règle de divisibilité du polynôme
associé par g(x). Pour cela, il suffit d’effectuer la division du polynôme reçu par
g(x) et de noter le reste de cette division. Deux cas peuvent alors se présenter :
• le reste est nul : c’est donc qu’il n’y a pas d’erreurs, le message sera alors tiré
du mot-code ;
444 Le livre des techniques du son
✦ Codes convolutifs
Les codes vus précédemment généraient un mot-code avec une structure parti-
culière en ce sens où celui-ci était composé de deux parties : la partie message
initial et la partie contrôle.
Les codes convolutifs, au contraire, opèrent une transformation d’un bloc binaire
en un autre bloc binaire dans lequel tous les bits sont différents des bits initiaux
(le message initial n’apparaît donc plus). Le bloc final est plus long que le bloc
initial pour apporter la redondance indispensable à la procédure de détection et
de correction d’erreurs. On appelle « rendement » le rapport entre la longueur du
bloc initial et celle du bloc transformé. On utilise couramment les valeurs 1/2
(1 bit initial en engendre 2) et 2/3 (2 bits initiaux en engendrent 3). Ce sont ainsi
des codes très redondants pour lesquels on attend alors de très bonnes perfor-
mances de correction. Pour cela, on établit une règle de vraisemblance d’une
séquence reçue grâce aux calculs réalisés pour obtenir les blocs finaux. À la récep-
tion après traitement, on examine cette séquence et on vérifie ou non cette vrai-
semblance. Dans la positive, la séquence est déclarée sans erreurs et dans la
négative, on recherche une séquence « proche » qui suit la règle de vraisemblance
(c’est-à-dire avec un minimum de modifications, suivant un algorithme, dit de
Viterbi) ; cette nouvelle séquence est la correction estimée. Il faut noter que la
correction ne se fait pas de façon certaine (à l’inverse de ce qui se passait pour les
codes cycliques), mais ce système supporte bien plus d’erreurs.
Pour illustrer ce procédé, nous allons construire un code convolutif 2/1 avec un
calcul opérant sur 3 bits consécutifs initiaux (on dit alors que le code a une
« contrainte » de 3) :
Soient a, b, c trois bits consécutifs. Le bit c sera alors remplacé par deux bits c1 c2
grâce au calcul suivant :
00 00 00 11 01 01 00
446 Le livre des techniques du son
Ce qui est remarquable de voir, c’est que le quatrième doublet (11) ne peut pas
valoir autre chose que (11) ou (00), cette dernière valeur serait apparue si le
quatrième bit initial avait été 0, il en est de même pour le cinquième doublet qui
ne peut valoir que (01) ou (10), cette dernière valeur serait apparue si le cinquième
bit initial avait été 0 également (mais le quatrième à 1), et ainsi de suite. Ainsi, la
séquence binaire générée par le code convolutif est remarquable et guidée de
proche en proche par le passé : on dit qu’elle suit une « trajectoire » parmi un
ensemble de trajectoires possibles.
Alors, toujours dans notre exemple, la réception après traitement d’une suite telle
que 00 00 00 11 00 01 00… révèle une erreur car il est impossible que le cinquième
doublet soit « 00 » connaissant ceux d’avant. Il y a deux possibilités : « 01 » ou
« 10 », le choix se fera alors en essayant chacune des deux solutions et en exami-
nant la vraisemblance future (par exemple, si l’on choisit de corriger par « 01 », est
ce que les doublets suivants de la suite « 01 00… » sont sur une « bonne trajec-
toire » ? Si oui, la solution de correction envisagée est « certainement » la bonne,
sinon, il faut prendre l’autre solution de correction « 10 »).
Dans ce bloc, supposons que la séquence C soit reconnue fausse après contrôle,
alors que les autres sont reconnues bonnes. On peut alors ignorer toute la séquence
C reçue effectivement, (opération d’effacement), et la remplacer par une séquence
obtenue en faisant, verticalement dans le tableau, les sommes modulo 2 des
autres séquences A, B, D, P.
Ceci découle en effet de la propriété de la somme modulo 2 :
Si pi = ai ⊕ bi ⊕ ci ⊕ di
alors ci = ai ⊕ bi ⊕ ci ⊕ pi
Ainsi, dans un bloc muni d’un code de pointage d’erreur, il est possible de substi-
tuer le mot reconnu faux par une combinaison des autres.
On corrige, de cette façon, à coup sûr un mot faux par bloc.
La capacité de correction est ainsi augmentée par rapport à un code simple, au
prix d’une redondance plus élevée (adjonction du mot P).
et qi = z Aai ⊕ z Bbi ⊕ z C ci ⊕ z D di
La séquence Q est une combinaison linéaire des séquences A à D, dont les coeffi-
cients sont les mots respectifs ZA à ZD.
Si la séquence de contrôle associée à chaque message détecte deux erreurs par
tableau, il est alors possible d’effacer deux mots entiers et de les remplacer par
deux combinaisons linéaires des mots justes et de P et Q.
448 Le livre des techniques du son
Enfin, et ceci constitue la dernière extension, tout ce qui a été fait (parité, code
cyclique, mots P et Q) en raisonnant sur des mots constitués de bits, peut être
repris en raisonnant de la même façon sur des blocs constitués de mots.
Le code cyclique contrôle alors globalement un bloc de mots.
La substitution éventuelle se fait de même sur un bloc entier.
Cela revient à dire que les mots (de 16 bits par exemple) sont regroupés en « super-
mots » (de N 16 bits).
Cette procédure est employée lors de l’enregistrement sur support mécanique
parce que l’on s’attend à des erreurs groupées par paquets, c’est-à-dire qu’un
défaut sur le support provoquera des erreurs sur plus d’un mot.
Le tableau de l’exemple précédent devient alors un « super-tableau » où chaque
lettre représente maintenant un mot (code de Reed-Solomon généralisé [2]).
8.3.4 Entrelacement
La procédure précédente n’est pas toujours suffisante lors d’un enregistrement
sur support mécanique ou lors d’une transmission hertzienne. En effet, les défauts
éventuels du support mécanique sont en général relativement localisés, mais
importants : absence locale d’oxyde magnétique sur le disque ou la bande magné-
tique, rayure ou poussière sur le disque… De même les altérations lors de la trans-
mission hertzienne sont localisées dans le temps : parasite atmosphérique, écho
ponctuel par réflexion locale de l’onde sur un obstacle…
Lorsque ces défauts localisés n’ont pas lieu, la procédure de correction est inutile,
tout au moins largement sous-employée. Par contre, quand on arrive sur un
défaut, il se peut que l’ensemble du bloc, y compris les mots de substitution (P et
Q), soient faux, ce qui rend toute correction impossible. Dans ce cas, la procédure
de correction n’est pas suffisante.
L’idée est de trouver la « bonne moyenne ».
On utilise pour cela le procédé d’entrelacement dit aussi « propagation d’er-
reurs » qui consiste à ne pas présenter dans l’ordre les informations au
support, mais étaler dans le temps (et donc sur le support) des mots initiale-
ment successifs (de même pour les mots de contrôle et de substitution) :
figures 8.25 et 8.26.
• Cn et Pn : mots de contrôle et de substitution de la séquence, n à (n + 4).
• Les cases numérotées représentent les mots successifs.
Sur la figure 8.25, les mots « 16 » à « 18 » sont faux. Cela dépasse la capacité de
correction : P15 ne peut remplacer qu’un mot parmi les cinq de la séquence.
Chapitre 8 – La technologie audionumérique 449
Sur la figure 8.26 les erreurs localisées sont réparties dans des blocs différents
après désentrelacement.
On arrive alors à n’avoir qu’un mot faux maximum par bloc, ce qui est facilement
corrigible.
En effet, le mot « 10 » est le seul faux détecté par C10, il sera remplacé par la somme
modulo 2 de P10 et des mots « 11 » à « 14 ».
Idem pour le mot « 20 » détecté faux par C20 et remplacé à l’aide de P20.
450 Le livre des techniques du son
8.3.5 Interpolation
✦ Interpolation linéaire
Malgré tous les procédés successifs, il peut arriver que la correction soit impos-
sible. On fait appel alors à une dernière technique dite d’interpolation, basée sur
le seul fait que l’information numérique traduit toujours un son, phénomène
physique continu à variations continues.
De ce fait, la valeur analogique ne peut pas varier de manière très significa-
tive d’un échantillon à l’autre, ce qui fait que les valeurs binaires correspon-
dantes ne sont pas très différentes d’un échantillon au suivant. Dans ces
conditions, si on constate qu’un mot n’a pas été corrigé, on le supprime et on
le remplace par la moyenne de ceux qui l’encadrent (donc les échantillons
précédant et suivant).
Cette opération ne constitue pas une correction, mais une simple approximation.
Elle est souvent appelée compensation : figure 8.27.
À un instant donné, on ne peut écrire qu’un bit. Le message numérique doit donc
être impérativement en série.
Il est préférable de conserver le message échantillonné sous forme parallèle (le
débit est moins important).
Aussi, il est pratique d’avoir autant de circuits que de bits par échantillon. Ceci ne
change rien à l’organisation de la mémoire, mais multiplie simplement le nombre
de circuits. L’adresse est commune à tous les circuits ; chaque bit du message a
son propre circuit : c’est une organisation parallèle (figure 8.32).
Chapitre 8 – La technologie audionumérique 455
Il existe également des mémoires où un message est figé une fois pour toutes, sans
aucune possibilité d’écrire : ce sont les mémoires à lecture seule (ROM, Read only
memory). Ces mémoires conservent essentiellement des processus : c’est-à-dire
le cadencement des opérations à effectuer pour un traitement spécifique (ordres
d’écriture, recopie de mémoire à mémoire, adresses de lecture…) et plus généra-
lement des logiciels de base, comme le logiciel de démarrage d’une machine
numérique, dit programme boot.
Une variante de ces mémoires ROM existe sous la forme de mémoires qui peuvent
être effacées et reprogrammées (EPROM) par l’intermédiaire d’un appareil spéci-
fique, extérieur au système audionumérique : c’est un travail essentiellement
informatique, qui ne peut être exécuté en temps réel, c’est le cas, par exemple,
d’une mise à jour de logiciel de base.
Il existe enfin des mémoires identiques aux mémoires RAM, mais ne nécessitant
pas d’alimentation électrique continue en dehors des opérations d’écriture et de
lecture : ce sont les mémoires dites communément flash qui équipent les cartes à
puce, les cartes mémoire d’appareils photographiques, les clés USB… Le principe
est de « piéger » une charge électrique dans un « puits de potentiel » de manière à
ce que cette charge ne puisse plus s’échapper. (L’image que l’on pourrait donner
serait celle d’une bille pouvant tomber dans un creux ou dans un autre creux, en
l’absence d’énergie, la bille est piégée dans son creux et ne peut pas remonter sur
la bosse toute seule !)
Il faut pouvoir disposer des valeurs des échantillons ek . À l’instant t3 par exemple,
on dispose de l’échantillon d’entrée présent noté e3.
En supposant que la réponse impulsionnelle du filtre se résume à 4 valeurs non
nulles, il faut avoir conservé les 3 échantillons précédents (e2 à l’instant t2, e1 à
l’instant t1, e0 à l’instant t0).
On peut alors faire les produits suivants :
p0 = e0 r3
458 Le livre des techniques du son
p1 = e1 r2
p2 = e2 r1
p3 = e3 r0
L’échantillon à la sortie au même instant t3 sera s3 :
s3 = p0 + p1 + p2 + p3
s3 est un échantillon de la réponse du filtre numérique au signal d’entrée échantil-
lonné. À l’instant suivant t4, e4 est le nouvel échantillon d’entrée, les trois précédents
sont alors e3, e2 et e1 ; la même série d’opérations conduit à l’échantillon de sortie s4.
Ainsi, on construit, échantillon par échantillon, le signal de sortie du filtre numérique.
Une structure d’un filtre numérique est celle du filtre dit transversal de la figure 8.34.
Dans le filtre transversal, la sortie n’est fonction que de l’entrée et des entrées
précédentes. Il faut d’autant plus remonter dans le temps que la réponse r est
longue. Ceci n’est possible que si la réponse impulsionnelle est finie. Si cette
dernière est infinie (ou très longue), ce sera le cas de filtres très sélectifs
(« pointus ») ou à pente très raide, le filtre transversal conduit à un nombre prohi-
bitif d’opérations et le retard global s’accroît.
On fait alors appel à des filtres récursifs, dont la sortie sn est fonction des entrées
immédiates et précédentes, ainsi que des sorties précédentes :
Le calcul montre qu’on peut ainsi réaliser des filtres à réponse impulsionnelle
infinie (on fait en réalité un bouclage sortie-entrée). La réalisation découle de l’ex-
pression de sn et fait toujours intervenir des retards, additions et multiplica-
tions [3].
Enfin, tous ces calculs peuvent être réalisés facilement avec les techniques infor-
matiques, ce qui signifie que les filtres numériques ne sont pas nécessairement
des circuits électroniques, mais peuvent se réaliser grâce à des algorithmes de
calcul implémentés sur une machine informatique (ordinateur).
L’opération de filtrage devient alors une programmation logicielle et acquiert de
ce fait sa souplesse, en particulier, la mise en mémoire de programmation de
filtres et l’intervention quasi immédiate sur les caractéristiques d’un filtre pré
programmé ou non.
requises, mis à part, bien entendu, les entrées et sorties analogiques. En effet, les
« cartes son » traditionnelles sont loin d’être suffisantes en dehors d’un seul trai-
tement assez sommaire sur une information stéréophonique.
La console de production numérique peut donc se matérialiser sous forme d’un
ordinateur, de modules d’entrées et sorties analogiques ou numériques et d’un logi-
ciel spécialisé permettant d’effectuer les traitements propres à la production audio-
numérique. Le logiciel ProTools, une fois installé sur un ordinateur ayant une
configuration adaptée et accompagné de modules d’entrées-sorties tels que les
Mbox, constitue une « station audionumérique » (DAW, Digital Audio Workstation).
462 Le livre des techniques du son
✦ Méthodes différentielles
Le principe de ces méthodes est de coder non pas les échantillons successifs, mais
la différence entre l’échantillon actuel et le précédent. Le son étant un phénomène
physique, il ne peut pas y avoir de très grandes différences entre valeurs succes-
sives, ce qui fait que le nombre de bits alloués à la différence pourra toujours être
inférieur au nombre de bits que l’on devrait allouer pour chacune des valeurs :
c’est le principe DPCM (Differential pulse coded modulation). Ce principe a été
utilisé la première fois pour la téléphonie en passant de 8 bits par échantillon à
4 bits par différence. Bien entendu, il est nécessaire, de temps en temps, de trans-
mettre la valeur isolée d’un échantillon, pour éviter qu’il y ait une dérive acciden-
telle qui se propage (car si une différence se trouve être erronée, toutes les valeurs
restituées suivantes sont fausses !).
Toutefois, dans le cas pratique où le nombre de bits alloué à la différence est fixé,
il y a risque de dépassement accidentel (lors d’un son bref et impulsionnel par
exemple). Pour contourner cette difficulté, on introduit une quantification non
linéaire sur la différence, l’intervalle de quantification étant fonction de la diffé-
rence effectivement constatée lors du codage et de l’évolution dans le temps de
cette différence ; ainsi un même mot binaire peut signifier des valeurs différentes
de différence suivant le « contexte » : c’est le principe ADPCM (adaptative DPCM).
Par exemple si le système codeur enregistre 5 fois de suite une différence qui croît,
Chapitre 8 – La technologie audionumérique 465
il y a risque de dépassement pour les fois suivantes et donc il transmettra non plus
la valeur des différences suivantes, mais de celles-ci divisées par 2 et ainsi de suite
(division par 4, par 8… si la croissance continue). Au contraire, étant dans cette
situation, si le codeur enregistre à présent des différences qui décroissent, il
reviendra à la situation initiale. Le décodeur appliquera le même principe dès lors
qu’une normalisation fixera le « protocole » employé par le codeur (au bout de 5
croissances consécutives, diviser par 2, puis au bout de 3 autres, diviser par 4…).
Cette technique est employée dans les normes G721 et G722 de téléphonie numé-
rique à application de transmission audio de qualité « améliorée » (audioconfé-
rence par exemple).
✦ Méthodes perceptuelles
Ces procédés reposent sur l’effet de masque de l’audition humaine (voir § 4.2.1).
En effet, quand on fait le choix de 16 bits par échantillon, on se base sur la présence
systématique du bruit de quantification que l’on veut rendre inaudible dans toute
situation, ce qui amène à faire le choix d’un rapport S/N d’au moins 90 dB. Toute-
fois, en présence de sons « forts », on sait que l’effet de masque fera que des sons
« faibles » (et en particulier le bruit de quantification) seront parfaitement inau-
dibles même si leur puissance est de 30 ou 40 dB inférieure (selon le son
masquant). Dans ces conditions, il peut paraître intéressant de n’employer que le
nombre de bits juste nécessaire pour assurer un rapport S/N des mêmes 30 ou
40 dB.
Ce principe peut être affiné en considérant l’effet de masquage fréquentiel :
certaines composantes de « fortes » amplitudes d’un son peuvent alors masquer
physiologiquement d’autres composantes « plus faibles » de ce même son. Afin de
tirer le meilleur profit de cet effet de masquage, il est avantageux de diviser
le spectre audio en un certain nombre de sous-bandes, afin de préciser au mieux
le niveau de masquage dans chacune des ces sous-bandes et ainsi réaliser une
allocation binaire juste suffisante pour chacune d’entre elles.
© Dunod – Toute reproduction non autorisée est un délit.
Ces techniques sont à la base des procédés MUSICAM, DOLBY AC3 et MPEG
Audio.
Tableau 8.3 — Résumé des standards de transmission de son sans réduction de débit.
Bande Débit de
Standard Techniques Utilisation
passante transmission
traitements et
AES/EBU stéréo numérisation
1,54 Mbit/s enregistrements
48 kHz 20 – 20 000 Hz 16 bits
professionnels
Format Débit de
Standard Techniques Utilisation
d’origine transmission
numérisation
NICAM radiodiffusion
EBU 32 kHz codage par plages 728 kbit/s
(32 kHz) télévisuelle
14 puis 10 bits
filtrage 32 bandes
MPEG numérique évaluation
32 à 448 kbit/s stockage
Audio I 48 kHz – 16 bits masquage,
bon à 192 kbit/s* mémoires
« mp1 » (AES/EBU) allocation binaire
adaptée
filtrage 32 bandes
calcul masquage
MPEG numérique par FFT, quantifica
32 à 320 kbit/s multimédia
Audio III 48 kHz – 16 bits tion non linéaire,
bon à 64 kbit/s* Internet
« mp3 » (AES/EBU) allocation binaire
adaptée, codage
statistique
*Les deux valeurs de débit indiquent les bornes inférieures et supérieures en fonction de la composition
du son; « bon à » signifie que le débit indiqué est celui d’un canal qui permettra une « bonne » restitution
du son, en tolérant donc quelques imperfections (car comme cette valeur est inférieure à la valeur
maximale du débit possible, il arrivera que le tampon de sortie ait tendance à déborder ce qui entraînera,
comme nous l’avons vu, une légère dégradation de qualité).
© Dunod – Toute reproduction non autorisée est un délit.
Chapitre 8 – La technologie audionumérique
✦ Méthodes paramétriques
Cette méthode consiste, contrairement aux autres, à ne pas transmettre les
échantillons du son, mais les caractéristiques (paramètres) de ce son, propres
à pouvoir le reconstituer à l’arrivée. De façon simpliste, si un son n’était
composé que de sons purs, on pourrait alors lui associer l’ensemble des
données (amplitude, fréquence) qui décriraient parfaitement son spectre,
donc le son associé. On réalise ainsi une analyse du son, un codage et une
transmission des paramètres associés, puis enfin une synthèse du son pour la
reproduction. Cette méthode nécessite d’avoir des systèmes d’analyse et de
synthèse performants afin de pouvoir restituer un son (même très complexe)
avec une fidélité absolue. Cette méthode est actuellement employée pour la
voix exclusivement dans la mesure où le processus de la création de la voix est
bien connu. Il existe ainsi un « modèle de production de la parole » constitué
principalement de trois objets : la production d’air (poumons), la création de
la vibration (cordes vocales), le filtrage (cavité bucco-nasale) ; à ces trois
objets, on peut associer assez facilement un certain nombre de paramètres
déterminants. Pour la reproduction, on fait alors appel à un synthétiseur vocal
composé des mêmes objets (ou plutôt de leur réalisation électronique)
commandé par les paramètres reçus.
Cette méthode est utilisée notamment pour la transmission de la parole en télé-
phonie mobile cellulaire (GSM), mais n’a pas encore d’applications pour le stoc-
kage ou la transmission de la musique, étant donné la grande complexité des sons
musicaux et le grand nombre de modèles qu’il faudrait pouvoir répertorier et
appliquer (instruments de musique, voix chantée).
F1 pour enfin devenir un standard avec la DAT (Digital Audio Tape). Ce format
fonctionnel 2 pistes devait remplacer la cassette analogique du grand public mais
a été détourné par les professionnels pendant quelques temps pour servir d’enre-
gistreur de masters. Le montage s’effectuait avec des bancs vidéo et nécessitait la
recopie d’une machine sur l’autre. Il était long et ne permettait pas l’erreur car il
fallait alors tout recopier… Mais les premiers CD sont sortis avec ce type de
machine.
✦ Format DVD
Le standard DVD (Digital versatile disc) est le successeur du CD-audio. Il a été
conçu pour permettre de stocker un programme vidéo et plusieurs programmes
audio sur un disque de 12 cm de diamètre. Suivant sa fabrication (1 face ou
2 faces, 1 ou 2 couches par face), sa capacité varie de 5 Go (gigaoctets) jusqu’à
17 Go. Pour cela, la gravure mécanique est du même type que celle utilisée pour
le CD-audio, mais est beaucoup plus fine : cuvette de dimension minimale
0,4 m et pas de la spirale de 0,7 m. Ceci a été rendu possible grâce à l’évolution
technologique de la lecture laser ainsi que du pressage). Les programmes sont
bien sûr compressés (procédé MPEG) et un système de correction d’erreurs
(similaire à celui utilisé pour le CD) a été mis en place [7].
F Format Blu-Ray
Le procédé Blu-Ray fonctionne suivant le même principe général de la gravure
mécanique et de la lecture optique à la différence près que la gravure est encore
plus fine : cuvette de dimension minimale 0,15 μm et pas de la spirale de 0,32 μm.
Ces dimensions permettent une densité de gravure plus importante et donc une
capacité typique de 50 Go. Le suivi de piste et la lecture d’une cuvette ne sont
optiquement possibles que si la longueur d’onde de la lumière produite par le
laser est de l’ordre de grandeur du pas de spirale (0,32 μm), ce qui a conduit à
adopter un laser de lecture de longueur d’onde 0,4 μm, cette lumière est bleu
violacé, d’où le nom de ce format (« rayon bleu »), alors que le DVD utilise un laser
rouge de longueur d’onde 0,65 μm, suffisant relativement à la gravure du DVD,
mais trop grande pour la lecture d’un Blu-Ray, d’où l’impossibilité de lire un
Blu-Ray avec un lecteur DVD, l’inverse étant naturellement possible.
1. Mis au point par Mitsubishi Electric UK, Neve Electronic International, Solid State Logic et Sony Broad-
cast & Communication Ltd.
Chapitre 8 – La technologie audionumérique 477
Il faut noter que ces modulations, produisant un signal électrique, sont appli-
cables directement pour une transmission hertzienne ou sur câble en cuivre ; ce
sont des méthodes qui relèvent de l’électronique. En revanche, dans le cas d’une
transmission par une fibre optique, ces mêmes modulations sont intermédiaires,
le résultat de cette première modulation (signal électrique) étant à son tour
modulé en amplitude de lumière, grâce à une diode laser, la fréquence de cette
lumière laser jouant le rôle de nouvelle « onde porteuse » qui va se propager dans
la fibre jusqu’à la réception par une photodiode ; ce sont des méthodes qui relèvent
ici de l’optoélectronique.
Enfin, ces méthodes optoélectroniques via la propagation dans une fibre optique
ont un avantage considérable par rapport à la transmission hertzienne ou la
transmission sur câble en cuivre : c’est la quasi-insensibilité aux parasites électro-
magnétiques, la fibre optique (matière plastique) étant un milieu confiné et
insensible aux inductions électriques.
prétées comme étant des tables : PAT (Program allocation table : table des numéros
de chaîne) et PMT (Program map table : table des contenus vidéo, audio et infor-
mations associées). Ces tables indiquent les numéros des paquets suivants qui
correspondent à des programmes et contenus précis, ce qui permet de reconsti-
tuer les programmes à partir des paquets qui sont intercalés entre eux et de les
diriger vers la « bonne » chaîne de traitement (son, image, texte…) [9].
8.7 Bibliographie
[1] G. Mahé, Systèmes de communications numériques, Ellipses, 2012
[2] J.-G. Dumas, J.-L. Dumas, J.-L. Roch, É. Tannier et S. Varette, Théorie des codes, compres-
sion, cryptage, correction, Dunod, 2e édition, 2013.
[3] E. Tisserand, J.-F. Pautex et P. Schweitzer, Analyse et traitement des signaux, méthodes et
applications au son et à l’image, Dunod, 2e édition, 2009.
[4] C. Leider, Digital Audio Workstation, Mc Graw Hill, 2004.
[5] N. Moreau, Outils pour la compression des signaux, application aux signaux audio,
Hermès Lavoisier, 2009.
[6] J.-C. Hanus et C. Panel, Le Compact Disc, ETSF, 1985.
[7] G. Zenatti, Le DVD, Hermès, 1997.
[8] A. Glavieux et M. Joindot, Introduction aux communications numériques, Dunod, 2007.
[9] H. Benoit, La télévision numérique, satellite, câble, TNT, ADSL, TV mobile, Dunod,
5e édition, 2010.
Annexes
Rappel de notions
de mathématiques,
physique, mécanique
Moyenne d’une fonction dans un intervalle, par exemple fonction du temps y(t)
entre t1 et t2 où y prend la valeur yi dans chaque intervalle t :
1 t2
y= ∑ yi ∆ti (A3)
t 2 − t1 t1
Annexes – Rappel de notions de mathématiques, physique, mécanique 483
On peut aussi le désigner par rapport à des vecteurs unitaires appelés par exemple,
e1, e2, e3 de longueur égale à l’unité et portés par les trois axes :
U = u1 e1 + u2 e2 + u3 e3 = ∑ i ui ei (A5)
l’indice i indiquant qu’il faut faire la sommation sur les trois valeurs de i.
Un tenseur d’ordre k est une grandeur résultant de nk composantes dans un espace
à n dimensions : 4 dans un plan, 9 dans notre espace, pour un tenseur d’ordre 2.
Le tenseur d’ordre 2 est désigné par deux indices : Tij avec i, j = 1, 2, 3. Exemples :
contraintes dans un solide.
Il résulte de ces symboles que toute équation vectorielle écrite avec un indice i
représente en fait trois équations scalaires, écrites chacune avec i = 1, 2, 3, ce qui
correspond en fait aux projections sur les trois axes.
Une équation comportant un tenseur Tij représentera trois équations (i ou j = 1, 2,
3), les termes à double indice étant la somme de termes écrits avec j (ou i) = 1, 2, 3.
Le gradient d’un scalaire , défini en chaque point x, y, z, de l’espace est un vecteur
qui mesure les variations de cette grandeur suivant les directions de l’espace.
En coordonnées cartésiennes, ces composantes sont donc :
δΦ δΦ δΦ δΦ
, , , ou (A6)
δx δy δz δxi
On écrit :
grad = (A7)
L’opérateur est dit « nabla ».
La plupart des fonctions usuelles sont représentables par un nombre fini ou infini
de termes, dits développements en série de puissances :
On voit sur la figure que les courbes cos et sin sont décalées de : on dit qu’elles
2
sont en quadrature ou déphasées de .
2
π π π
cos x = sin x + , sin x = − cos x + = cos x − (A11)
2 2 2
On démontre que ces fonctions s’échangent l’une l’autre par dérivation, avec un
changement de signe :
d sin x d cos x d 2 sin x
cos x , sin x , = − sin x (A12)
dx dx dx 2
Les développements en série de puissance de ces fonctions sont :
x3 x5 x 2n+1
+ + + ( −1) + (A13)
n
sin x = x −
3! 5 ! (2n + 1) !
x2 x4 n x
2n
cos x = 1 − + + + ( −1) +
2! 4 ! (2n) !
(la notation « factorielle n », n ! désigne le produit n ! = 1 2 3… (n – 1) n).
On voit que pour des angles x très petits, sin x équivaut à x et cos x est voisin de 1.
Bien d’autres relations classiques sont données dans les cours et formulaires.
Fonction exponentielle : c’est la solution particulière de l’équation y = y.
(De ce fait, toutes les dérivées d’ordre quelconque, sont égales à la fonction :
y = y = y, etc.)
La résolution de cette équation par une série de puissance donne la solution sous
forme d’un développement dont les termes sont proportionnels à a0, valeur
restant arbitraire (en raison de la forme linéaire de l’équation). Si on choisit a0 = 1,
on définit par cette série, la fonction exponentielle (figure A5) :
x2 x3 xn
exp ( x ) = 1 + x + + + + (A14)
2 3! n!
Cette série essentielle est convergente pour – 1 < x < 1.
Pour x = 1, cette série tend, quand n , vers un nombre incommensurable (qui
comporte un nombre infini de décimales) dit nombre e :
1 1 1 1
e = 1 + 1 + + + + + + = 2, 71828 (A15)
2 6 24 n!
Annexes – Rappel de notions de mathématiques, physique, mécanique 487
Les logarithmes de rapports, exprimés avec la base 10, conduisent aux bels et
décibels ; avec la base e, on obtient les népers et les décinépers. Les logarithmes de
base 2 définissent les octaves, tiers d’octave des intervalles fréquentiels.
De même que la fonction exp x est la solution de l’équation différentielle y = y, la
fonction inverse est solution de l’équation intégrale :
dy d
d
x (log e y ) (A19)
y dx
dlog a y 1 1
log a e (A 20)
dy log e a y
Si on tourne ce vecteur ex de deux fois /2, on obtient sur Ox le nombre – 1, donc :
1
1π/2 ×1π/2 = j 2 = −1 et = − j (A 26)
j
On appelle axe réel l’axe Ox, Oy étant l’axe imaginaire.
Le vecteur U s’écrira d’après ces définitions :
U = Ux + Uy = uxex + uyey (A27)
ou plus simplement :
z = ux + j uy avec |z| = |U| = (ux2 + uy2)1/2 (A28)
490 Le livre des techniques du son
ou encore :
−a2 = ja (A30)
Le calcul des fonctions de variables complexes f (z) = f (x + jy) permet d’opérer
instantanément sur les deux composants d’un vecteur, donc à la fois sur les gran-
deurs et les phases.
D’après la loi élémentaire de la mécanique, la force est par définition l’action qui
donne à une masse M une accélération , d’où :
d2x
F = Mγ = M (A37)
dt 2
mesurée en newtons.
C’est un vecteur, comme la vitesse et l’accélération. Dans le système dit « pratique »
l’unité de force donne à cette masse l’accélération g de la pesanteur. C’est la force
de pesanteur ou kilogramme-force, avec g = 9,81 m/s2.
1 kgforce = 1 9,81 N
De ce fait, pour les ordres de grandeur, les mécaniciens disent :
= FLcos
La pression p sur une surface S est un ensemble d’efforts répartis sur elle, telle que
la résultante normalement à chaque élément de surface est une force F cos.
F
P = cosϕ mesurée en pascals (newton/m2)
s
étant l’angle de F avec la normale à s.
Il faut noter que ces grandeurs : newton, pascal, sont très petites. Elles conviennent
pour l’acoustique, où les forces et pressions sont faibles, mais beaucoup moins
pour la mécanique générale. La pression atmosphérique est de l’ordre de
105 pascals (100 000).
Si le rapport F/s est une pression, le produit F · s est un flux de force. = F · S cos ,
étant toujours l’angle de F avec la normale à la surface.
P et (résultat d’un produit scalaire de deux vecteurs, force et normale à la
surface) sont des grandeurs scalaires.
Annexes – Rappel de notions de mathématiques, physique, mécanique 493
W = /t mesuré en watts (joules par seconde) unité dont le symbole est W.
m = 1, 2… les coefficients a0, am étant calculés à partir des théorèmes de Fourier sur
les valeurs des moyennes des produits de fonctions trigonométriques, en multi-
pliant la fonction initiale g, successivement par toutes les fonctions sin mx, cos mx.
Si la fonction g est initialement une sinusoïde, de fréquence f, seul a1 (et b1)
© Dunod – Toute reproduction non autorisée est un délit.
existent, tous les autres coefficients sont nuls. Cette transformation donne donc
la série des fréquences qui composent le signal g(x) ou g(2 ft).
Ce calcul est fait dans l’intervalle représentant la période T du phénomène,
puisqu’il suffit de connaître g dans cet intervalle pour le connaître partout :
g(t + nT) = g(t).
Plus la période T est grande, plus la fréquence fondamentale f = 1/T est petite, et
plus les intervalles entre les différentes fréquences composant ce phénomène,
égaux aussi à f, sont petits, donc le nombre d’harmoniques nécessaire pour définir
g, est grand.
494 Le livre des techniques du son
+T
G( f ) = F[ g (t )] = lim ∫ g (t )exp(− j 2πft )dt (A39)
T →∞
−T
f
g (t ) = F −1
f →∞ [G( f )] = lim ∫ G( f )exp( f 2πft )df (A40)
f →∞
−f
2
dt dt
Nous ne discuterons pas plus en détail de cette équation et sa solution, problème mathé-
matique très classique, mais nous donnerons simplement les résultats essentiels :
• Si l’amortissement est important,
b K
(A 42)
2M M
Si la masse est munie d’un crayon qui trace (sans frottement !) un trait sur un
papier qui se déplace horizontalement, elle inscrit la courbe de cette oscillation en
fonction du temps, qui est une sinusoïde (figures 1.1 et 1.2). En l’observant assez
longtemps, on constatera la diminution progressive d’amplitude. Avec un amor-
tissement b non nul, la fréquence est un peu faible :
1 K b2
fa = − (A 46)
2π M 4 M 2
b
et l’amplitude décroît exponentiellement comme le facteur exp − t en
2M
fonction du temps t. Le cas limite entre les amortissements « faibles » ou « forts »
est l’amortissement critique, pour lequel :
b K
(A 47)
2M M
La décroissance de l’amplitude x est toujours continue, mais plus rapide que dans
les cas « très amortis », et à la limite de l’oscillation qui apparaît dès que b est un
peu plus petit (figure 1.2).
Annexes – Rappel de notions de mathématiques, physique, mécanique 497
Cette amplitude passe par un maximum pour f = f0, = 1 : égalité de la fréquence
d’excitation et de la fréquence propre : résonance (figures A6 et A7).
Mω0
xm = X 0 (A51)
b
Cette amplitude serait infinie sans amortissement (b = 0). Avec un amortisse-
ment « l’acuité » de la résonance est caractérisée par le « coefficient » de surten-
© Dunod – Toute reproduction non autorisée est un délit.
sion ou « facteur de qualité » (car c’est une qualité, dans certains cas, pour un
résonateur, d’être très sélectif) :
Xm Mω0
Q= = (A52)
x0 b
Les oscillations de la masse M (équation A49) ne sont pas en phase avec la force
excitatrice F = F0 sin t, c’est-à-dire qu’elles ne passent pas au même moment par
1. On trouve aussi l’orthographe « déflection » calquée de l’anglais, qui semble utiliser les deux
orthographes.
498 Le livre des techniques du son
leur maximum (ou point zéro, ou minimum). Cet écart dans le temps est le dépha-
sage a de l’amplitude, donné par tg en fonction du rapport des fréquences.
En dessous de la résonance, c’est-à-dire pour f < f0, le terme de raideur est prépon-
dérant dans les forces en présence (éq. A41), (système commandé par le ressort,
stiffness controlled), car l’inertie et le frottement proportionnels à 2 et sont
petits devant kx.
π
1 – 2 est positif, tg a négatif, et l’angle de phase a varie de 0 à − , quand f croît
2
de 0 à f0. La vitesse vibratoire étant en avance de phase de sur l’amplitude (la
2
π
À la résonance, f = f0, tg a est infini, ϕa = − , ϕv = 0 , l’amplitude de la vibra-
2
tion forcée est en quadrature retard avec la force, et la vitesse est en phase.
NB : pour b = 0, l’équation (A49) n’est pas valable, car elle conduit à une indéter-
mination pour = 1. Le calcul fait dans ce cas, conduit à une phase constante
π 3π π
ϕv = pour f < f0 et pour f > f0, ϕv = = − , car un retard de 3/4 de tour
2 2 2
équivaut à une avance de 1/4.
π
Pour un amortissement faible, la phase v « tourne » donc rapidement de + à
π 2
− en passant par 0 à la résonance (passage discontinu instantané dans le cas
2
théorique d’amortissement nul, voir figure A7). Ceci est utilisé pratiquement
pour détecter une résonance, car il est plus précis de déterminer le zéro d’un
phénomène que le passage par un maximum.
L’acuité d’une résonance (« sélectivité » d’un oscillateur) est évidemment définie
par la surtension Q (éq. A52) ou plus pratiquement par la notion de bande
passante, bande de fréquence dans laquelle l’amplitude est supérieure à une frac-
tion choisie de l’amplitude maximale, par exemple, la moitié, ou le rapport
1 / 2 0, 707 ; la phase tourne très rapidement dans cet intervalle, par exemple
ππ ππ
de++ à −− dans le premier cas (voir figure A7).
44 44
© Dunod – Toute reproduction non autorisée est un délit.
1 2 1 2
Mv + Kx = W , constante (A53)
2 2
Le premier terme est l’énergie cinétique du système, accumulé dans la masse en
mouvement. Le second est l’énergie potentielle, accumulée dans le ressort déformé.
Comme v et x sont constamment en quadrature de phase, l’un est nul quand
l’autre est maximal et inversement. L’équation (A53) indique donc que l’oscilla-
tion est un échange permanent d’énergie cinétique de la masse avec l’énergie
potentielle du ressort et réciproquement, leur somme est constante.
L’amortissement (et le rayonnement sonore) quand ils interviennent, prélèvent
constamment une proportion W d’énergie sur le « stock » W. C’est cette énergie
W qu’il faudra fournir pour entretenir le mouvement.
Le coefficient de surtension (ou « facteur de qualité ») Q est égal au produit par 2
de ce rapport W/W, soit en fonction de l’amortissement b :
∆W 2π b
= = (A54)
W Q Mf 0
T f = constante
Dans le cas hypothétique d’un oscillateur sans frottement, excité à la résonance,
la durée des régimes transitoires serait infinie, pour stocker l’énergie infinie
© Dunod – Toute reproduction non autorisée est un délit.
Champ direct/réverbéré – Damping, voir amortissement Écran (effet d’) – baffle effect,
direct/reverberant field, 121 DASH, 472 42
Champ électrique, 293 Dead room, voir chambre Écrêtage – clipping, 360
Champ magnétique – sourde EDT (Early Decay Time),
magnetic field, 313, 383 Deafness, voir surdité 148, 158, 164
Charge électrique, 293 Débit d’information, 248 Effacement – erasure, 399
Clark M. & Luce D., 55 Débit pulsé, 31 Effet magnétique, 312
Clarté, 169, 172 Décibel (dB), 33 Efficacité latérale, 171
Clipping, voir écrêtage Demi-ton tempéré, 213 Égalisation de lecture, 402
Cochlée – cochlea, 231 Densité spectrale – spectrum Élasticité – compliance, 6, 24
Cocktail Party (effet), 220 density, 172 Électricité statique – static
Code temporel – time code, Dérivateur, 371 electricity, 295
286 Dérivée, 265, 482, 488 Électro-aimant, 319
Coïncidence (fréquence de), Désaccentuation – de Électrocinétique, 341
181 emphasis, 282 Électromagnétisme, 382
Comb filter, voir peigne Diamagnétique, 386 Électrostatique (micro-
(filtre en) Différence de potentiel phone) – condenser, 302
Complexes (nombres), 354, (d.d.p.), 296 Élongation, 6
365 Diffraction – diffraction, 87 Émergence, 72
Compliance, voir élasticité Diffuseurs, 133 Énergie incidente/réfléchie,
Conque d’orchestre, 158 Diffusion acoustique – scat- 87, 165
Console numérique, 460 tering, 88 Enregistrement, 400
Control room, voir cabines Directionnalité – directional Enregistrement magnétique
de prise de son characteristic, 60 – recording, 381, 394
Conversion, 419 Distance critique, 145 Entrefer (effet d’) – gap
Convolution, 253 Distorsion harmonique, 271 effect, 403
Cordes vibrantes, 13 Durée de réverbération, 115, Entrelacement, 448
Correction d’erreurs, 288 118, 144, 147 Épaisseur (effet d’), 405
Corrélation (coefficient de), DVB, 468, 478 Equalization, voir correction
170 DVD, 468, 474 Erasure, voir effacement
Couplage acoustique – Dynamique, 53, 269 Exponentielle (fonction),
acoustical coupling, 120 206
Courant alternatif – alterna-
tive current, 337, 349 E Exposimétrie, 240
Eyring (formule d’), 119
Courant électrique, 299 Earphone, voir casque
Critique (fréquence), 181 Échantillonnage – sampling,
251
Écho, 109 F
D Écoute, 224, 228
Écoute au casque, 225
Facteur de dissemblance,
170
DAB, 468, 478 Écoute naturelle – natural Facteur de réflexion – reflec-
Dalle flottante, 196 listening, 214 ting coefficient, 40, 90, 91
Index 505
184
analyse fréquentielle Induction magnétique, 387 length, 14, 26, 86
Fresnel (représentation de), Inertie acoustique, 172 Loudness, voir sonie
353 Information (notion d’), 245
Front d’onde, 107 Inharmoniques (sons), 51
Instrument de musique – M
Magnetic recording, voir
G musical instrument, 47
Intégrateur, 372 enregistrement magnétique
Gabarit, 369 Intelligibilité, 77, 172, 209 Magnétisme, 382, 400
Gain, 366 Intensité sonore – sound Masque (effet de) – masking
Gamme tempérée, 213 intensity, 24, 205 effect, 214, 218
506 Le livre des techniques du son
Vent – wind, 39
Seuil d’audibilité – threshold Tape, voir bande magnétique
Ventilation, 197
of hearing audibility, 204 Temps de propagation de
Ventre – antinode-loop, 12
Seuil de douleur, 204 groupe, 268
Violon, 62, 63
Shannon, voir Nyquist Temps de réverbération
Viscosité de l’air, 38
Side band, voir bande latérale (RT60), voir durée de
Voix (chantée, parlée) –
Signal, 4, 245 réverbération
voice, 76
Signal to noise ratio, voir Tension – voltage, 298
Voltage, voir tension
rapport signal sur bruit Tessiture, 74
VU (volum unit), voir unité
Sinusoïdal (signal), 4, 14, Têtes magnétiques –
de volume
349, 353 magnetic head, 320, 397
VU-mètre – VU-meter, 352
508 Le livre des techniques du son
W Z
Wave front, voir front d’onde Zone d’émission, 157
Wave length, voir longueur Zone de réception, 158
d’onde
Weiss (domaines de), 391
White noise, voir bruit blanc
Le Livre des techniques du son
Collectif d’auteurs sous la direction de Denis Mercier
Tome 2 La technologie
4e édition
Sommaire :
Introduction à la technologie audiofréquence. Les micro-
phones. Les enceintes acoustiques. Les consoles. Le traite-
ment du son. Les systèmes d’enregistrement et les réseaux
audio. La synchronisation. Les sources électroniques et le
MIDI. Analogies
Tome 3 L’exploitation
4e édition
Sommaire :
La prise de son stéréophonique. Les supports audio. Le studio
d’enregistrement. La sonorisation. Le théâtre. La radio. Le
cinéma sonore. La télévision
72422 - (I) - (1) - OSB 80° - BPA - API
JOUVE
1, rue du Docteur Sauvé, 53100 MAYENNE
Imprimé en France