Vous êtes sur la page 1sur 528

Collectif d’auteurs sous la direction de

D. Mercier

Le livre des
techniques du son

Notions fondamentales

Tome 1

5 e édition
Le pictogramme qui figure ci-contre d’enseignement supérieur, provoquant une
mérite une explication. Son objet est baisse brutale des achats de livres et de
d’alerter le lecteur sur la menace que revues, au point que la possibilité même pour
représente pour I’avenir de I’écrit, les auteurs de créer des œuvres
particulièrement dans le domaine nouvelles et de les faire éditer cor-
de I’édition technique et universi- rectement est aujourd’hui menacée.
taire, le développement massif du Nous rappelons donc que toute
photocopillage. reproduction, partielle ou totale,
Le Code de la propriété intellec- de la présente publication est
er
tuelle du 1 juillet 1992 interdit interdite sans autorisation de
en
Le effet expressément
pictogramme quila photoco-
figure ci-contre d’enseignement de son provoquant
I’auteur,supérieur, éditeur ou une
du
pie à usage
mérite une collectif sans autori
explication. Son -objet est Centre des
baisse brutale français d’exploitation
achats de livres et du
de
sation desleayants
d’alerter droit.
lecteur surOr,la cette
menacepratique
que droit
revues,de copie
au point que (CFC, 20, même
la possibilité rue pour
des
s’est généralisée
représente dans les
pour I’avenir deétablissements
I’écrit, les auteurs 75006
Grands-Augustins, Paris).
de créer des œuvres
particulièrement dans le domaine nouvelles et de les faire éditer cor-
de I’édition technique et universi- rectement est aujourd’hui menacée.
taire, le développement massif du Nous rappelons donc que toute
photocopillage. Couverture : Rachid reproduction, Maraï partielle ou totale,
Illustrations intérieures
Le Code de la propriété intellec- : Alain et Ursula de laBouteveille-Sanders
présente publication est
tuelle du 1er juillet 1992 interditet Rachid Maraï  interdite sans autorisation de
en effet expressément la photoco- I’auteur, de son éditeur ou du
pie à usage collectif sans autori- Centre français d’exploitation du
sation des ayants droit. Or, cette pratique droit de copie (CFC, 20, rue des
s’est généralisée dans les établissements Grands-Augustins, 75006 Paris).
Le Code de la propriété intellectuelle n’autorisant, aux termes de l’article
L. 122-5, 2° et 3° a), d’une © Dunod,part, que2002, 2010, 2015
les « copies ou reproductions strictement
réservées à l’usage privé 5 rue duLaromiguière, 75005àParis
copiste et non destinées une utilisation collective »
et, d’autre part, que les analyses et les courtes citations dans un but d’exemple et
www.dunod.com
d’illustration, « toute représentation ou reproduction intégrale ou partielle faite
© Éditions Fréquences, Paris, 1987, 1990 pour les deux premières éditions
sans le consentement de I’auteur ou de ses ayants droit ou ayants cause est
illicite » (art. L. 122-4).
Cette représentation ou reproduction,ISBN 978-2-10-072422-2
par quelque procédé que ce soit, constitue-
rait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code
Le Code de lade propriété intellectuelle.
la propriété intellectuelle n’autorisant, aux termes de l’article
L. 122-5, 2° et 3° a), d’une part, que les « copies ou reproductions strictement
réservées à l’usage privé du copiste et non destinées à une utilisation collective »
et, d’autre part, que les analyses et les courtes citations dans un but d’exemple et
d’illustration, « toute représentation ou reproduction intégrale ou partielle faite
sans le consentement de I’auteur ou de ses ayants droit ou ayants cause est
illicite » (art. L. 122-4).
Cette représentation ou reproduction, par quelque procédé que ce soit, constitue-
rait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.
Préface

Les livres sur la prise de son sont très rares et toujours incomplets. Il n’existe guère
dans cette discipline d’ouvrage de référence susceptible de recouvrir tous les
domaines mis en jeu par « l’ingénieur » ou l’opérateur de prise de son. Les auteurs
de traités d’enregistrement sonore développent dans leurs écrits un des aspects de
leur talent, mais aucun n’a réellement tenté de présenter de façon exhaustive l’en-
semble des techniques qu’il est conduit à utiliser dans l’exercice de sa profession.
Au reste, qui pourrait prétendre maîtriser toutes les facettes d’un métier qui
associe de façon aussi complexe des techniques qui relèvent tout autant des
sciences de l’ingénieur que de celles de l’art.
Comme le Jupiter de la fable, le fabricateur souverain dut créer les preneurs de
son… besaciers tous de même manière ; il fit pour leurs techniques la poche de
devant et celle de derrière pour leur inspiration et leur créativité.
Car la prise de son cesse d’être une simple technique dès lors que le message
sonore est destiné à être reçu et interprété par le cerveau. Elle devient alors une
expression qui affecte la sensibilité de l’individu au même titre que toute autre
forme d’interprétation créatrice.
Et il faut bien reconnaître que cette composante est certainement la moins bien
comprise ou la plus difficile à exprimer dans la prise de son contemporaine.
Confiants dans les évolutions technologiques, les opérateurs, comme les consom-
mateurs ont trop souvent la tentation de se reposer sur les performances infail-
libles des machines. Ils pensent, sans se départir de leur sens critique, que certains
labels offrent toutes les garanties, que la copie sera conforme à l’original.
Mais la recherche exclusive de cette conformité constitue un contresens fonda-
mental du rôle de l’ingénieur du son. Non seulement parce que la restitution
IV Le livre des techniques du son

« fidèle » est une utopie mais aussi et surtout parce qu’elle n’a pas sa place dans un
processus d’interprétation ou de création.
Les musiciens connaissent bien le problème de la restitution d’une œuvre et de
nombreux mélomanes s’accordent à penser que l’asservissement à l’esprit d’un
auteur, au style d’une époque ou au respect formel des timbres instrumentaux
d’origine, semble un débat quelque peu dépassé (la meilleure interprétation du
Sacre est-elle celle de Stravinsky ?). Une notion que l’on pourrait traduire par un
raccourci un peu schématique en admettant que la restitution (trop) fidèle d’une
œuvre sonore peut être aussi limitée sur le plan expressif qu’une photographie
aérienne : peut-on la comparer à l’œuvre d’un paysagiste ?
Car l’intégrité du message sonore initial est non seulement illusoire mais inutile et
encombrante… L’oreille qui possède de remarquables capacités d’adaptation à son
environnement a pour habitude de sélectionner une partie des informations – dans
le temps comme dans l’espace – pour les amplifier, les moduler ou les classer afin de
mieux les intégrer dans le contexte suggéré par l’œuvre ou imaginé par l’auditeur.
Cette plasticité auditive permet au sujet d’interpréter le message et de hiérarchiser
les informations qu’il contient. Dès que le cerveau a reconnu leur signification
cognitive, culturelle ou affective, il leur attribue des valeurs relatives qui deviennent
indépendantes de la nature du message et de la voie sensorielle empruntée. Ainsi,
dans la perception d’une œuvre audiovisuelle la conjugaison des signaux reçus par
les canaux auditifs et visuels déclenche généralement une « image » intégrée ou
conceptuelle qui est perçue par le sujet comme une entité indissoluble.
Ceci est vrai pour des informations cohérentes (le chant du coq, le grincement
d’une porte…) ou complémentaires (hôtel du port accompagné du cri de la
mouette), mais aussi très souvent, pour des informations non corrélées. Dans ce
dernier cas, l’association d’un élément auditif avec un élément visuel ne présen-
tant, a priori, pas de rapport direct, peut compléter, enrichir ou souligner par
« contrepoint » la signification initiale de l’image.
Par exemple, dans la dernière séquence des Visiteurs du soir la perception simul-
tanée des statues de pierre et des battements de cœur, loin de constituer un
détournement réciproque de l’image et du son incite le spectateur à découvrir
une signification originale du message proposé. Il pourra, selon sa sensibilité ou
son raisonnement, interpréter la séquence en termes subjectifs (émotion du
sujet), objectifs (présence ou prolongement de la vie au sein de la pierre) ou
fantastique (lecture purement surréaliste de l’œuvre).
La suggestion est un processus actif qui stimule l’imagination du spectateur et
touche sa sensibilité. Le message est enrichi par la participation du sujet et son
apport inconscient. Il se trouve alors mis en valeur et mémorisé… Ainsi, le détail
Préface V

suggéré par le son a-t-il souvent plus de poids dans ses conséquences perceptives
que la restitution intégrale de tout un contexte auditif.
Par ailleurs, les images sonores ont un retentissement différé dans le temps bien
souvent supérieur à celui des images visuelles. La mémoire auditive à long terme
peut présenter des performances surprenantes et faire réapparaître avec une
brièveté fulgurante des visions ou des évocations très anciennes. C’est par le biais
de telles résonances qu’une œuvre atteint sa maturation au cœur des esprits.
Ainsi, si l’auteur assure la maîtrise de son discours par la sélection – a priori –
­d’éléments pertinents dans une continuité narrative, il doit en être de même pour le
preneur de son. En tant que maillon d’un processus de création, il a pour mission de
réinterpréter le message sonore en anticipant sur toute la séquence de traitement
ultérieur et de diffusion du signal. Il doit connaître à tout moment les conditions de
restitution et d’écoute du son afin de faire une présélection qui tienne compte aussi
bien des distorsions possibles au cours du transfert que des conditions habituelles
de diffusion de l’ouvrage. Combien d’intentions réalisées à la perfection dans un
studio ont-elles disparu lors de la présentation de l’œuvre au public ?
À aucun moment, le rôle de l’opérateur de prise de son ne peut et ne doit se limiter à
une mise en œuvre passive de techniques de routine. Si la recherche d’une bande
correcte, musicale ou intelligible est une des priorités impératives du métier, elle est
loin d’être suffisante pour donner au message son caractère expressif et ­créateur.
Trop souvent la production – car c’est à ce niveau que se situent les carences –
conçoit l’enregistrement sonore d’une œuvre audiovisuelle comme un accompa-
gnement narratif ou illustratif de l’image. D’où l’apparition de procédés répétitifs
et monotones qui neutralisent la réceptivité et la fascination. Il en résulte une
uniformité des productions qui affecte même, le plus souvent, la retransmission
des concerts ou, pire, des œuvres lyriques.
Mais l’enregistrement des sons est une discipline fallacieuse car le matériau qui doit
être façonné est composé d’une substance impalpable que l’on nomme le champ
acoustique.
© Dunod – Toute reproduction non autorisée est un délit.

Immatérielle et invisible, l’onde sonore possède la vertu d’être partout. Elle emplit
l’espace, contourne les obstacles, traverse les parois. Elle est omniprésente et peut
revêtir dans un environnement donné une infinité de formes diverses. Quiconque
veut la capter et l’enregistrer peut le faire à tout moment et en tout point de l’espace.
Cette apparente facilité stimule les vocations et favorise la génération spontanée
de nombreux « manipulateurs » de son parmi lesquels on peut même compter les
automates toutes catégories qui envahissent les marchés de l’audiovisuel (ce qui
montre le niveau de compétences nécessaire pour effectuer une simple mise en
boîte d’échantillons sonores).
VI Le livre des techniques du son

Cependant, le phénomène d’expansion du champ sonore présente diverses consé-


quences :
• la première est l’indivision des signaux. Dès que plusieurs sources situées
à proximité l’une de l’autre émettent simultanément, la résultante en un
point donné est un signal complexe dont il est difficile d’extraire ou d’isoler
une information particulière ;
• la seconde est la nature dynamique du phénomène. Le son est une gran-
deur physique qui évolue continuellement dans le temps et l’espace. Cette
fluctuation lui donne un caractère fugitif qui ouvre au preneur de son une
multitude de possibilités. Face à ces options, il ne peut sélectionner ses
signaux et modeler ses effets sans se trouver confronté à des problèmes
d’une grande complexité, le plus souvent contradictoires : limité dans le
temps, gêné par les bruits ou les signaux non pertinents, contraint de
prendre en compte un grand nombre de critères, l’ingénieur du son ne
peut agir efficacement sans posséder une réelle maîtrise de son art.
La prise de son sélective est en réalité d’une exigence inouïe qui ne laisse aucune
part au hasard ou à l’improvisation. L’homme de métier doit pouvoir contrôler
tous les paramètres qui interviennent et interfèrent dans son enregistrement :
répartition spatiale du champ acoustique, position et sélectivité des microphones,
dynamique des sons, rendu des timbres, présence des interprètes…
Cette maîtrise ne s’acquiert qu’au fil des ans et semble réservée à ceux qui valo-
risent certains dons naturels par l’acquisition de sérieuses connaissances tech-
niques. Une bonne oreille, un sens aigu de l’observation et de la critique, beaucoup
d’imagination, une grande capacité de renouvellement et de résistance à la routine
constituent les qualités dominantes du professionnel qualifié mais elles sont loin
d’être suffisantes. Chaque prise de son pose des problèmes spécifiques qui ne
doivent laisser place ni aux recettes ni aux habitudes. D’où l’importance d’un acquis
assez vaste pour permettre de recouvrir des disciplines d’une grande diversité.
Parmi celles qu’il est indispensable de maîtriser, citons :
le mode de rayonnement des sources, la propagation dans les milieux aériens, les
effets de la présence d’obstacles sur le parcours des ondes-réflexions, absorption
et diffusion sélective, les caractéristiques et les performances des transducteurs,
capteurs ou émetteurs, le traitement du signal enregistré et les perturbations qu’il
peut subir.
À ces différents aspects techniques, il convient d’ajouter la connaissance des
problèmes posés par la restitution et la diffusion des œuvres, en prenant en
compte les propriétés psycho-perceptives de l’audition, la psychologie des préfé-
rences et surtout le contexte culturel lié à la nature de la production…
Préface VII

C’est dans cet esprit que Le livre des techniques du son a été conçu et mis en œuvre.
Conscient de l’importance de la pluridisciplinarité de la profession, Denis Mercier
n’a pas cherché le spécialiste capable de traiter tous les aspects du métier, (qu’il
n’aurait d’ailleurs pas trouvé) il a préféré s’adresser à divers professionnels plus
particulièrement intéressés dans l’un ou l’autre des secteurs concernés. D’où cet
ouvrage collectif qui répond bien à une double finalité : donner au preneur de son
la possibilité de compléter ses connaissances dans les domaines qui lui sont le
moins familier, et disposer d’un ouvrage de référence où il puisse chercher les
réponses à des questions fondamentales d’ordre technique, technologique ou
perceptif.
Le lecteur y trouvera la plupart des éléments qu’il peut être amené à utiliser dans
l’exercice de cette discipline. Il pourra parcourir l’ouvrage dans le but d’acquérir
ou de retrouver des notions fondamentales sur l’acoustique, la perception, la
nature ou le traitement du signal enregistré. Il pourra compléter cette première
approche par une étude plus détaillée des techniques mises en œuvre dans la
réalisation d’un document sonore : aménagement ou traitement du local de prise
de son, choix du matériel, modalités d’acquisition, de stockage et de restitution
des informations sonores, etc. Il trouvera également un vaste éventail des techno-
logies classiques ou récentes, analogiques ou numériques, qui lui permettront de
mieux comprendre les évolutions rapides qui apparaissent à tous les niveaux des
processus d’enregistrement, de transfert et de diffusion des signaux sonores.
Cet ouvrage s’adresse donc à l’amateur averti tout autant qu’au professionnel
soucieux de combler quelques lacunes. Il offre une panoplie d’informations
complexes et variées, mais l’acquisition de toutes ces notions ne doit nullement
constituer le but ultime du preneur de son.
Ce dernier ne doit, en aucun cas, oublier que l’outil ne génère pas l’artisan. La
pratique du métier, quelle que soit l’importance des moyens techniques qu’elle
implique, est soumise aux mêmes règles et contraintes que tout autre instrument
d’expression au service de la communication créative. Elle exige maîtrise, ferveur
et imagination, et, dans ce domaine, plus encore que dans celui qu’évoquait Joffre :
« pour pouvoir peu, il faut savoir beaucoup et bien ».

Jacques Jouhaneau
À Émile Leipp et Jean Pujolle
en souvenir de leurs travaux.
Table des matières
Avant-propos XVII

Chapitre 1 – Acoustique fondamentale

1.1 Sons et bruits : aspects objectifs et subjectifs 1


1.2 Mouvements vibratoires.
L’oscillateur élémentaire à un degré de liberté 6
1.2.1 Oscillateur libre 6
1.2.2 Oscillations forcées, résonance 8
1.3 Systèmes à plusieurs degrés de liberté. Systèmes couplés 9
1.3.1 Généralités. Modes vibratoires 9
1.3.2 Cordes et barres vibrantes. Propagation d’ondes 13
1.3.3 Membranes et plaques vibrantes 17
1.3.4 Indication générale sur les plaques 22
1.3.5 Notions sur les vibrations et les ondes dans les corps solides 23
1.4 Nature et propagation du son 24
1.4.1 Caractéristiques des ondes sonores.
Intensité et impédance. Vitesse de phase 24
1.4.2 Émissions – Propagation – Immission 28
1.4.3 Émission. Sources de bruit ; intensité, puissance 29
1.4.4 Échelles logarithmiques. Décibels 33
1.4.5 Propagation atmosphérique. Sol, écrans, parois 37
1.4.6 Analyse fréquentielle. Spectres, octaves 42
1.5 Bibliographie 45

Chapitre 2 – Les sources acoustiques

2.1 Les instruments de musique mécaniques.


Principe de fonctionnement et classe de timbre 47
2.1.1 Structures vibrantes et générateurs des instruments de musique 47
2.1.2 Les deux classes acoustiques de sons instrumentaux 50
2.1.3 Quelques sons instrumentaux typiques 51
X Le livre des techniques du son

2.2 Dynamique 53
2.2.1 L’oreille et les dB : le crescendo instrumental 53
2.2.2 Sons impulsifs 54
2.2.3 La gamme dynamique de quelques instruments 54
2.3 Rayonnement des sources acoustiques 56
2.3.1 Données physiques sur le rayonnement des sources en champ libre 56
2.3.2 Données sur les modes vibratoires des tuyaux,
et des plaques et membranes 57
2.3.3 Les méthodes d’études globales de la directionnalité 60
2.4 Timbre(s) des sources 65
2.4.1 Définitions : timbre identitaire et timbre qualitatif 65
2.4.2 Problèmes posés par l’étude acoustique du timbre 65
2.4.3 Analyse acoustique des deux constituants du timbre :
identité et qualité 69
2.4.4 Champ de liberté en timbre des instruments de musique 72
2.4.5 Timbre, sonorité et émergence 73
2.5 Tessiture et contenu spectral 74
2.5.1 Définitions 74
2.5.2 Exemples 74
2.6 Voix parlée, voix chantée 76
2.6.1 Le signal vocal 76
2.6.2 L’intelligibilité de la parole 77
2.6.3 L’esthétique de la voix parlée ou chantée 79
2.6.4 Rayonnement de la voix chantée 81
2.6.5 Portée de la voix (sans micro) 81
2.7 Conclusions 82
2.8 Bibliographie 83

Chapitre 3 – Acoustique architecturale

3.1 Acoustique des salles 85


3.1.1 Longueur d’onde et dimension des obstacles au cours
de la propagation 86
3.1.2 Champs acoustiques au voisinage d’une paroi 90
3.1.3 Champ acoustique d’une salle par l’approche ondulatoire ;
cas d’une salle parallélépipédique 94
3.1.4 Acoustique géométrique 103
3.1.5 Acoustique statistique 111
3.1.6 Somme d’un son direct et de sa réflexion 124
3.1.7 Absorbants et diffuseurs 126
3.1.8 Acoustique des studios et cabines de prise de son 136
Table des matières XI

3.2 Acoustique des lieux d’écoute 142


3.2.1 Définitions, généralités 142
3.2.2 Recherche de la meilleure adaptation 151
3.2.3 Critères d’appréciation d’une salle d’écoute 167
3.3 Isolement - Isolation 173
3.3.1 Isolement aux bruits aériens 173
3.3.2 Loi de masse - Loi des fréquences 178
3.3.3 Paroi composite, paroi multiple 186
3.3.4 Portes et baies vitrées - Parois hétérogènes 191
3.3.5 Isolation et bruits d’impacts 193
3.3.6 Ventilation/climatisation et isolation 197
3.3.7 Bruit de fond dans une salle 199
3.4 Bibliographie 200

Chapitre 4 – La perception auditive

4.1 Les propriétés de l’ouïe 203


4.1.1 Le champ auditif 203
4.1.2 Fréquence et intensité 205
4.1.3 La perception de la hauteur et de la durée 210
4.2 Les caractéristiques de l’audition 214
4.2.1 L’écoute naturelle 214
4.2.2 Les différentes étapes de la reconnaissance du timbre 222
4.2.3 L’écoute et la prise de son 224
4.3 Le système auditif humain 229
4.3.1 La structure de l’oreille 229
4.3.2 Mécanisme de l’audition 234
4.3.3 Les déficiences du système auditif 236
4.3.4 Exposimétrie bruit. Protections auditives 240
4.4 Conclusion 242
4.5 Bibliographie 242
© Dunod – Toute reproduction non autorisée est un délit.

Chapitre 5 – Le signal

5.1 La notion de signal. Notion d’information 245


5.1.1 Généralités 245
5.1.2 Complexité d’un signal. Dimension 247
5.1.3 Multiplexage 249
5.1.4 Échantillonnage 251
XII Le livre des techniques du son

5.2 Modélisation des systèmes 253


5.2.1 Analyse des systèmes physiques 253
5.2.2 Convolution 253
5.2.3 Analyse spectrale 258
5.3 Filtrage et traitement 260
5.3.1 Filtrage analogique 260
5.3.2 Filtres échantillonnés à convolution 262
5.3.3 Filtres échantillonnés récursifs 265
5.4 Les canaux de transmission 266
5.4.1 Définition 266
5.4.2 Compatibilité débit-bande passante 266
5.4.3 Les défauts introduits 267
5.4.4 Défauts non linéaires 269
5.5 Transmission des signaux 274
5.5.1 Généralités 274
5.5.2 Les modulations d’amplitude 275
5.5.3 La modulation de fréquence et de phase 280
5.5.4 Les procédés numériques 285
5.5.5 Modulations hybrides 290
5.6 Bibliographie 291

Chapitre 6 – Notions fondamentales de l’électricité

6.1 Fondements physiques de l’électricité 293


6.1.1 Champ électrique et potentiel 293
6.1.2 Effet chimique 304
6.1.3 Effet thermique 309
6.1.4 Effet magnétique 312
6.1.5 Origines physiques du bruit 338
6.2 Fonctions de l’électronique 341
6.2.1 Électrocinétique 341
6.2.2 Courants alternatifs 349
6.2.3 Quadripôles 357
6.2.4 Filtrage 366
6.2.5 Conclusion 378
6.3 Bibliographie 379
Table des matières XIII

Chapitre 7 – L’enregistrement magnétique

7.1 Principes fondamentaux de magnétisme et électromagnétisme 382


7.1.1 Champ magnétique 383
7.1.2 Matériaux ferromagnétiques 386
7.1.3 Induction magnétique 387
7.1.4 Flux d’induction magnétique 388
7.1.5 Perméabilité 389
7.2 Propriétés des corps ferromagnétiques 389
7.2.1 Courbe de première aimantation 389
7.2.2 Cycle d’hystérésis 390
7.2.3 Domaines de Weiss 391
7.2.4 Champ démagnétisant 392
7.3 Généralités sur l’enregistrement magnétique 394
7.3.1 Les supports 394
7.3.2 Le signal enregistré 394
7.4 Étude simplifiée des processus 397
7.4.1 Les têtes 397
7.4.2 L’effacement 399
7.4.3 Enregistrement 400
7.4.4 Lecture 400
7.4.5 Égalisation de lecture 402
7.5 Théorie de la lecture 403
7.5.1 L’effet d’entrefer 403
7.5.2 L’effet d’azimut 404
7.5.3 Effets d’éloignement et d’épaisseur 405
7.5.4 Autres effets de lecture 406
7.6 Théorie de l’enregistrement 407
7.6.1 Courbe de transfert 407
7.6.2 Polarisation alternative 408
7.7 Mesures et normes dans l’enregistrement magnétique 409
7.8 Bibliographie 411
© Dunod – Toute reproduction non autorisée est un délit.

Chapitre 8 – La technologie audionumérique

8.1 Signal numérique 415


8.2 Conversion 419
8.2.1 Conversion analogique-numérique 419
8.2.2 Conversion numérique-analogique 428
8.2.3 Système numérique 429
XIV Le livre des techniques du son

8.3 Traitement de l’information audionumérique 431


8.3.1 Caractérisation électrique 432
8.3.2 Dégradation de l’information numérique 435
8.3.3 Détection et correction d’erreurs 437
8.3.4 Entrelacement 448
8.3.5 Interpolation 450
8.4 Traitement du signal numérique 452
8.4.1 Module d’amplification ou d’atténuation 452
8.4.2 Module de retard 452
8.4.3 Module de filtrage numérique 456
8.4.4 Module de filtrage non linéaire 459
8.4.5 Module de commutation 460
8.4.6 Console de production numérique 460
8.4.7 Station de travail audionumérique 461
8.5 Compression de l’information numérique 462
8.5.1 Débit numérique et capacité 463
8.5.2 Techniques de réduction de débit du son 464

8.6 Enregistrement et reproduction 470


8.6.1 Exemples de formats utilisés sur bande magnétique 472
8.6.2 Exemples de formats utilisés sur disque à gravure mécanique 473
8.6.3 Enregistrement sur support informatique 474
8.6.4 Interconnexions numériques entre machines 475
8.6.5 Transmission numérique 477

8.7 Bibliographie 479

Annexe – Rappel de notions de mathématiques, physique, mécanique

A.1 Rappel de quelques définitions 481


A.1.1 Fonctions Dérivées - Moyennes 481
A.1.2 Scalaires - Vecteurs - Tenseurs 483
A.1.3 Quelques fonctions utiles en acoustique 484
A.1.4 Rapport des deux vecteurs - Nombre complexe 489
A.2 Grandeurs physiques - Unités 491
A.2.1 Unités fondamentales 491
A.2.2 Unité dérivées 491
A.2.3 Équation de dimension 493
A.3 Transformation de Fourier - Analyse fréquentielle 493
A.4 Mouvements vibratoires :
l’oscillateur élémentaire à un degré de liberté 495
A.4.1 Oscillateur libre 495
Table des matières XV

A.4.2 Force appliquée - Oscillations forcées 497


A.4.3 Énergies cinétique et potentielle 500
A.4.4 Les régimes transitoires 500

Index 503
© Dunod – Toute reproduction non autorisée est un délit.
Collectif d’auteurs sous la direction de Denis Mercier

Denis Mercier
Preneur de son, réalisateur sonore sur des productions disques, films, spectacles,
etc. Enseignant à l’ESAV de Marrakech. Ancien responsable des stages « son »
de formation continue à Auvigraph, ENS Louis-Lumière.

Patrice Bourcet (chapitre 1 et annexes)


Ingénieur CNAM. Ancien responsable des programmes de recherche du centre
R&D de TDF à Metz.

Michèle Castellengo (chapitre 2)


Directrice de recherches émérite (CNRS), L.A.M. – Institut d’Alembert (UMR
7190) – Université Paris 6.

Éric Vivié (chapitre 3 : § 3.1 et 3.3)


Maître es mathématiques. DEA en acoustique appliquée de la Faculté des
sciences du Mans. Fondateur du BET Acoustique Vivié et Associés. Ancien
professeur d’acoustique architecturale à l’ENS Louis-Lumière.

Michel Cassan (chapitre 3 : § 3.2)


Diplômé d’études supérieures en acoustique à Paris VI. Ancien responsable de
l’acoustique des salles aux services techniques de Radio France.

M’Paya Kitantou (chapitre 4)


Docteur en acoustique. Ancien responsable d’actions de formation à l’Institut
national de l’audiovisuel (INA).

Jacques Foret (chapitre 5)


Docteur en électro-acoustique. Ingénieur conseil en acoustique. Professeur
d’acoustique et de traitement du signal.

Mohammed Elliq (chapitre 6)


Enseignant d’électronique appliquée à l’audiovisuel à l’ENS Louis-Lumière.
Responsable du département d’électronique de l’ENS Louis-Lumière. Docteur
en électronique de l’ULP de Strasbourg.

Michel Calmet (chapitre 7)


Ingénieur en chef des télécommunications. Ancien conseiller technique à Radio
France.

Jacques Fournet (chapitre 7)


Ancien chef du département audio-vidéo professionnel Agfa-Gevaert France.

Alain Fromentel (chapitre 8)


Ingénieur diplômé Supélec. Directeur des Études de l’EFREI – École d’Ingénieurs.
Avant-propos

Écrire un livre sur le son, c’était nouveau lorsque nous avons entrepris ce projet à
la fin des années 1980. Depuis de l’eau a coulé sous les ponts, les technologies dans
le domaine de l’audio professionnel et de la communication ont évoluées à une
vitesse faramineuse. On peut trouver des informations sur Internet, visiter le site
d’un constructeur et visionner un tutoriel en ligne, et c’est vraiment très pratique...
mais lorsque l’on cherche une information précise, validée, avec des schémas
utiles, un index complet et des développements rédigés par des professionnels
confirmés... un livre technique de référence reste une valeur sûre. D’où notre
souci de réactualiser le Livre des techniques du son en proposant cette cinquième
édition remise à jour.
En effet, pour travailler sérieusement dans les métiers du son, la connaissance des
notions fondamentales s’avère un instrument indispensable. C’est pourquoi nous
avons conservé les bases théoriques dans ce premier volume, présentées sous une
forme accessible. Il reste certes quelques équations mais elles sont là pour
permettre de mieux comprendre les phénomènes avec les différentes compo-
santes et les ordres de grandeur. C’est ainsi que le chapitre 6 sur les notions fonda-
mentales de l’électricité et les fonctions de l’électronique a été entièrement revu
par un nouvel auteur qui enseigne dans une grande école.
Je profite d’ailleurs de l’occasion pour remercier l’ensemble des auteurs, ceux qui
ont rédigé les chapitres de cette édition mais aussi ceux qui ont travaillé sur les
éditions précédentes. En effet leur disponibilité et leur souci d’être toujours à la
pointe dans leur domaine sont les dénominateurs communs de l’investissement
de ce collectif d’auteurs.
XVIII Le livre des techniques du son

Ce tome 1 sur les notions fondamentales est le premier de la série de trois. Des
renvois permettent de replacer chaque notion en face des technologies et des
modes d’exploitation qui sont présentés dans les autres volumes de cette collec-
tion.
Les titres des chapitres du tome 2 La technologie sont les suivants : 1 Introduction
à la technologie audiofréquence – 2 Les microphones – 3 Les enceintes acous-
tiques – 4 Les consoles – 5 Le traitement du son – 6 Les systèmes d’enregistre-
ment et les réseaux audio – 7 La synchronisation – 8 Les sources électroniques et
le MIDI – 9 Analogies.
Et les titres des chapitres du tome 3 L’exploitation sont : 1 La prise de son stéréo-
phonique – 2 Les supports audio – 3 Le studio d’enregistrement – 4 La sonorisa-
tion – 5 Le théâtre – 6 La radio – 7 Le cinéma sonore – 8 La télévision.
Que cet ouvrage continue à servir de référence dans les studios, les audits, sur les
plateaux de théâtre et de cinéma… dans les écoles et les stages de formation… en
France mais aussi partout dans le Monde.
C’est tout ce que nous souhaitons et ce pourquoi nous avons œuvré.
Bonne lecture, et bonne séance, bon spectacle… ou bon tournage !

Denis Mercier
Chapitre 1

Acoustique fondamentale

Patrice Bourcet
Ingénieur CNAM. Ancien responsable des programmes
de recherche du centre R&D de TDF à Metz
(en collaboration avec Pierre Liénard pour les précédentes éditions)

1.1 Sons et bruits : aspects objectifs et subjectifs


Les fluctuations rapides (plusieurs dizaines, jusqu’à des milliers de fois par
seconde) de la pression de l’air au niveau de nos oreilles engendrent une sensation
auditive, et le mot SON désigne à la fois la vibration physique capable d’éveiller
cette sensation et la sensation elle-même.
Cette constatation s’impose dès que l’on tente une définition du son [1], et
constitue l’une des clefs de l’approche avertie des problèmes liés à la nature du
son. Les philosophes et physiciens du xviiie siècle ont eu à ce sujet de vives discus-
sions : « Y a-t-il un son lorsque personne n’est là pour l’entendre ? »
Même si de nos jours cette question peut faire sourire, le problème de ces deux
aspects du phénomène sonore est toujours une source de confusion.
Le son possède un aspect objectif et peut ainsi être considéré comme une cause,
objet naturel des sciences et techniques. Sous son aspect subjectif le son est un
effet étroitement dépendant du sujet qui le ressent.
2 Le livre des techniques du son

La difficulté mais aussi l’intérêt de cette recherche résident dans le fait que cause
et effet appartiennent à des domaines différents : physique, physiologie, psycho-
logie, sociologie et art (musique et architecture). Il faut prendre conscience de
cette répartition pour comprendre à la fois le discours d’un physicien et celui d’un
musicien (et du spécialiste des salles d’écoute…) lorsqu’ils parlent du son.
Objectivement, le son est un phénomène physique d’origine mécanique, une pertur-
bation locale de pression, de vitesse vibratoire ou de densité de fluide, qui se propage
en modifiant progressivement l’état de chaque élément du milieu ébranlé, donnant
ainsi naissance à une onde acoustique, onde dont l’image classique est celle des ronds
dans l’eau. La vitesse avec laquelle se propage cette perturbation, ou célérité du son,
est caractéristique du milieu de propagation et de son état thermodynamique.
Subjectivement, le son est une sensation traduisant la perception par le cerveau d’un
événement qui véhicule une information en provenance du monde extérieur.
Notons que même en nous limitant au milieu que constitue l’air ambiant, toutes
les vibrations de nature acoustique (ondes de pression) ne donnent pas forcé-
ment une sensation auditive. Certaines seront imperceptibles, car trop faibles,
d’autres seront trop lentes (infrasons : au-dessous de 20 ou 25 oscillations par
seconde) ou trop rapides (ultrasons : au-dessus de 15 000 ou 20 000 oscillations
par seconde), limites variables d’ailleurs suivant les individus et leur âge.
Mais revenons un instant sur l’image classique des ronds dans l’eau (figure 1.1). Pour
autant qu’elle soit de nature à développer la compréhension physique du phénomène
de propagation, cette image est celle d’une onde dite transversale. En effet, le caillou
qui tombe dans l’eau et qui provoque l’ébranlement initial de la surface de l’eau au repos
est essentiellement un mouvement perpendiculaire au plan de l’onde qui en découle.
Le caillou joue le rôle de source ou d’émetteur de l’onde.
déplacement transversal
du bouchon flotteur

propagation
de l'onde

longueur d'onde

point d'impact
du caillou
amplitude

propagation
de l'onde
Figure 1.1 — L’image classique des ronds dans l’eau avec le phénomène
de propagation des ondes transversales.
Chapitre 1 – Acoustique fondamentale 3

Le bouchon de la ligne d’un pécheur situé un peu plus loin, sensible à cette onde,
jouera le rôle de récepteur de l’onde et va se mettre à osciller sur place, effectuant
un mouvement perpendiculaire à la direction de déplacement de l’onde.
Dans cette analogie avec une onde acoustique, ce qu’il faut retenir est le fait que
c’est bien une réplique de la perturbation initiale qui se propage de l’émetteur au
récepteur et non la matière elle-même. Pour preuve, le bouchon ne se déplace pas
dans la direction de propagation, il n’y a pas de courant d’eau, de même que pour
une onde acoustique il n’y aura aucun courant d’air.
Par contre, il existe une différence importante dans la mesure où l’onde acous-
tique est une onde dite longitudinale, ce qui signifie que la perturbation initiale
est un mouvement ayant la même direction que celle de la propagation de l’onde
(figure 1.2). En conséquence, un élément sensible à cette onde, capable de jouer le
même rôle de récepteur que notre bouchon dans l’eau, va se déplacer en oscillant
parallèlement à la direction de déplacement de l’onde. C’est exactement ce que
fait, par exemple, le tympan de notre oreille stimulée par une onde sonore.
y

S
© Dunod – Toute reproduction non autorisée est un délit.

Figure 1.2 — Une source sonore omnidirectionnelle envoie des ondes


dans l’espace qui se propagent à 360° autour d’elle et crée des variations de pression
acoustique (représentées par des flèches) qui vont en s’atténuant avec la distance.
4 Le livre des techniques du son

L’onde sonore est une succession de compressions et de dépressions (raréfac-


tions) qui se propagent en perturbant rapidement la pression atmosphérique
pratiquement constante de l’air au repos. Au passage de l’onde, les éléments maté-
riels constitutifs de l’air ambiant oscillent parallèlement à sa direction de propaga-
tion pour revenir à leur position d’équilibre lorsque la perturbation cesse.
Propagation et mouvement local suivent la même direction, l’oscillation se faisant
alternativement dans un sens puis dans l’autre le long de cette direction.
Une meilleure image de l’onde acoustique serait donc la propagation du pincement
de l’extrémité d’un ressort à boudin légèrement tendu vers son autre extrémité, mais
cette image ne fait pas naturellement partie de notre expérience courante.
De plus, ces images sont des analogies à une ou deux dimensions alors qu’un son
est une onde qui se propage dans les trois dimensions de l’espace.
Le son le plus simple, au sens physique, est une oscillation sinusoïdale de pres-
sion, analogue à celle de l’oscillateur simple ou du pendule (voir annexe A1),
caractérisé par une période T, stable, dont l’inverse est la fréquence f = 1/T
mesurée en hertz (Hz, 1 Hz = 1 oscillation par seconde, 1 kHz = 1 000 Hz). On
utilise souvent dans les calculs la grandeur  = 2f, ou pulsation.
On rencontre rarement un « son pur », de seule fréquence f, mais le plus souvent,
une composition d’un grand nombre d’oscillations ayant des fréquences diverses.
Si ces fréquences sont une fréquence dite fondamentale et ses multiples 2f, 3f, 4f…
nf, dites harmoniques, la sensation auditive est un son musical. La superposition
de fréquences ayant des rapports simples donne une sensation agréable d’accords
musicaux. Les sons dont les fréquences ne sont pas des multiples de la fréquence
fondamentale sont appelés « partiels » ; par exemple : un son de cloche. Ils peuvent
contribuer au « timbre » du son mais sont parfois désagréables (voir § 2.4).
On appelle physiquement bruit une perturbation de pression sonore qui n’est pas
seulement formée d’un nombre fini de fréquences fixes, mais aussi d’oscillations
aléatoires ayant une composition spectrale continue (par exemple, bruit d’une
chute d’eau, d’un jet de vapeur…). La plupart des bruits naturels comportent à la
fois, des oscillations de fréquences plus ou moins fixes, ayant entre elles des
rapports quelconques, et des fluctuations à large bande fréquentielle. Du point de
vue subjectif, on appelle bruit toute manifestation sonore non désirée, donc
perturbatrice, par rapport à un état souhaité, ou pour la perception d’un signal
(parole, musique…).
On voit que ces deux définitions ne coïncident pas forcément : si un « son » formé
de fréquences quelconques, ni harmoniques, ni harmonieuses, peut être désa-
gréable, le « bruit » d’une cascade peut être agréable, et le bruit du train qui entre
Chapitre 1 – Acoustique fondamentale 5

en gare est une information utile, alors qu’une mélodie entendue à travers une
cloison quand on veut s’endormir est un bruit « perturbateur ».
Le problème de savoir si le spectre fréquentiel d’un signal acoustique est un
spectre de raies (c’est-à-dire constitué d’un certain nombre de fréquences
distinctes ou fréquences pures) ou bien un spectre continu (c’est-à-dire constitué
d’une infinité de fréquences réparties suivant une certaine densité) est en fait
étroitement lié au degré d’approximation que l’on se donne.
Cette approximation peut être soit d’ordre théorique, soit d’ordre expérimental
(dans le cas de l’analyse spectrale au moyen d’appareils de mesure).
En toute rigueur, les spectres de raies n’existent que sur… le papier. En effet, une
fréquence pure (en acoustique une oscillation sinusoïdale de pression) n’est stric-
tement un son pur (son entièrement défini par une sinusoïde) que si sa forme est
parfaitement sinusoïdale.
Toute altération de la forme d’une sinusoïde est significative de la présence…
d’autres sinusoïdes.
• Si l’altération conserve au signal sa périodicité, les autres « sinusoïdes »
sont harmoniques 2f, 3f, 4f, … nf, donc encore des fréquences pures.
• Si l’altération est elle-même périodique, mais sans rapport simple avec la
périodicité de la fréquence fondamentale f, les autres « sinusoïdes » sont
des partiels donc toujours des fréquences pures.
• Par contre, si l’altération est quelconque ou réside tout simplement dans le
fait inévitable que notre sinusoïde doit avoir en pratique un début et une
fin, les « autres sinusoïdes » sont alors nécessairement sous la forme d’une
densité spectrale assimilable à une infinité de sinusoïdes.
Il en résulte qu’utiliser la notion de fréquence pure ou de spectre de raies, c’est
nécessairement faire abstraction de phénomènes tels que l’établissement ou l’ex-
tinction d’un son et plus généralement de tout ce qui est transitoire pendant la
durée de vie d’un signal.
© Dunod – Toute reproduction non autorisée est un délit.

En d’autres termes, c’est mettre en évidence les aspects répétitifs du phénomène


au détriment de ses aspects évolutifs.
Les phénomènes naturels ayant généralement plus ou moins les deux aspects, on
comprend la difficulté d’une classification simple basée sur leur analyse fréquen-
tielle. Quoi qu’il en soit, SONS et BRUITS relèvent des mêmes phénomènes
physiques et nous verrons que tous les mouvements oscillants sans exception
peuvent être décrits en termes de fréquences. En conséquence, la notion de
fréquence, donc de mouvement sinusoïdal constitue l’élément simple le plus inté-
ressant à utiliser comme base de tous les phénomènes vibratoires.
6 Le livre des techniques du son

1.2 Mouvements vibratoires.


L’oscillateur élémentaire à un degré de liberté
1.2.1 Oscillateur libre
Pour faire du bruit ou produire un son, il faut qu’il y ait « quelque chose qui
remue ». Essayons d’imaginer le système le plus élémentaire possible effectuant
le mouvement le plus simple.
« Quelque chose » : de quoi s’agit-il ?
Peu importe, l’essentiel est de prendre conscience que ce quelque chose a néces-
sairement une masse. Il nous est donc impossible de ne pas faire intervenir au
moins une masse, par contre il est possible de la réduire à sa plus simple expres-
sion, c’est-à-dire un point matériel sans forme et sans volume, de masse M.
« Qui remue » : de quel mouvement s’agit-il ?
Nous savons qu’une onde acoustique a pour origine une perturbation qui se propage
et non une masse qui se propage (un courant d’air !) notre masse doit donc remuer
sur place. Ceci implique qu’elle possède une position de repos et que le mouvement
dont il est question ne peut être qu’un déplacement autour de cette position.
Dans ces conditions, le déplacement le plus simple est un déplacement suivant
une seule direction, de part et d’autre de la position de repos. On dit que le mouve-
ment n’a qu’un degré de liberté, il peut être décrit à l’aide d’une seule variable x
représentant, dans un sens, l’élongation positive comptée à partir de la position de
repos et dans l’autre sens, l’élongation négative du mouvement.
Pour être en mesure d’effectuer un tel mouvement, notre masse élémentaire ne
doit pas être liée de façon fixe ou rigide à un support, de plus dès la perturbation
passée, elle doit reprendre « naturellement » sa position de repos qui, de ce fait,
est nécessairement une position d’équilibre.
De quelle liaison s’agit-il ? Peu importe, l’essentiel est de voir que cette liaison doit
nécessairement être de nature élastique pour permettre le mouvement et le retour
à la position d’équilibre.
Il nous est donc impossible de ne pas faire intervenir une certaine élasticité. Par
contre, comme pour le premier élément de notre système, la masse M, il est
possible d’imaginer l’élasticité la plus simple, c’est-à-dire une force de rappel
proportionnelle à l’élongation. Soit K le coefficient de proportionnalité que l’on
appellera la raideur de la liaison (figure 1.3).
Le système que nous venons d’imaginer constitue l’oscillateur mécanique le plus
élémentaire à un degré de liberté. En effet, imaginons que l’on écarte notre
Chapitre 1 – Acoustique fondamentale 7

masse M de sa position d’équilibre, l’énergie que nous confions ainsi au système


s’accumule sous forme de tension dans la liaison élastique. Si nous libérons le
système celui-ci va conserver son énergie mais cette dernière va osciller éternel-
lement de la forme potentielle qu’elle a lorsque la tension de la liaison est maximum
(d’un côté ou de l’autre) à la forme cinétique qu’elle a lorsque la masse atteint sa
vitesse maximum au niveau de sa position d’équilibre (dans un sens ou dans
l’autre).

Figure 1.3 — Oscillateur simple à un degré de liberté.


Une masse M accrochée à un ressort de raideur K et de longueur L au repos,
lui impose un allongement statique ∆L = Mg/K. Si on déplace cette masse,
1 K
elle oscille ensuite avec une fréquence f = .
2π M
S’il n’y a pas d’amortissement, son oscillation en fonction du temps,
telle qu’elle peut s’inscrire sur une feuille se déplaçant uniformément,
est une sinusoïde d’amplitude constante, de période T = 1/f.

Le mouvement de la masse est alors parfaitement sinusoïdal, il est caractérisé par


une fréquence qui ne dépend que de M et de K et que l’on appelle la fréquence
1 K
propre du système : f o = . Chacun sait que le système que nous venons
© Dunod – Toute reproduction non autorisée est un délit.

2π M
d’imaginer ne fonctionne que sur le papier car ce serait le mouvement perpétuel.
Si on essaye de valider réellement un tel système, en accrochant par exemple une
masse M à l’extrémité d’un ressort K, dont l’autre extrémité est fixée à un support
(figure 1.4), on s’aperçoit qu’il n’est jamais possible de négliger totalement, comme
nous l’avons fait, les pertes d’énergie notamment par frottement. Il nous faut donc
introduire en plus des termes d’inertie (masse M) et d’élasticité (inverse de la
1
raideur, ) un troisième terme « de frottement » comportant un coefficient b
K
pour tenir compte des inévitables pertes du système.
8 Le livre des techniques du son

Le mouvement naturel de notre oscillation libre va donc subir une diminution


d’amplitude d’autant plus rapide que les pertes sont importantes.

Figure 1.4 — Oscillateur simple amorti.


a) Si l’amortissement est très fort, la masse revient
lentement à sa position initiale, sans oscillation.
b) L’amortissement critique : le retour à l’équilibre est le plus rapide possible
sans oscillation donc sans dépassement de la pression d’équilibre.
c) Si l’amortissement est faible, la masse décrit une sinusoïde amortie.

Pour ne pas décourager dès les premières lignes de ce livre, le lecteur peu familier
des mathématiques, l’étude détaillée du mouvement d’un oscillateur élémentaire
a été reportée en annexe (A4.1 à A4.4), ce qui ne nous empêche pas ici de présenter
les idées essentielles qui découlent de cette étude.

1.2.2 Oscillations forcées, résonance


Le seul moyen d’obtenir de notre oscillateur une amplitude constante consiste à
entretenir son mouvement à l’aide d’un apport constant d’énergie. Le plus simple
(non pas à réaliser mais du point de vue de l’étude), est d’appliquer au système une
force extérieure sinusoïdale. Dans ces conditions, on obtient deux comporte-
ments remarquables de notre système :

Les pertes sont importantes


On peut alors considérer que l’énergie d’entretien est consommée très rapide-
ment. Le système effectue les oscillations imposées avec une amplitude à peu près
constante pour les fréquences basses ou les fréquences inférieures à sa fréquence
propre.
Chapitre 1 – Acoustique fondamentale 9

Ensuite, si la force extérieure est d’amplitude constante, on constate avec l’aug-


mentation de fréquence imposée une nette diminution du mouvement essentiel-
lement imputable à une cause très intuitive qui est l’inertie de la masse M.

Les pertes sont faibles


On conçoit alors aisément que l’énergie confiée au système est, au moins au départ
de l’expérience, supérieure à l’énergie strictement nécessaire à l’induction d’un
mouvement d’amplitude donnée. L’énergie en excès a alors tout naturellement
tendance à s’accumuler dans le système, ce qui augmente son amplitude, d’où des
pertes plus importantes qui finissent par épuiser l’excès d’énergie. Le mouvement
atteint ainsi son équilibre avec un certain gain en amplitude, ce qui peut paraître
surprenant pour un système passif.
Étant donné que l’excès d’énergie a tendance à s’accumuler au voisinage de la
fréquence propre du système (qui est, rappelons-le : une fréquence où un oscilla-
teur sans perte conserve indéfiniment son énergie), le phénomène d’augmenta-
tion d’amplitude est maximum lorsque la fréquence d’excitation est peu différente
de la fréquence propre du système. C’est le phénomène bien connu pour ses effets
que l’on nomme résonance.
Ce phénomène peut être utilisé avec profit pour stocker de l’énergie et obtenir des
effets « d’amplification ».
Dans d’autres cas, il constitue une gêne qu’il faut combattre.
L’essentiel à retenir est qu’un système oscillant, même élémentaire, tel que celui
que nous avons décrit, possède nécessairement au moins une fréquence propre et
qu’au voisinage de cette fréquence, la manifestation d’une résonance est inévi-
table dès lors que les pertes sont faibles. Il est donc impossible d’éviter l’associa-
tion pertes faibles/résonance ou pertes élevées/absence de résonance.

1.3 Systèmes à plusieurs degrés de liberté.


© Dunod – Toute reproduction non autorisée est un délit.

Systèmes couplés
1.3.1 Généralités. Modes vibratoires
L’étude de l’oscillateur simple, à 1 degré de liberté, permet de bien préciser les
phénomènes essentiels. Mais bien peu de systèmes réels peuvent être représentés
par ce modèle simple et il est rare qu’un système vibrant n’ait qu’un seul degré de
liberté. Il suffit par exemple d’ajouter une masse au milieu du ressort de la
figure 1.3 pour obtenir un système à deux degrés de liberté (les mouvements des
deux masses) couplés, car les deux ressorts (élasticité) et les deux masses (inertie)
réagissent les uns sur les autres.
10 Le livre des techniques du son

Un corps même indéformable, libre dans l’espace, tel un aéronef (figure 1.5) peut
se déplacer suivant trois axes (avancement, montée-descente, dérapage) et
osciller autour de ceux-ci (roulis, tangage, lacet), soit 6 degrés de libertés, couplés
par les réactions aérodynamiques.
Z

Figure 1.5 — Corps libre dans l’espace :


6 degrés de liberté, couplés par des réactions aérodynamiques
(3 de translation et 3 de rotation).

Même si une partie d’un système peut être assimilée à un oscillateur simple, elle
a cependant des liaisons avec d’autres parties, et son fonctionnement ne peut être
envisagé isolément : il y a « couplage » car elle réagit aussi sur les efforts que les
autres lui appliquent. Le comportement d’ensemble ne peut plus être considéré
comme une simple juxtaposition du comportement de chacune de ses parties.
Enfin, peu de systèmes réels possèdent une raideur K, ou un amortissement b
constant, quelles que soient l’élongation ou la vitesse : on dit qu’ils sont « non
linéaires » c’est ainsi que le caoutchouc présente une raideur croissante avec l’ef-
fort appliqué en compression.
Le comportement de ces oscillateurs est plus complexe que celui décrit dans l’an-
nexe ; on retrouve néanmoins les phénomènes de fréquences propres et de réso-
nance ; il apparaît en plus des modes « vibratoires » et des anti-résonances
(passage d’amplitude par des minimums). Mathématiquement, les problèmes
sont décrits par des équations différentielles analogues à celles de l’oscillation
simple (voir annexe), mais « non linéaires » car les coefficients K, b, ne sont plus
constants mais variables avec amplitude ou vitesse, et des équations de couplage
expriment les liaisons de diverses parties. Ces équations sont résolubles analyti-
quement dans les cas simples, telles que figures 1.6 et 1.7 et numériquement par
Chapitre 1 – Acoustique fondamentale 11

ordinateurs après avoir décomposé le système en éléments simples, non infini-


ment petits (éléments finis), pour que leur nombre soit aussi petit que possible.

Figure 1.6 — Oscillateur à deux degrés de liberté.

On démontre qu’un système à n degrés de liberté (par exemple constitué de n


masses élémentaires liées par des ressorts, figure 1.7) possède n fréquences propres.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 1.7 — Système à n degrés de liberté.


a) n masses et n ressorts (ou n + 1); b) corde à n masses concentrées.

Il en résulte une courbe de réponse amplitude-fréquence possédant n maximums


correspondant à n résonances possibles et séparées par autant d’anti-résonances.
La distribution caractéristique de ces amplitudes dans la géométrie du système
constitue le mode de vibration du système.
12 Le livre des techniques du son

Le mode normal correspondant à la fréquence propre la plus basse s’appelle le


mode fondamental, pour lequel toutes les masses vibrent en phase. Le mode
normal le plus élevé est le mode d’ordre n ; pour celui-ci, chaque masse élémen-
taire vibre en opposition de phase par rapport aux masses adjacentes.
Une illustration simple est donnée par une corde élastique sur laquelle sont enfi-
lées n masses égales et équidistantes (figure 1.7), se déplaçant perpendiculaire-
ment à la corde, rectiligne au repos.
S’il n’y a qu’une masse, cet oscillateur simple n’a qu’un mode et une fréquence
propres. À part les deux extrémités, il n’y a pas de points immobiles, le mode est
d’ordre zéro (fondamental).
Avec 2 masses, il y a deux modes possibles (figure 1.8), le fondamental (ordre
zéro, comme précédemment) et le mode 1, pour lequel un point de la corde reste
immobile. Avec n masses, il est possible d’observer n modes d’ordre 0 à n – 1 (on
les numérote parfois de 1 à n). Dans chaque figure, on observe, outre les extré-
mités, des points qui restent fixes, appelés nœuds, entre lesquels se placent les
maximums d’amplitude, ou ventres. Le nombre de nœuds donne le numéro du
mode dans la première numérotation, le nombre de ventres dans la deuxième.

Figure 1.8 — Modes transversaux d’une corde continue.

Si le nombre de masses augmente indéfiniment, on obtient la corde vibrante


continue (voir figure 1.9), ayant une certaine densité linéique, qui peut donc
présenter un nombre infini de modes. Pratiquement, les modes élevés sont
toujours beaucoup plus amortis et disparaissent plus rapidement que les autres
après excitation de la corde.
Chapitre 1 – Acoustique fondamentale 13

Toutefois, tant qu’ils existent, ces divers mouvements vibratoires peuvent


coexister sur la même corde, il n’y a donc plus de points fixes (sauf les extrémités
attachées), puisque le mode fondamental impose un déplacement d’ensemble,
mais les nœuds sont des minimums d’amplitude. (Ce phénomène de superposi-
tion des petits mouvements a été décrit par Sauveur en 1701, puis par D. Bernoulli
en 1753 puis expliqué, à partir de la forme linéaire de l’équation différentielle, par
Taylor, d’Alembert, Euler et d’autres, non sans vives discussions, tout au long du
xviiie siècle.)

1.3.2 Cordes et barres vibrantes. Propagation d’ondes


La science des Nombres, créée par Pythagore, vient de la musique, et les premières
études acoustiques ont été faites par des « musiciens » qui étaient aussi physiciens
et mathématiciens : Galilée, Mersenne, Sauveur, Savart… qui cherchaient à
comprendre le fonctionnement et le rayonnement sonore des plaques vibrantes,
des tuyaux (de flûte ou d’orgue), des tiges, membranes et plaques et enfin la
propagation des ondes. Ce cheminement est logique et, de même que l’oscillateur
simple nous a conduit à la corde vibrante, celle-ci nous introduit à la connais-
sance des propagations d’ondes.
En généralisant le système précédent, représenté par les figures 1.7 et 1.8, ima­gi-
nons un grand nombre de points matériels alignés, chacun ayant une masse M et
relié aux points voisins par des raideurs K. La corde vibrante est la limite de ce
système où le nombre de masses et de raideurs augmente indéfiniment, chaque
élément de corde, de longueur infinitésimale L ayant à la fois une masse M et
une raideur K ; le rapport M/L est la densité linéique de la corde.
Chaque masse élémentaire a trois degrés de liberté, pouvant se déplacer suivant
l’axe d’alignement x (oscillations longitudinales) ou suivant les axes y, z, perpen-
diculaires au précédent (oscillations transversales). La combinaison de ces deux
dernières avec un certain déphasage entre les vibrations suivant y et z est un
mouvement de rotation, circulaire, (comme le mouvement de la corde à sauter),
© Dunod – Toute reproduction non autorisée est un délit.

ou elliptique, si les amplitudes sont différentes sur y et z.


Les divers modes vibratoires possibles sont évidemment couplés par les masses
et les raideurs, et la figure d’une corde de violon, de harpe ou de piano, peut être
très compliquée, bien que la mécanique d’attaque, ainsi que le point d’application
des forces d’entretien, favorisent initialement certains modes.
Les mêmes figures et modes se retrouveront pour les ondes sonores dans un
tuyau. Les modes les plus importants sont les vibrations longitudinales, les
ressorts agissant en traction-compression suivant x, et les vibrations transver-
sales suivant un des axes tel que y, les ressorts ou la corde agissant en flexion.
14 Le livre des techniques du son

Comme on l’a vu au paragraphe précédent, chaque masse ou élément de corde a


trois degrés de liberté, réduits à 1 dans ces cas simples ; mais un « collier » de N
masses a 3N (ou N) degrés de liberté, et la corde continue en a une infinité. Les
amplitudes des diverses parties sont évidemment limitées par la raideur non
nulle des liaisons. On considérera généralement les vibrations longitudinales
comme celles d’une tige (son axe moyen ne se déforme pas), les vibrations trans-
versales comme celles d’une corde si la souplesse est grande, ou d’une verge si la
raideur est importante.
L’exemple de la corde est le plus simple pour visualiser les modes de vibrations
transversales. Les conditions aux limites sont que la corde est fixée à ses deux
extrémités, en des points d’amplitude nulle. En vibration, chaque point de la
corde oscille suivant le mouvement sinusoïdal en fonction du temps, décrit
précédemment pour l’oscillateur simple (avec ses périodes transitoires, et ses
résonances) mais les différents points étant liés par des raideurs longitudinales
(image des petits ressorts de la figure 1.8), le calcul montre que dans l’espace le
fuseau que dessine la corde est compris dans une sinusoïde des espaces dont la
« période » spatiale est le double de la longueur L de la corde pour le mode
fondamental, cette longueur pour le mode 1 qui présente un nœud en son
milieu, etc. Cette « période spatiale » est la longueur d’onde . Le mode est donc
caractérisé par le rapport 2L/ (ce qui conduit à la 2e numérotation 1, 2… des
modes).
Les vibrations longitudinales sont difficiles à voir, sur une corde ou une tige (on
peut les détecter avec des capteurs spéciaux, tels que les jauges de contraintes).
Précisons d’abord les principales conditions aux limites (figure 1.9) pour une tige
ou une verge (ainsi que pour les membranes et les plaques) : ses extrémités
peuvent être libres (amplitude quelconque, force nulle) ou encastrées (amplitude
nulle, effort de flexion nul dans le cas d’une corde ou membrane de raideur trans-
versale négligeable ou imposée par la résistance à la flexion pour une barre ou une
plaque) – dans ce cas la tangente au déplacement reste fixe – ou encore appuyée,
c’est-à-dire d’amplitude nulle mais rotation possible sans contrainte. Il est évident
qu’une barre ou une plaque ne peuvent être entièrement libres… Il faut bien des
supports qui détermineront des nœuds (figure 1.9).
Les vibrations que nous venons d’évoquer sont les solutions du régime perma-
nent de vibration d’une corde ou d’une tige, soumises à une excitation sinusoïdale
donnée. Aux fréquences situées entre deux modes, l’amplitude varie suivant
l’écart avec les fréquences de résonances voisines, et les variations d’amplitude
seront d’autant plus marquées que l’amortissement sera plus faible.
Chapitre 1 – Acoustique fondamentale 15

Figure 1.9 — Conditions aux limites


et modes vibratoires de cordes et tiges.
a) Corde fixée aux extrémités, mode fondamental;
b) corde vibrante, mode 1 (1 nœud de vibration);
c) tige encastrée à une extrémité, libre à l’autre;
d) tige sur deux appuis simples.

Pour analyser le phénomène en régime vibratoire, prenons l’exemple de la tige, ou


d’un ensemble de masses liées par des ressorts le long d’une ligne et ne se dépla-
çant que le long de celle-ci (vibrations longitudinales). Si on impose un déplace-
ment à l’une des masses, on provoque d’un côté l’allongement, de l’autre la
compression des ressorts. Ceux-ci déplacent avec un léger retard les masses
voisines qui de ce fait déforment les ressorts suivants, etc. ; c’est ainsi que dans un
sens va se propager une onde débutant par une compression, et dans l’autre une
onde débutant par une dilatation. L’énergie cinétique donnée initialement à la
masse est transmise sous forme potentielle dans les deux ressorts adjacents qui à
leur tour la transmettront aux masses voisines sous forme cinétique, etc.
L’énergie, au lieu de se transformer sur place comme dans le cas de l’oscillateur
simple est transmise sous forme d’onde progressive. Si la tige est infinie, le régime
transitoire est infini, l’onde progresse sans rencontrer d’obstacles. Si la tige est de
longueur limitée, l’onde se réfléchit à l’extrémité, suivant les « conditions aux
© Dunod – Toute reproduction non autorisée est un délit.

limites » :
• Extrémité libre : il ne peut y avoir aucune force appliquée après la dernière
masse, celle-ci restituera donc toute son énergie cinétique au ressort de qui
elle l’a reçue, et le mouvement repartira en sens inverse.
• Extrémité fixe : il ne peut y avoir aucun mouvement au bout du premier
ressort : celle-ci restituera donc toute son énergie potentielle à la masse de
qui elle l’a reçue et l’onde repartira comme précédemment.
16 Le livre des techniques du son

Dans les cas intermédiaires, l’extrémité, ni totalement libre, ni infiniment rigide,


oppose au mouvement ou à la force, une résistance partielle. Elle absorbera donc
partiellement l’énergie reçue et n’en renverra qu’une partie.
Le rapport entre la force que reçoit cette extrémité et la vitesse qu’elle permet est
par définition son impédance mécanique. Celle-ci est nulle dans le 1er cas (libre) et
infini dans le 2e (point fixe).
Si on considère qu’une tige ou une corde, assimilable à un ensemble de n masses
et ressorts, a n fréquences propres et n modes vibratoires (n – 1 nœuds), on voit
que le mouvement peut être extrêmement complexe en raison de l’addition des
ondes élémentaires correspondant à ces modes, et en nombre égal, des ondes
envoyées en retour par les extrémités qui interfèrent avec les précédentes. Ces
différentes ondes s’amortissent différemment en fonction du temps, mais peuvent
aussi être entretenues par un apport d’énergie qui favorisera d’ailleurs certains
modes et certaines fréquences, comme cela se passe également dans un tuyau,
que ce soit la sortie d’un réacteur d’avion ou une flûte.
Toutefois, malgré la complexité de ces mouvements, on démontre que, si ces
mouvements sont petits (c’est-à-dire d’amplitude beaucoup plus petite que la
distance entre deux masses, par exemple), la vitesse de propagation ou célérité c,
qui dépend des temps d’échange énergie potentielle-énergie cinétique, donc des
grandeurs K et M, est constante, quelles que soient f et l’amplitude, et fonction
seulement de K et M, par :

E
c= (1)
ρ

où E est le module d’élasticité ou « module d’Young » des mécaniciens, soit pour


une barre de longueur L et de section S, le rapport de la force unitaire de la frac-
tion F/S à l’allongement relatif L/L :
F ∆L KL
E= = (2)
S L S
Avec la définition précédente de la raideur K = F/L,  est la masse volumique :
M
ρ= (3)
SL
Dans le modèle par éléments discrets masse-ressort, la longueur L est celle d’une
de ces cellules élémentaires, dans laquelle la masse M occupe une longueur négli-
geable à côté de celle du ressort : à la limite, le même élément possède à la fois la
masse M et la raideur K.
Chapitre 1 – Acoustique fondamentale 17

Dans le cas d’une corde vibrant transversalement, la célérité dépend de la tension


initiale  de la corde et de la masse linéique  :

τ
c= ( 4)
µ
À partir de cela, on trouve la fréquence fondamentale de vibration d’une corde de
longueur L, de tension  et masse linéique , par L = /2.

c 1 τ
F= = (5)
2L 2L µ
c
avec λ = (6)
f
(N.B. : cette relation de la fréquence (hauteur totale) d’une corde avec sa longueur
avait déjà été entrevue par Platon, puis trouvée expérimentalement par Galilée,
Mersenne, Sauveur, Savart… et exploitée sous sa forme mathématique par
d’Alembert, Euler, Daniel Bernoulli et bien d’autres…)
Cette relation entre , c et f est également valable pour les ondes sonores dans l’air.
Nous avons introduit, avant ces équations, l’hypothèse des petits mouvements. Si
les mouvements deviennent importants ou la période spatiale  trop petite
devant la dimension des cellules élémentaires L, le système n’est plus « linéaire »
au sens mathématique du terme, et la vitesse de propagation des ondes c varie
avec la fréquence f. On dit que le système est dispersif.
Une corde fixée aux deux extrémités, d’impédance infinie, devra donc contenir
exactement un nombre n entier de demi-longueur d’onde : n = 1 pour le mode
fondamental, sans nœud intermédiaire (mode 0 ou 1 suivant les auteurs), n = 2
pour le mode à nœud (mode 1 ou 2), etc.

1.3.3 Membranes et plaques vibrantes


© Dunod – Toute reproduction non autorisée est un délit.

Ce sont des éléments mécaniques ayant une certaine surface, limitée par un
contour fermé, et d’épaisseur très petite par rapport aux dimensions transver-
sales. Les conditions aux limites sur le contour sont, comme pour les cordes et
barres : posées, libres ou encastrées, ou liées à une impédance donnée.
Une membrane idéale présente une rigidité nulle à la flexion. Elle est générale-
ment soumise à des tensions : une plaque possède une rigidité propre détermi-
nant sa forme au repos (par exemple plane). Membrane et plaque peuvent donc
être représentées comme l’extension à deux dimensions des cordes et des tiges
respectivement.
18 Le livre des techniques du son

Signalons, à ce propos, une petite difficulté de vocabulaire car on parle très


souvent de la membrane d’un haut-parleur alors que le comportement méca-
nique de celle-ci est plutôt celui d’une plaque ou plus précisément encore celui
d’une coque si on limite le terme plaque aux surfaces planes. D’une manière très
générale, l’introduction d’une seconde dimension complique notablement l’étude
de la vibration des membranes et des plaques en comparaison de celle des cordes
et des tiges. Pour ne donner qu’un exemple, la tension d’une membrane ne peut
généralement pas s’exprimer comme dans le cas d’une corde par une seule force
par unité de section. En effet, s’il est assez facile de tendre de manière uniforme
une corde, cette opération est beaucoup plus délicate pour une membrane. En
pratique, chaque élément de surface sera soumis à des tensions de grandeur et de
direction différentes suivant sa position, et, (surtout dans le cas de plaques ayant
une raideur transversale), il sera soumis aussi, à des forces de cisaillement. L’en-
semble de ces efforts est désigné par le terme général de contraintes.
Supposons néanmoins pour simplifier, que l’on réalise une membrane en tissant
des cordes à la manière d’une toile. On obtient ainsi l’approximation discontinue
d’une membrane rectangulaire de longueur a (longueur des cordes parallèles à la
longueur) et de largeur b (longueur des cordes parallèles à la largeur). Si chaque
corde a pour masse linéique  et pour tension , les fréquences propres corres-
pondant aux cordes parallèles à la longueur a sont :

m τ
fm = (7)
2a µ
et celles correspondant à la largeur b :

n τ
fn = (8)
2b µ
m et n étant des nombres entiers.
Pour une membrane réelle, ces deux séries de fréquences correspondent au cas
particulier d’ondes stationnaires dues à une interférence constructive des mouve-
ments se propageant dans une direction parallèle à l’un des côtés de la membrane.
Nous savons que ceci se produit chaque fois que la longueur libre à parcourir par
les ondes entre deux nœuds de vibration imposés est un multiple entier d’une
demi-longueur d’onde. Il est bien évident que cette condition peut être satisfaite
pour de nombreux parcours ayant une direction non parallèle à l’un des côtés.
Cette possibilité, qui est une conséquence directe de l’adjonction d’une nouvelle
dimension de propagation, introduit une troisième série de fréquences propres
fm . n. On peut facilement vérifier que l’ensemble des fréquences est donné par :
Chapitre 1 – Acoustique fondamentale 19

1 τ m2 n2
fm.n = + (9)
2 µ a2 b2
avec m = 1, 2, 3… et n = 1, 2, 3…
 est la tension superficielle, , masse linéique commune aux éléments de corde
orthogonaux, est la masse surfacique dans le cas d’une membrane continue.
Cette série de fréquences est plus importante que celle définie par (5) et ne forme
pas de suite harmonique, en raison du radical contenant les m2 et les n2. Les
nombres m, n, définissent le mode vibratoire de la membrane. Comme on a défini
sur la corde des nœuds et des ventres, il se dessine sur une membrane des lignes
nodales enfermant des éléments de surface qui vibrent en phase.
Les figures vibratoires dépendent non seulement des dimensions (a et b pour une
membrane rectangulaire) et m et n, mais aussi des conditions aux limites : bords
libres, appuyés ou encastrés. La figure 1.10 donne à titre d’exemple quelques
déformées modales d’une membrane rectangulaire.

m=2 n=1

m=2 n=2
© Dunod – Toute reproduction non autorisée est un délit.

Figure 1.10 — Modes vibratoires


d’une plaque rectangulaire, aux quatre premières fréquences propres.
Les flèches indiquent les lignes nodales (d’après [5]).

Les barres vibrantes ont été étudiées d’abord par Lissajous, les membranes et
plaques par Savart pour connaître l’émission sonore du violon (il a même inventé
un violon trapézoïdal très simple et paraît-il aussi bon qu’un stradivarius… mais
il n’a pas eu de succès !) puis par Chladni. Une étude récente complète est publiée
par Morse et Ingard [5].
20 Le livre des techniques du son

Les membranes et plaques circulaires (figure 1.11) suivent les mêmes principes,


mais l’expression mathématique de leurs vibrations, faisant appel aux coordon-
nées polaires et non rectangulaires, est différente. L’importance de leur étude est
justifiée par leur emploi dans les microphones, téléphones et haut-parleurs, avec
un pourtour circulaire encastré.

Figure 1.11 — Modes vibratoires (m, n) d’une plaque circulaire.


Les flèches indiquent les lignes nodales.

L’amplitude vibratoire en un point de coordonnées r, , de la membrane (rayon


et angle à partir d’une direction d’origine), s’exprime avec des fonctions trigono-
métriques et des fonctions de Bessel Jm(a), solutions classiques de certaines équa-
tions différentielles en coordonnées polaires et dont la forme, en fonction de la
variable x et suivant l’ordre m est donnée par la figure 1.12, formes analogues à des
sinusoïdes amorties. Les valeurs numériques qui les décrivent en fonction de
l’ordre m de chacune, en particulier les zéros, c’est-à-dire les valeurs de x pour
lesquelles Jm(x) = 0, sont données dans les tables maintenant classiques [5, 6].
Avec ces fonctions, l’amplitude vibratoire d’une membrane circulaire est de la
forme :

 ωr 
Z (r , θ,t ) = A cos m θ Jm   cos ωt (10)
 c 
Le premier coefficient A est une amplitude arbitraire, dépendant du mouvement
à l’origine du temps.
Chapitre 1 – Acoustique fondamentale 21

Le deuxième facteur cos  m, évoque la forme sinusoïdale déjà trouvée pour la


forme vibratoire des cordes, mais cette fois, non pas le long d’une ligne, mais en
tournant sur un cercle décrivant l’angle , de 0 à 2. Pour cos  m = 0, c’est-à-dire
sur tous les diamètres d’angle /m, l’amplitude vibratoire z est nulle : ces diamètres
sont des lignes nodales.
 ωr 
Le troisième facteur J m   fait intervenir, cette fois suivant le rayon r, une
 c 
 ωr
oscillation amortie (figure 1.12). Les cercles de rayon r tels que J m   = 0 sont
 c 
aussi des lignes nodales, circulaires, orthogonales aux précédentes. Les valeurs
de r correspondent aux zéros des fonctions de Bessel xn, le nombre n indiquant la
ne solution de Jm(Xn) = 0 (figure 1.12).

Figure 1.12 — Courbes représentant les fonctions de Bessel :


y = Jm(x). J0(0) = 1, Jm(0) = 0, pour tout m non nul.
Les formes sont celles de sinusoïdes amorties.
© Dunod – Toute reproduction non autorisée est un délit.

Les intersections de ces courbes avec l’axe y = 0 donnent les n solutions de Jm(x) = 0.

Les modes vibratoires d’une membrane circulaire sont donc définis par ces
nombres (entiers) m et n.
Pour chacun des modes m, n, la pulsation  qui figure dans la variable de Jm(10)
est fixée par cette relation :

ωt x τ
xn = soit fn = n (11)
c 2πr µ
22 Le livre des techniques du son

c étant la célérité du son dans la membrane et  la masse surfacique.


Enfin, le dernier facteur cos t de l’équation (10) indique la vibration sinusoïdale
en fonction du temps, soit sur la fréquence fondamentale fn du mode m, n, et ses
harmoniques, soit sur une fréquence imposée par une force extérieure.
Les phénomènes sont analogues à ceux des oscillateurs précédents : amortisse-
ment, résonance… La réponse de la membrane sera, comme pour une corde,
fonction du nombre des modes excités, de leurs amortissements respectifs et
surtout des conditions temporelles et spatiales de l’apport d’énergie. La déforma-
tion réelle d’une membrane soumise à une excitation extérieure peut prendre des
allures beaucoup plus complexes que celles des premiers modes propres.
L’intérêt de ces études, outre l’application à la « haute fidélité » des réponses de
microphones et haut-parleurs, est complété par le fait qu’on retrouvera des
formulations analogues pour la propagation d’ondes dans les conduits cylin-
driques, tels que ceux des instruments à corps cylindriques.

1.3.4 Indication générale sur les plaques


Une plaque peut être considérée comme une membrane ayant une épaisseur non
négligeable et une rigidité transversale. Alors que l’enchevêtrement (tissage) des
cordes vibrantes nous a conduits à une bonne image de la membrane, un laçage
en juxtaposition de barres vibrantes orthogonales sera une image incomplète de
la plaque, car cela néglige les forces de contraintes transversales (cisaillement)
entre les tiges adjacentes.
Si la barre vibrante est caractérisée par son module élastique E ou module d’Young
d
(2), la plaque subit une variation transversale de dimension , et son rapport à
d
la variation longitudinale L/L est le coefficient de Poisson  :

∆d ∆L
σ= (12)
d L
qui figurera aussi dans les expressions de vibrations et de fréquences propres des
plaques. Par exemple, les fréquences propres d’une plaque rectangulaire, a b,
d’épaisseur h, appuyée sur son périmètre et de masse volumique , sont données,
pour chaque mode m, n par :

 m2 n2  πh E
fmn =  2 + 2  (13)
 a b  4 3ρ (1 − σ )
2
Chapitre 1 – Acoustique fondamentale 23

(on comparera avec l’équation (9) pour les membranes). La fréquence fondamen-
tale d’une plaque circulaire du rayon R ayant ses bords encastrés sans tension,
est :

h E
fo1 = 0, 46 (14)
R ρ (1 − σ 2 )
2

1.3.5 Notions sur les vibrations et les ondes dans les corps solides
Si l’épaisseur h précédente devient grande par rapport aux autres dimensions,
nous obtenons un solide dans lequel des vibrations ou ondes sonores peuvent se
propager dans tous les sens, avec des formes modales extrêmement nombreuses,
dépendant des conditions aux limites. L’expression des amplitudes et des
fréquences devient très compliquée, toujours en fonction des modules E et .
Plusieurs cas simples sont plus aisés à étudier :

Les propagations d’ondes longitudinales


Ce sont dans le solide, des vibrations analogues à celles d’une tige, ou faisceau
d’onde qui aurait été isolé dans le solide. La vitesse de propagation est tou­jours (1) :

E
c=
ρ

Dans un solide parallélépipédique de dimension a, b, c, il existe trois systèmes


d’ondes longitudinales correspondant à la division de chaque dimension en un
nombre entier de demi-longueurs d’ondes.
Par extrapolation à trois dimensions de l’expression (9), les fréquences propres
d’un tel solide sont multiples du terme :

 m2 n2 p 2 
© Dunod – Toute reproduction non autorisée est un délit.

 a 2 + b 2 + c 2  F ( E , ρ, σ )
 
et fonctions des modules d’élasticité et de la masse volumique ; et les plans nodaux,
parallèles aux parois, correspondent à :

mπx nπy pπz


sin =0 sin =0 sin =0
a b c
Les trois modes les plus simples, fondamentaux, s’obtiennent en égalant à 1 l’un
des paramètres m, n, p, les deux autres étant nuls.
24 Le livre des techniques du son

On conçoit que les modes vibratoires d’un solide puissent être très nombreux, en
raison des combinaisons possibles des valeurs m, n, p, entiers mêmes faibles
(1, 2, 3…). On retrouvera des considérations très analogues pour les fréquences
propres d’ondes aériennes dans une salle rectangulaire.
 m2 n2 p 2 
On notera que le facteur dimensionnel  2 + 2 + 2  intervient avec l’expo-
a b c 
sant 1 pour les plaques (il n’y a alors que m et n) et pour les solides, avec l’exposant
1/2 pour les membranes et dans les salles.

Les propagations d’ondes de surface


Elles n’intéressent qu’une faible épaisseur, et correspondent à des phénomènes
moléculaires, spécialement aux très hautes fréquences.

Les structures mécaniques complexes


Machines, charpentes, ossatures de bâtiment, sont étudiées en les assimilant à
des ensembles d’oscillateurs élémentaires (dits « éléments finis » c’est-à-dire non
infiniment petits) tels que barres, plaques, régies par les équations de vibrations
précédemment évoquées, avec en plus les équations exprimant leurs liaisons, par
exemple déplacements égaux et forces égales et opposées aux points d’attaches,
etc.
Ces ensembles très compliqués d’équations très nombreuses sont résolus numé-
riquement par ordinateurs [4].

1.4 Nature et propagation du son


1.4.1 Caractéristiques des ondes sonores. Intensité et impédance.
Vitesse de phase
Au point de vue physique (« objectif » au sens vu lors de l’introduction), les sons,
les bruits, sont des propagations d’ondes de pression dans les milieux élastiques.
Un tel milieu est capable de reprendre son état initial naturel après avoir subi les
déformations relatives à une contrainte temporaire ; ces déformations sont petites
(par rapport aux dimensions du corps) ; et les contraintes assez faibles, pour ne
pas dépasser le domaine élastique : c’est-à-dire que des contraintes trop fortes, des
déformations importantes, conduiraient, après suppression des contraintes, à
des déformations permanentes non réversibles, par rapport aux formes initiales.
Nous avons déjà défini au paragraphe 1.3 le module d’élasticité, rapport d’un
effort à une déformation, dans le domaine « élastique », c’est-à-dire réversible.
Chapitre 1 – Acoustique fondamentale 25

Dans un milieu élastique, chaque élément de volume V subissant une pression


statique p subit une variation dont le rapport à p est la compressibilité.
Le milieu élastique peut être considéré comme l’ensemble de particules ayant une
masse, une compressibilité, et, de ce fait, par leur contact avec les voisines, des
liaisons élastiques qui leur permettent de se déplacer de leur position moyenne.
Chaque « particule » joue donc le rôle du système masse-ressort des schémas
précédents (figures 1.6 et 1.7), en particulier elle crée les transformations pro­gres-
sives, d’énergie cinétique en énergie potentielle et inversement.
Ne tenons pas compte des mouvements simultanés identiques (translation ou
rotation) d’ensemble du milieu (tel qu’un courant d’eau ou d’air non turbulent),
dans lequel il n’y a pas d’échanges d’énergie entre les éléments de ce milieu, mais
considérons les mouvements relatifs des particules voisines. Si une particule est
déplacée (ou reçoit une force), elle déplace à son tour les voisines par suite des
liaisons élastiques ; la perturbation initiale se propage et le mouvement de chaque
particule entraînée possède les principales caractéristiques du mouvement
initial, avec un retard proportionnel à son éloignement à la source, comme dans
les modèles mécaniques précédents (figure 1.3).
Au cours du mouvement, cependant, les amplitudes de déplacement, vitesse et
accélération, varieront en fonction des phénomènes de propagation (amortisse-
ment, dispersion, etc.).
Si la perturbation initiale est par exemple l’oscillation d’un diapason dont le
mouvement entretenu se reproduit identique à lui-même à chaque période T
(1/100 ou 1/1 000 seconde ou 1/440 pour le « la 3 »), toutes les particules voisines,
puis les suivantes, oscilleront à la même fréquence f = 1/T, c’est-à-dire porteront le
même son.
Cette propagation transporte d’un point à un autre, avec un certain délai, l’état
vibratoire à des points qui en sont à des « phases » identiques, elle a donc une
vitesse de phase ou célérité du son. (Il existe aussi une « vitesse de groupe » qui est
© Dunod – Toute reproduction non autorisée est un délit.

la vitesse de transfert d’énergie sonore d’un paquet d’ondes diverses, dans un


milieu dispersif. En acoustique classique, ces deux vitesses sont égales).
L’étude de la propagation d’ondes d’un système linéaire de masses et ressorts
(§ 1.3.2), nous a conduits à l’expression de la célérité en fonction de celles-ci.
Dans un milieu continu, gazeux, l’expression est la même, et les théories de la
thermodynamique montrent que « l’élasticité » est alors le produit p du rapport
 des chaleurs spécifiques principales par la pression moyenne p (atmosphère par
exemple) ; p et la masse volumique  dépendent de la température absolue Ta
(Ta = Td ° C + 273) et :
26 Le livre des techniques du son

γp
c=  20 Ta (valeur numérique dans l’air)
ρ
soit 330 m/s à 0 °C, 340 m/s à 16 °C, etc.
Par suite de ce transfert dans l’espace à la vitesse c (1), des points vibrants avec la
même phase, on observera une périodicité spatiale de longueur d’onde , et ces
diverses grandeurs sont reliées par :
c
λ = cT =
f
Les déplacements qui, à tout instant, varient de la même façon et présentent des
maximums et minimums simultanés, sont dits « en phase ».
La propagation d’un ébranlement dans une chaîne de masses et ressorts, dans
une corde vibrante ou à la surface de l’eau agitée en un point, donne une image de
ces ondes sonores.
La création d’une onde et ses interactions avec des objets susceptibles de perturber
sa propagation sont essentiellement tributaires des relations géométriques entre
la longueur d’onde et les dimensions des objets considérés. C’est pourquoi on
verra souvent apparaître des rapports /d, ou 2r/ dans les calculs… (nombres
sans dimension, simples rapports indépendants des unités choisies).
On peut distinguer trois cas pratiques :
• Grandes longueurs d’ondes : /d >> 1, ou 2r/ petit, négligeable… ce qui
simplifiera agréablement les calculs ! Les divers points, à distance r les uns
des autres, seront pratiquement « au même point » de la sinusoïde, donc en
phase.
• Petites longueurs d’ondes : /d négligeable.
• Longueur d’onde du même ordre de grandeur que les objets : /d ni « petit »
ni « très grand ».
Le son audible le plus grave, correspond à une vibration dont la longueur d’onde
dans l’air à 16 °C est de l’ordre de 17 m (fréquence 20 Hz et c = 340 m/s). Le son le
plus aigu (20 000 Hz) correspond à  = 17 mm, soit un rapport de 1 000 entre la
plus grande et la plus petite de ces longueurs.
De même, au cours de sa propagation, sur une distance L, l’onde peut subir des
modifications importantes, même sans rencontrer d’obstacles. Le rapport L/
nous définira alors : le champ proche L/ << 1, donc proche de la source, et le
champ lointain L/ >> 1, dans lequel en général le rapport d/ des dimensions de
la source à la longueur d’onde sera lui aussi petit (d/ << 1).
Chapitre 1 – Acoustique fondamentale 27

C’est pourquoi, à l’échelle humaine dont les objets usuels et les distances sont dans
des proportions différentes, les ondes sonores donneront lieu à des phénomènes
extrêmement variés ; cette variété n’est pas le signe d’une nature physique
complexe mais beaucoup plus simplement une conséquence géométrique du
rapport longueur d’onde-dimensions.
Quelles que soient les sources sonores et leur répartition, elles produisent en
chaque point de l’espace une pression instantanée p(t), fluctuante, représentant
les fluctuations mêmes de la source, qui s’ajoute à la pression atmosphérique,
mais de valeur très petite pour les sons usuels : de l’ordre du milliardième… et des
« surpressions » acoustiques de l’ordre du dix millième de la pression atmosphé-
rique sont déjà assourdissantes !
Cette pression p(t) ayant une moyenne nulle dans le temps, on considère sa valeur
efficace ou valeur quadratique moyenne, dite « pression acoustique ».

pe = p 2 ( t )

Dans l’onde sonore propagée, les molécules sont agitées d’une vitesse vibratoire,
très petite également, de valeur moyenne nulle, qui varie dans le temps comme la
pression, avec les mêmes fréquences, soit u(t), dont la valeur efficace est :

ue = u2 ( t )

Cette vitesse u est un vecteur (quantité orientée) qui a trois composantes dans
l’espace. Cette orientation, qui commande celle de l’intensité propagée, a une
conséquence, lors de la prise de son, sur l’orientation et la sensibilité des micro-
phones, et celle-ci variera avec le rapport 2r/, r étant le rayon du microphone.
Bien que la pression p et la vitesse vibratoire u varient avec le même « dessin »
fréquentiel, en fonction du temps (et de l’espace), elles ne sont pas forcément en
phase, mais présentent un décalage ; le rapport p/u est dit complexe (il est défini
© Dunod – Toute reproduction non autorisée est un délit.

par un nombre et un angle de phase).


Le produit moyen de la pression et de la vitesse vibratoire au cours d’une durée
supérieure à la période d’oscillation, est l’intensité sonore :

I = p ⋅ u (15)

Le rapport de ces deux grandeurs est l’impédance complexe :


p
Z (16)
u
28 Le livre des techniques du son

qui caractérise le milieu de propagation en ce point. P étant exprimé en pascals, u


en mètres par seconde, leur produit est un débit d’énergie en watts par mètre carré.
Dans le cas d’une onde progressive plane, (par exemple, propagation dans un
tube de diamètre inférieur à la longueur d’onde), la pression et la vitesse vibra-
toire sont en phase, leur rapport est réel (angle de déphasage nul), et cette impé-
dance est égale au produit 0c (impédance spécifique du milieu) de la masse
volumique du milieu de propagation non perturbé, par la célérité du son dans
celui-ci. Dans ce cas, p, u, I, Z sont reliés par les équations :

p p2e
Z= = ρo c I = p ⋅u = = ρocue 2 (17)
u ρo c

1.4.2 Émissions – Propagation – Immission1


Sauf obstacles, dans un milieu homogène et isotrope (égal à lui-même partout et
dans toutes les directions), à partir d’une perturbation initiale de quelques
« particules », se développent des ondes dont la propagation, décrite par les gran-
deurs précédentes (amplitude, fréquence, phase) est régie par une équation de
propagation (dépendant du milieu) et aussi par les conditions à l’origine et aux
limites, telles que : la forme initiale de l’ébranlement (choc, ou excitation sinusoï-
dale, etc.), les dimensions de la source (rapport d/), les relations de phase entre
ses divers points, si la source est grande (par rapport à ) et naturellement l’am-
plitude initiale de déplacement, pression ou vitesse.
L’émission sonore vient de sources de bruits, qui peuvent être une machine, un
véhicule, un jet de fluide, une voix, … et qui entraînent, dans un petit volume, des
variations de débit, de force ou de contraintes, et ceci pendant un certain temps.
Ce son est rayonné dans l’atmosphère, c’est la propagation sous forme d’ondes
caractérisées par une pression et une vitesse vibratoire, dont le produit est l’inten-
sité sonore (flux d’énergie par unité de surface).
Ces grandeurs se propagent à une vitesse ou célérité du son, qui varie comme la
racine carrée de la température absolue (soit 340 m/s dans l’air à 16 °C).
Ces oscillations de pression et de vitesse se font à une certaine fréquence ou
suivant un ensemble plus ou moins grand de fréquences (harmoniques,
partiels…) ou de manière aléatoire.
Sur le trajet de cette onde, se trouve un point de réception, ou un espace d’im-
mission1, qui peut être un microphone, une paroi, ou l’homme avec son oreille,

1. Le terme correct serait immixtion. L’orthographe semble avoir été adoptée par transcription du mot anglais,
et par symétrie avec « émission ».
Chapitre 1 – Acoustique fondamentale 29

et aussi son crâne et même tout son corps (qui perçoit les ondes infrasonores
intenses). Les ondes sonores peuvent faire vibrer des surfaces élastiques en y
développant des contraintes qui peuvent être dangereuses dans le cas de niveaux
sonores élevés, allant parfois jusqu’à la rupture (grosses canalisations de fluides
turbulents sous pression) ou au moins des phénomènes de fatigue des maté-
riaux.
L’homme perçoit une sensation de force sonore que l’on appelle sonie ou bruyance,
une sensation de hauteur tonale (tonie) dépendant surtout de la fréquence du son
perçu, ainsi que celle du timbre, qui dépend de la composition fréquentielle du
son.
Ces phénomènes produisent soit une sensation agréable, s’il écoute une
musique qui lui plaît, soit une information par la parole ou divers signaux, soit,
si ce bruit ne convient pas à ce qu’il veut faire, ou est trop intense, une gêne qui
peut avoir des conséquences sur les conditions de travail, sur son efficacité, ou
sa sécurité ; si ce bruit est assez intense, il conduit à une fatigue auditive ou
perte temporaire d’audition, récupérable avec un peu de repos. Si l’intensité
dépasse un certain seuil, et avec une longue durée d’exposition (plusieurs
heures par jour), on observe la surdité professionnelle (dont les musiciens ne
sont pas exempts, en raison de l’intensité sonore à laquelle ils sont parfois
soumis) (voir § 4.3.3).

1.4.3 Émission. Sources de bruit ; intensité, puissance


Pour faire du bruit, il faut qu’il y ait quelque chose qui remue, par exemple un
système oscillant symbolisé par une masse au bout d’un ressort (figure 1.3), ou
une surface qui vibre : table de violon, caisse du piano, membrane de haut-
parleurs. À grande distance (champ lointain, § 1.4.1), ces sources sont « petites »
et les ondes sont sur des sphères (lieux d’égale phase) centrées sur la source se
propageant selon des rayons provenant de la source.
Un haut-parleur (figure 1.13), le bois d’un violon, d’un piano, sont des sources de
© Dunod – Toute reproduction non autorisée est un délit.

son parce qu’ils mettent en mouvement les particules d’air à leur contact, et à
partir d’elles, les particules voisines d’où les ondes sonores. Dans les instruments
à vent, un flux d’air (immobile en moyenne, ou à vitesse très faible, celle du souffle)
est modulé en vitesse et l’embouchure rayonne de même.
Il est à noter que la corde seule (du violon, du piano) n’émettrait qu’un son très
faible, car sa surface est minime et elle n’actionne que très peu de molécules mais
par ses attaches, elle fait vibrer la table de résonance, qui actionne une surface
importante. On se rend compte de même qu’un diapason métallique tenu en l’air
émet très peu de son, mais rayonne dès qu’on pose sa queue sur une table.
30 Le livre des techniques du son

Figure 1.13 — Membrane de haut-parleur comme source de son.

Nous avons dit précédemment (§ 1.4.2) que l’émission sonore venait de variations
de débits, ou de forces, ou de contraintes. Nous avons là trois sortes de sources qui
ont des expressions mathématiques et des propriétés de « rendement » acous-
tiques et de rayonnement, tout à fait différentes.
La première est la source simple (monopole) qui est une variation de débit,
comme celui d’une sirène. Elle est figurée par une petite sphère de centre fixe,
dont le rayon (donc le volume) varie dans le temps, périodiquement ou non.
Elle rayonne dans toutes les directions, de manière isotrope ; comme elle n’a
aucune direction privilégiée d’émission, elle est dite d’ordre zéro (ceci est justifié
aussi par des considérations mathématiques d’ordre de dérivation).
Elle rayonne comme des ronds dans l’eau, et son efficacité acoustique est assez
grande (figure 1.14).
Plaçons très près l’une de l’autre deux sources en opposition de phase : c’est un
doublet, suivant le même modèle qu’en électromagnétisme ou électrostatique. Il
rayonne avec un plan d’émission maximal, et la ligne nodale, unique, orthogonale
à ce plan est une direction d’intensité (théoriquement) nulle. C’est donc une
source d’ordre 1.
Ce doublet est représenté par une petite bille qui, au lieu d’être une boule qui se
dégonfle, sans que son centre bouge, est une sphère de rayon constant, mais qui
oscille. Cette source est due à une fluctuation de force. Son efficacité acoustique
Chapitre 1 – Acoustique fondamentale 31

est plus faible que celle de la source simple, puisque les deux éléments qui la
constituent se contredisent partiellement.

Figure 1.14 — Sources de sons de divers ordres


a) Source simple ou ordre 0 = petite sphère
de rayon variable, ou piston vibrant dans un plan infini.
b) Doublet ou source d’ordre 1 : deux sources simples en opposition de phase.
c) Quadruplet ou source d’ordre 2 : il y a quatre directions principales d’émission.
(En bas : sources vues de côté. En haut : rayonnement dans l’espace.)

Par exemple, le haut-parleur sans baffle ne donne pratiquement aucun rayonne-


ment, ou alors très faible, dans le plan de sa membrane, pour les basses fréquences,
parce lorsqu’une face pousse (souffle), l’autre tire (aspire).
Au lieu de deux sources simples, plaçons en quatre, ou deux doublets tête-bêche
par exemple. Nous avons cette fois un quadruplet (quadrupole en anglais).
Ces quatre sources vont se « contredire » encore plus que les précédentes, donc
l’efficacité est moins grande, et elles émettent quatre lobes avec deux directions de
rayonnement très faible. C’est donc une source dite d’ordre 2.
On trouve ces diverses sources en mécanique, en aérodynamique et en musique.
Un piston vibrant, rayonnant sur une face, ou une paroi vibrant sur un mode
simple, ou l’embouchure d’un instrument à vent (sur son fondamental) imposent
© Dunod – Toute reproduction non autorisée est un délit.

un débit pulsé d’air : ce sont des sources d’ordre zéro, de grande efficacité acous-
tique.
Une paroi (tôle de machine ou caisse d’un violon) vibrant sur un mode élevé
(ayant de nombreuses lignes nodales) est une source d’ordre élevé, donc rayon-
nant moins, et avec une directivité plus compliquée.
Enfin, en aérodynamique, les flux de gaz très turbulents (jets de réacteurs),
comportent des sources d’ordre élevé, et intenses en raison de la forte énergie
aérodynamique qui les produit, bien que la puissance acoustique du jet soit une
portion infime de la puissance mécanique du jet.
32 Le livre des techniques du son

Une source sonore capable d’émettre dans toutes les directions une énergie acous-
tique (intensité en watt par mètre carré, équation (15)) possède donc une puis-
sance acoustique qui est sa caractéristique d’émission.
Considérons une grande surface fermée quelconque entourant la source
(voir figure 1.14). Si cette source est sur un sol dur, nous prendrons la demi-sphère
ou autre forme (parallélépipédique, etc.) qui entoure cette source. De chaque
élé­ment de surface, sort une onde de pression dont le flux à travers chacun est un
débit d’intensité, en watts par mètre carré. La somme de tout ce qui se passe à
travers la surface entourant la source est le débit total d’énergie de celle-ci ou sa
puis­sance acoustique exprimée en watts (figure 1.15).

Figure 1.15 — Calcul de la puissance acoustique


d’une source sonore : c’est la somme des produits I × ∆S,
flux dans chaque élément de surface ∆S de la surface de mesure S.

Dans le cas d’une source simple, choisissons pour surface une sphère centrée sur
elle, de surface totale S. Si la source est isotrope (même rayonnement dans toutes
les directions), la puissance totale de cette source est le produit I  ·  S. Si l’intensité
I n’est pas la même partout, on décompose la surface en élément Si, assez petits
pour que Ii soit (à une certaine approximation) constante sur chaque élément Si
et on fera la somme des produits Ii Si, pour tous les éléments numérotés de i = 1
à i = n, nombre total.
Si, de plus, on assimile les faisceaux d’ondes (sphériques) à des ondes planes, à
une distance R grande par rapport à  et aux dimensions de la source, l’intensité
I est donnée par (15) et la puissance de la source est :
Chapitre 1 – Acoustique fondamentale 33

n n
pi 2
W = ∑ I i ∆Si =∑ ∆Si (18)
1 1 ρc
n
avec ∑ ∆S = S = 4πR
1
i
2

p étant la pression sonore mesurée sur chaque élément Si de la sphère de rayon
R. Comme pi varie inversement au carré R2, on voit que W est indépendant du
rayon R choisi pour la mesure.
Il faut bien noter que ce calcul simple, valable pour une source simple ponctuelle,
sera en général une approximation : d’abord l’impédance ne sera pas forcément
réelle et égale à 0c, et la vitesse vibratoire (donc le vecteur d’intensité) ne sera pas
toujours normale à la surface choisie. L’expression plus exacte de W fait intervenir
I par son produit moyen pu (15) et sa composante normale à la surface. Malheu-
reusement si la mesure p est aisée avec un microphone, celle de la vitesse u est
difficile, mais peut être faite avec une bonne approximation à partir de la mesure
des p (grandeur et phase) sur deux microphones voisins. Cette technique, dite
« intensimétrie » a fait l’objet de développement [8].
Pratiquement, et suivant les normes actuelles, la mesure de la puissance acous-
tique d’une source se fait par calcul à partir du relevé de la pression sonore en un
nombre de points réduits, sur une surface (fictive) de mesure entourant la source.
Les normes précisent, pour chaque cas de machine, la forme et la dimension de
cette surface (demi-sphère, demi-cylindre, parallélépipède) et les points de
mesure (échantillonnage), les modalités d’acquisition des mesures, le calcul et
l’erreur possible.
Il faut noter que l’étendue des grandeurs de cette puissance acoustique est très
large : une source de quelques microwatts est déjà audible, les machines dépassent
des centaines de watts acoustiques, et les fusées des millions !
© Dunod – Toute reproduction non autorisée est un délit.

1.4.4 Échelles logarithmiques. Décibels


L’étendue des valeurs pratiques de pression sonore, et de puissance, a conduit à
rechercher une expression plus ramassée de ces grandeurs. La pression acous-
tique la plus faible qu’une oreille humaine puisse percevoir est de l’ordre du
milliardième de la pression atmosphérique.
L’unité légale de pression est le pascal (newton par mètre carré) ; la pression
atmosphérique est de 1,013 × 105 pascals, soit environ cent mille pascals. Le seuil
de référence choisi par la normalisation pour établir une échelle de pression
sonore est de 20 micropascals (2/100 000e) ; l’intensité sonore d’une onde ayant
34 Le livre des techniques du son

cette valeur de pression efficace transporte un flux de 10–12 W/m2 (un millionième


de millionième de watt par mètre carré).
La bonne montre de gousset ordinaire (figure 1.16) était utilisée autrefois par les
médecins pour savoir si leur client était sourd. Elle a une puissance qui est infé-
rieure au microwatt, et on l’entend quand elle est posée sur une table à un mètre
de distance, si on a une bonne oreille. La voix humaine se mesure en milliwatts,
ce qui est 1 000 fois plus grand. Un haut-parleur se mesure en watts, un amplifi-
cateur fait 20 W, 40 W ou 200 W (mais avec un rendement très faible).

Figure 1.16 — Puissance acoustique


de quelques sources, du microwatt aux mégawatts.

La puissance acoustique d’un avion se mesure en kilowatts ; par exemple « Cara-


velle » émet 30 kilowatts au décollage. Et enfin, si on considère les grosses fusées,
leur puissance se mesure en mégawatts. À titre d’exemple, la fusée Apollo émet-
tait environ 400 mégawatts à cap Canaveral, cela veut dire que s’il y avait eu des
vitres à 1 km à la ronde, toutes auraient été brisées au premier essai.
La puissance à chacun de ces échelons est multipliée par 1 000 : 10–6, 10–3, 1, 103, 106.
Ces nombres sont bien encombrants… et on cherche à les représenter le plus
simplement. De plus, une loi physiologique, très générale, dit que la sensation
varie comme le logarithme de l’excitation (d’après le principe de Gustav Theodore
Fechner). Ces deux faits introduisent en acoustique l’échelle logarithmique des
bels (du nom de G. Bell, inventeur du téléphone) et de leurs sous-multiples, les
décibels.
Chapitre 1 – Acoustique fondamentale 35

Qu’est-ce donc qu’un logarithme ? Le logarithme de base 10 d’un nombre qui est
une puissance exacte de 10 tel que 10n, n’est autre que l’exposant n écrit au-dessus
du chiffre 10 (voir annexe A1.3).
Mathématiquement, on sait définir le logarithme des nombres compris entre
deux puissances entières de 10 : c’est alors un nombre entier : par exemple, le loga-
rithme de 2 est 0,3010… (figure 1.17).

Figure 1.17 — Échelle logarithmique et linéaire.

La règle de multiplication : 100 × 10 = 1 000, est : « deux zéros plus un zéro égale


trois zéros », 2 + 1 = 3. Le logarithme a pour avantage de remplacer une multipli-
cation par une addition : log(A × B) = logA + logB, ce qui permet des méthodes
de calcul très rapide ; ceux qui ont autrefois utilisé la règle à calcul (maintenant
démodée), connaissent bien ce principe.
Doubler un nombre revient à ajouter 0,3 à son logarithme, et le multiplier par
100, à ajouter 2 car :
log (2A) = log A + log 2 et log 2 = 0,301…
log (100A) = log A + log 100 = log A + 2
L’échelle des logarithmes décimaux (en bels) donne cependant des échelons
assez espacés ; on a convenu de diviser cet intervalle en dix parties, que l’on appelle
donc décibels. Ils représentent un rapport de 100,1 = 1,26.
Enfin, la normalisation acoustique précise qu’on repère dans cette échelle des
rapports : de pression à la pression de référence p0 = 20 µPa, d’intensité à celle de
© Dunod – Toute reproduction non autorisée est un délit.

référence I0 = 10–12 W/m2, de puissance par rapport à 10–12 W.


Pour une onde de pression efficace p (racine carrée moyenne de la pression
instantanée) et d’intensité I, le niveau sonore est, sachant que I est proportionnel
au carré de p :
I P
N p 10
log 20 log e (19)1
Io Po

1. Nous utilisons la lettre N pour indiquer le niveau, alors que la normalisation internationale utilise la
lettre L de l’anglais level.
36 Le livre des techniques du son

et une puissance W a pour niveau :

W
N w 10 log (20)
Wo
avec p0 = 20 µPa, I0 = 10–12 W/m2, W0 = 10–12 W.
De la définition donnée précédemment de la puissance acoustique d’une source,
et des expressions précédentes, sachant de plus que l’intensité sonore émise par
une source décroît avec la distance comme le carré de celle-ci, il s’établit ainsi des
relations entre le niveau de pression à distance r d’une source et le niveau de puis-
sance de celle-ci :
• si elle rayonne sphériquement dans tout l’espace, la surface S est 4r2,
donc :
W ⋅1012
N p = 10 log = N w − 20 log r − 11 (21)
4 πr 2
• si elle est sur un sol dur, et rayonne dans une demi-sphère, 2r2 :
Np = Nw – 20 log r – 8 avec r en m  (22)
D’après les règles précédentes, il apparaît qu’additionner deux nombres égaux en
décibels, ou doubler cette puissance acoustique, c’est ajouter trois décibels. Ce qui
fait que (2) + (2) = (5), et (92) + (92) = (95). Ceci montre d’ailleurs que si l’on
ajoute non pas N + N, deux quantités égales mais des quantités non égales, la plus
petite deviendra vite négligeable.

(90 dB) + (80 dB) = 10  log (109 + 108) = 10  log (1,1 109) 


= 90 + 10  log (1,1) = 90,4 dB

donc pratiquement toujours 90 dB. Ceci a de grandes conséquences pratiques.


Un affaiblissement de trois décibels correspond à une division par deux de l’in-
tensité, mais c’est à peine sensible. Si le niveau de bruit baisse de trois décibels
dans une salle, vous vous en apercevrez un peu dans la demi-seconde qui suit,
mais si vous sortez de la salle et rentrez le lendemain, après que le niveau ait baissé
de trois ou même de cinq décibels, vous ne vous en apercevrez pas.
Or, diminuer de six décibels, c’est déjà diviser par quatre l’intensité sonore. Si on
veut réellement « insonoriser » il faut gagner au moins 20 ou 30 décibels, c’est-­
à-dire diviser par 100 ou par 1 000 l’intensité sonore ; si on veut gagner 60 déci-
bels, c’est un rapport d’intensité de 1 million qu’il faut gagner sur l’émission ou la
propagation sonore.
Chapitre 1 – Acoustique fondamentale 37

Tout ceci est vrai pour comparer des bruits (ou des sons) ayant les mêmes fré­quences,
ou des spectres sonores analogues. Un bruit aigu, même peu intense, peut être très
gênant s’il vient s’ajouter à un bruit de fond de tonalité grave ou moyenne.
Il faut faire attention à la différence physique fondamentale entre le niveau de
pression Np et le niveau de puissance Nw , en décibels l’un et l’autre, et dont les
ordres de grandeurs peuvent être voisins.
Le niveau de pression, ou d’intensité, est, dans une échelle logarithmique, le repé-
rage d’une pression sonore propagée suivant un rayon intéressant l’oreille de
l’homme ou sa tête, et qui est donc caractéristique non seulement de la source qui
l’a produite mais de toute la propagation depuis cette source. L’intensité est définie
à partir du carré de cette pression, mais la puissance est l’intégration sur une
sphère ou une surface quelconque entourant la source de ces débits d’énergie
(mathématiquement, le choix des surfaces n’a pas d’importance). Cette puissance
acoustique, mesurée en watts, est caractéristique de la source. Elle peut aussi être
exprimée en décibels (21-22).
Le nombre mesurant la puissance acoustique et le nombre mesurant l’intensité
sonore, à distance r d’une source isotrope (rayonnant également dans toutes les
directions), sont identiques si la sphère de rayon r a une surface de 1 m2, soit
r = 28 cm (si la source est sur un sol dur, la surface de référence sera la demi-
sphère de rayon r, et r = 40 cm). En ce point, le niveau de pression est égal au
niveau de puissance. Mais dès qu’on s’éloigne, le niveau de pression diminue et
par conséquent la pression sonore dépend d’abord de la puissance de la machine,
mais aussi de la distance et de tout ce qui peut se produire comme incident au
cours de la propagation.

1.4.5 Propagation atmosphérique. Sol, écrans, parois


Entre la source et le point de réception, l’onde sonore subit un certain nombre
d’avatars, par l’atmosphère et les obstacles qu’elle rencontre. Ceci va contribuer à
l’atténuer (distance, absorption, perte à la transmission…) mais parfois à la
© Dunod – Toute reproduction non autorisée est un délit.

renforcer (réflexions, réverbérations…).


L’onde vient d’une source sonore, par exemple d’une petite sphère qui débite dans
l’atmosphère.
Le premier phénomène de propagation est l’atténuation géométrique.
L’énergie émise se dilue sur des sphères de plus en plus grandes, dont la surface
varie comme le carré de la distance r (figure 1.18) ; l’intensité en watt par mètre
carré sera donc d’autant plus petite que l’on sera à grande distance, et diminue
comme l’inverse du carré de la distance, donc comme 1/r 2, c’est-à-dire que le
38 Le livre des techniques du son

niveau diminue comme – 20  log  r ; le niveau diminue de 6 dB quand on double la


distance à la source. Si au lieu d’être une petite sphère (source simple) la source est
linéaire (c’est le cas d’une route où la circulation est intense et pratiquement
constante), son énergie se dilue sur un cylindre, dont elle est l’axe ; la surface croît
comme la distance, et non plus son carré ; le niveau diminue comme – 10  log  r ;
la diminution n’est que de 3 dB quand on double la distance.

Figure 1.18 — Atténuation totale par octave


(géométrique + absorption atmosphérique) du son dans l’air en fonction de la distance
parcourue et pour diverses bandes de fréquence. La droite supérieure (pente 6 dB par
doublement de distance) donne l’atténuation due à la diffusion sphérique des ondes. La distance
entre cette droite et l’une des courbes indique, pour cette distance, l’absorption moyenne
dans l’octave, due à la viscosité et aux échanges moléculaires dans l’air. Celle-ci varie avec
la température et l’humidité : elle est donnée ici pour 15 °C et 50 % d’humidité relative [6].

L’atténuation observée dans l’atmosphère est beaucoup plus importante que celle
donnée seulement par celle loi de diffusion géométrique, et qu’on obtiendrait
dans le cas d’une atmosphère homogène, sans vent, et non absorbante, loin du sol
ou de tout autre obstacle.
Dans le cas encore simple de l’atmosphère homogène et isotrope, sans vent ni
variation de température, l’énergie vibratoire transmise par les molécules en
mouvement est atténuée d’abord par la viscosité de l’air (force proportionnelle à la
vitesse, et en sens contraire). Le calcul montre que l’atténuation ainsi produite est
Chapitre 1 – Acoustique fondamentale 39

– en décibels – proportionnelle à la distance parcourue et au carré de la fréquence


du son, et qu’elle dépend peu de la température.
Elle est très faible pour les fréquences graves (pratiquement négligeable en
dessous de 500 ou 1 000 Hz) et importante pour les fréquences élevées et pour les
ultrasons (par exemple 10 dB/km à 10 000 Hz, 10 fois plus à 30 kHz).
Mais cette absorption (dite autrefois « classique ») ne suffit pas à expliquer celle
trouvée expérimentalement, surtout aux basses fréquences, absorption appelée
autrefois « anormale ».
Les études faites depuis quelques dizaines d’années ont mis en évidence les effets
des échanges thermiques lors des vibrations des molécules. En effet, les échanges
d’énergie lors des chocs de celles-ci se font avec un retard dit « temps de relaxa-
tion », qui dépend de la nature des molécules (oxygène, azote, vapeur d’eau, gaz
carbonique) ainsi que de la température. Ceci conduit à un coefficient supplé-
mentaire d’absorption (en décibels), proportionnel à la fréquence (et non plus à
son carré) et variant beaucoup avec la composition de l’air (en particulier son
degré d’humidité), la pression atmosphérique et la température.
Les travaux récents ont abouti, à des abaques et des logiciels de calcul permettant
de prévoir l’atténuation totale (géométrique, visqueuses, moléculaire) sur un
parcours sonore donné.
À titre d’exemple, la figure 1.18 donne l’atténuation totale prévisible, en fonction
de la distance, pour diverses fréquences dans des conditions atmosphériques
courantes (15 °C, 50 % d’humidité).
Malgré ces études théoriques, permettant de mieux expliquer les phénomènes,
on observe encore, au-dessus du sol, des écarts importants entre l’atténuation
ainsi calculée et celle observée ; on l’appelle « atténuation excédentaire ».
La propagation, étudiée théoriquement pour une atmosphère calme et homo-
gène, est perturbée par la turbulence de l’air, et les caractères aléatoires de l’atmos-
phère. Les variations quasi-imprévisibles (ou connues statistiquement) de la
© Dunod – Toute reproduction non autorisée est un délit.

vitesse du vent et de la température en fonction de l’altitude (surtout entre 0 et


100 m) provoquent d’une part une variation de la vitesse du son (suivant Ta ,
voir § 1.4.1) et un entraînement par la composante, suivant la direction du son,
du vent local. Cela entraîne des courbures des rayons sonores, vers le bas si la
composante horizontale du vent croît avec l’altitude (vent portant) ou si la tempé-
rature (donc la vitesse du son), croît également avec l’altitude ; la courbure est vers
le haut dans les cas contraires.
En général, le vent a une vitesse croissante et la température diminue quand
on  s’élève ; ­ces effets agissant soit dans le même sens, soit en sens contraire,
40 Le livre des techniques du son

produiront des renforcements locaux de sons ou des zones de silences (figure 1.19).


Les emplacements où on les observe peuvent varier rapidement lors de change-
ments météorologiques, tels que début ou fin de journée (inversion de tempéra-
ture : sur une certaine hauteur, la température croît quand on monte).

Figure 1.19 — Réfraction du son dans l’atmosphère


lors d’inversion de température ou de gradient de vent, zone de silence suivie d’une zone
d’audition lointaine. Normalement, la température diminue quand on s’élève
dans l’atmosphère, donc c diminue quand z croît, et les rayons sonores émis en altitude
ont une courbure vers le haut. S’il y a inversion de température, ou (et cela est courant)
accroissement du vent avec l’altitude, dans le sens des ondes, celles-ci ont une courbure vers
le bas, donc convergent vers le sol. Ces deux effets peuvent se contrarier ou s’additionner.

D’autres événements rencontrés par la propagation sont dûs au sol et aux obsta-
cles de plus grande hauteur.
Si le sol est réfléchissant (dur : béton, ou surface d’eau calme) il agit comme un
miroir. Au point de réception, nous recevons l’onde directe et l’onde réfléchie,
venant d’une source image (figure 1.20).
Il en est de même si au lieu du sol, il y a un mur, et il y aura plusieurs sources
images s’il y a plusieurs réflecteurs (voir § 3.1).
Si le sol est couvert d’herbe, ou si c’est un terrain labouré, ou un champ de maïs, il
sera plus absorbant et cet effet de sol deviendra beaucoup plus faible. À incidence
rasante, les phénomènes sont plus compliqués, et l’atténuation peut être très forte.
L’onde sonore, rencontrant les parois d’une « boîte » (murs, maison, capot…) se
réfléchit partiellement suivant le schéma précédent mais une partie de l’énergie
est transmise à travers la paroi. La proportion d’énergie réfléchie est le facteur de
réflexion qui dépend de l’impédance présentée par la paroi, elle-même fonction
de la fréquence, et des propriétés mécaniques de propagation dans le matériau de
cette paroi. La proportion d’énergie transmise est le facteur de transmission qui
dépend de la fréquence du son, la masse de la paroi (par mètre carré de surface de
celles-ci) et de ses propriétés mécaniques d’ensemble : élasticité, fréquences
propres. L’isolement global, en décibels, varie comme le logarithme de la
fréquence et le logarithme de la masse par unité de surface (« loi de masse »). Il est
Chapitre 1 – Acoustique fondamentale 41

donc faible aux basses fréquences et pour des parois légères, très important aux
fréquences élevées et avec un mur lourd.
Cette « loi de masse » est modifiée par les différentes fréquences propres de la
paroi, autour desquelles la propagation est beaucoup plus importante que celle
donnée par la loi de masse (voir § 3.3.2).

Figure 1.20 — Réflexion et diffusion à la surface de séparation


de deux milieux. S0 = source sonore. S1 = source image. Au point M, on reçoit l’onde directe
S0M et l’onde réfléchie, comme si elle venait de S1. La surface peut agir exactement
comme un miroir ; l’énergie perdue, par rapport à celle reçue, est le facteur d’absorption.
Un milieu poreux (sol) peut de plus donner une propagation d’ondes superficielle
et une diffusion du son. Une partie de l’énergie incidente est réfractée dans le 2e milieu,
comme en optique. Les angles et rapports d’intensité dépendent de la vitesse du son
et de l’impédance caractéristique de chaque milieu, ρ0c0, ρ1c1.

Si, derrière cette paroi, se trouve un volume clos, comme une salle, les ondes
acoustiques transmises se réfléchissent sur les parois intérieures, perdant à
chaque fois un peu d’énergie, en perdant aussi lors des parcours et par l’effet des
obstacles rencontrés. Cette persistance, pendant une durée notable, de l’énergie
sonore transmise, est la réverbération du local.
Le niveau sonore dans ce local ne dépendra donc pas seulement de la transmission
à travers les parois, mais aussi de l’absorption intérieure du local. C’est pourquoi la
normalisation définit un « isolement normalisé » qui tient compte de cet effet.
© Dunod – Toute reproduction non autorisée est un délit.

La réverbération se manifeste aussi, évidemment pour toute source sonore inté-


rieure au local.
Si on arrête brusquement une source de bruit, les ondes sonores qui étaient émises
continuent à cheminer dans la pièce, et le niveau sonore initial (à l’équilibre de
l’émission et de l’absorption) décroît plus ou moins vite. Le temps pendant lequel le
niveau décroît de 60 dB à partir du niveau initial est la durée (ou temps) de réverbé-
ration Tr. Il est de l’ordre de 0,5 s dans une pièce d’habitation meublée, de l’ordre de
2 à 3 s dans une salle, jusqu’à 8 à 10 s ou plus dans des grandes salles « claires ». Ce
paramètre est une caractéristique importante des lieux d’écoute (mais pas le seul).
42 Le livre des techniques du son

De même que l’absorption varie avec la fréquence, cette durée varie également, et
sera en général plus longue aux fréquences basses qu’aux aiguës.
Sans rencontrer les limites fermées d’un espace clos, l’onde sonore sera également
perturbée par une paroi limitée, formant écran. Des calculs analogues à ceux faits
en optique permettent de prévoir, pour une source et un écran donnés, la varia-
tion du niveau sonore apportée par celui-ci. L’atténuation dans « l’ombre géomé-
trique » dépend surtout de l’angle de diffraction et des rapports des dimensions
(hauteur, distance) à la longueur d’onde.
Si un écran (tel que ceux placés aux bords d’autoroutes) peut apporter 10 à 15 dB
d’atténuations, son efficacité est très affectée par des réflexions diverses, et surtout
par les vents portants qui courbent les rayons sonores.

Figure 1.21 — Effet d’écran. Les ondes sonores peuvent


partiellement contourner un obstacle, tel un mur. Au-dessus de celui-ci,
elles passent librement : pas d’atténuation en M1. Dans l’alignement de la crête,
la moitié des surfaces d’ondes est arrêtée : pression sonore divisée par 2 en M2 ,
atténuation (théorique) 6 dB. Dans « l’ombre géométrique » de l’écran (M3)
le rayonnement vient, par diffraction, de la crête. L’atténuation (par rapport à l’onde SM3
qu’on aurait reçue sans écran) croît avec l’angle j et dépend des rapports à l
des diverses dimensions. Les formes diverses d’écrans (larges, en dièdre, en talus)
et les réflexions sur le sol modifient l’effet théorique.

1.4.6 Analyse fréquentielle. Spectres, octaves


Un oscillateur simple qui effectue des déplacements sinusoïdaux à une fréquence
unique et bien définie, émet un son pur qui peut être représenté, en fonction du
temps par la sinusoïde de la figure 1.3. On peut aussi schématiser ce son par un
simple trait vertical (figure 1.22) dont la hauteur représente l’amplitude et la posi-
Chapitre 1 – Acoustique fondamentale 43

tion, sur l’axe des abscisses, gradué en fréquence, marque la valeur de sa fréquence
propre (représentation amplitude-fréquence). Si le son comporte des harmo-
niques, il est périodique de période T, et le théorème de Fourier dit que la pression
sonore (ou toute autre grandeur périodique) est la somme des sinusoïdes de
périodes f = 1/T, 2f, 3f… nf, donc sur le schéma précédent, la représentation sera
une succession de traits verticaux représentant chacun l’amplitude des compo-
sants, et placés aux abscisses f, 2f, 3f… Une extension de ces théories permet de
représenter par une fonction continue ou non, de la fréquence f, toute fonction
quelconque p(t), sous réserve de quelques conditions.
Les calculs permettant de passer d’une fonction du temps telle que p(t) à une
fonction de fréquence P( f  ) s’appellent transformation de Fourier (ou TF ou F). Le
calcul inverse, de P( f  ) à p(t) est la transformation inverse ou F–1 (chapitre 5).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 1.22 — Analyse fréquentielle de divers bruits.

Ceci est la base de l’analyse fréquentielle primordiale dans les études acoustiques.
Elle transforme le signal temporel p(t) en un spectre de fréquences :
• spectre de raies, d’un signal périodique,
• spectre continu, d’un signal aléatoire (large bande),
• spectre composite, superposition des précédents.
44 Le livre des techniques du son

Un tel spectre représente le signal dans toute l’étendue fréquentielle (de 20 Hz
à 20 kHz par exemple pour la bande audible) ce qui conduit à un nombre
énorme d’informations : la densité spectrale est la quantité d’énergie dans
chaque bande de fréquence de largeur 1 Hz soit 19 980 nombres pour la bande
20 Hz-20 000 Hz !… Si cela représente bien un phénomène physique précis,
une définition aussi complète (analyse fine), est longue, coûteuse, encom-
brante… et pas tellement nécessaire en général.
On préférera le plus souvent regrouper l’énergie contenue dans une bande de
fréquence f, plus large (10 Hz, 25 Hz…), ou mieux dans une bande de largeur
relative constante f/f.
En effet, il n’est pas nécessaire de connaître avec autant de détails ce qui se passe
dans l’octave 5 000-10 000 Hz que dans l’octave 100-200 (sauf recherche d’une
fréquence pure telle que le sifflement d’un compresseur, nécessitant une analyse
fine, mais dans une bande de fréquences pas trop large et déjà évaluée).
C’est pourquoi l’analyse fréquentielle la plus usuelle en acoustique est faite par
bandes d’octaves, dont les limites sont chacune le double de la précédente, et la
fréquence centrale est le produit par 2 de la fréquence de coupure inférieure. La
normalisation a choisi, pour définir ces bandes d’analyses, les fréquences centrales
multiples et sous-multiples de 1 000 Hz (31,5, 63, 125, 250, 500, 1 000, 2 000,
4 000 et parfois 8 000 Hz).
Une définition un peu meilleure du spectre est donnée par l’analyse en tiers
­d’octave dont les coupures sont dans le rapport, non pas 2 mais 3 2 . L’analyse par
octave fournira 8 ou 9 valeurs spectrales, l’analyse par tiers d’octave, 24 ou
27  bandes. Les fréquences centrales sont alors dans le rapport 6 2 avec la
fréquence de coupure inférieure.
Toutes ces représentations donnent les niveaux (de pression sonore, ou d’inten-
sité, ou de puissance) en fonction de la fréquence, mais cependant de manières
différentes. Dans l’analyse fine, ou la densité spectrale, les niveaux sont en décibels
par hertz, ou niveau dans chaque bande de fréquence de 1 Hz.
Dans les analyses par octave, les niveaux sont en décibels par octave. Comme les
octaves contiennent un nombre de hertz croissants, doublant d’une octave à la
suivante, on voit qu’un même son sera représenté par des courbes d’allures diffé-
rentes.
De même, puisqu’il y a trois tiers d’octaves dans un octave, pour un même bruit le
niveau par octave (niveau de la somme des intensités dans chacun des trois tiers),
sera de l’ordre de 5 dB au-dessus du niveau moyen par tiers d’octave, puisque
10  log 3 = 4,8  5.
Chapitre 1 – Acoustique fondamentale 45

1.5 Bibliographie
[1] AFNOR. Vocabulaire de l’acoustique – Association Française de Normalisation – Tour
Europe – Cedex 7 92080 Paris la Défense.
[2] Y. Rocard. Dynamique générale des vibrations – Masson (1971).
[3] S. Timoshenko. Théorie des vibrations – Béranger (1939).
[4] Y. Jullien. Vibrations des systèmes élastiques – Monographie Acoustique du GALF –
Masson (1971).
[5] Morse-Ingard. Theorical Acoustics – Mc Grawhill (1968).
[6] P. Liénard et P. François. Acoustique industrielle et environnement – Acoustique
physique et perceptive – Monographie Acoustique du GALF – Eyrolles (1983).
[7] P. Liénard. Décibels et indices de bruits – Masson (1978).
[8] CETIM. 1er Congrès international sur l’intensité acoustique – BP 67 60304 Senlis
(1981).
P. Liénard – M. Bockoff – J.-C. Pascal – J. Touret. Progrès récents dans la mesure de
l’intensité acoustique – Revue d’Acoustique no 60 (1982).
CETIM. 2e Congrès international sur l’intensité acoustique – BP 67 60304 Senlis (1985).
Revue d’Acoustique (no 80, 1987).
CETIM. Intensimétrie acoustique. Résumé des publications du département Acous-
tique, 1977-1983 – BP 67 60304 Senlis.
[9] M. Bruneau. Manuel d’Acoustique fondamentale – Éditions Hermès (1998).
[10] A. Chaigne. Ondes acoustiques – Éditions École Polytechnique (janvier 2002).
 . Bourcet. Méthode simplifiée pour les mesures in situ de la transmission des bruits
[11] P
dans les constructions – Mémoire de physique option acoustique, CNAM (1977).
Chapitre 2

Les sources acoustiques

Michèle Castellengo
Directrice de recherches émérite (CNRS),
L.A.M. – Institut d’Alembert (UMR 7190) – Université Paris 6

L’objet de ce chapitre est de faire le point sur la production sonore et le rayonnement


des sources musicales, et de fournir une approche de l’étude du timbre. L’étude de
la voix est traitée à part. Bien des questions restent en suspens, le domaine de
connaissances abordé ici étant encore en pleine évolution.

2.1 Les instruments de musique mécaniques.


Principe de fonctionnement et classe de timbre
2.1.1 Structures vibrantes et générateurs des instruments de musique
Tout instrument de musique est constitué fonctionnellement de deux parties :
• l’excitateur, auquel le musicien fournit de l’énergie,
• la structure vibrante (ou corps sonore), dont les déformations sont à l’ori-
gine du champ acoustique rayonné (figure 2.1).
48 Le livre des techniques du son

Figure 2.1 — Mode de génération du son


dans les trois principaux groupes d’instruments de musique.

Dans les instruments à percussion, le musicien excite directement le corps sonore


par l’intermédiaire d’un marteau. La hauteur et le timbre du son produit
dépendent de la forme et de la nature du matériau percuté ainsi que de ceux du
percuteur. On rencontre de nombreux cas d’espèces : membranes élastiques
(timbales), plaques métalliques (cymbales), verges de bois ou de métal (vibra­
phone), cavités diverses… Le son rayonné par un instrument à cordes provient
principalement des déformations de la caisse (table d’harmonie, fond, éclisses) et
de la vibration de l’air enclos dans le volume intérieur. La corde joue un rôle
compliqué : mise en vibration par le musicien au moyen d’un marteau (piano),
d’un plectre (guitare) ou d’un archet (violon), elle impose pratiquement à la caisse
la fréquence des déformations. Dans le cas des instruments à cordes frottées,
l’osci­llation étant périodiquement entretenue par l’archet, le son produit est
harmo­nique. Quant au timbre, il dépend de tous les éléments de la chaîne de
production : mode d’excitation, nature de la corde, forme et matériau de la caisse.
Les instruments à vent ont en commun le mode de rayonnement : ce sont les
orifices de cavités à l’intérieur desquelles l’air vibre à la fréquence perçue par l’au-
diteur. Cette fréquence est le résultat de la coopération entre deux oscillateurs
ayant chacun leurs modes propres : l’excitateur et la cavité. L’excitateur est généra-
lement dominant dans les anches ; il impose sa fréquence au système (cuivres) ou
interagit fortement avec les modes propres du tuyau. Dans les flûtes, au contraire,
c’est la cavité qui impose au jet d’air sa fréquence d’oscillation. Le timbre de la
source dépend à la fois du réglage de l’excitateur responsable de la forme de varia-
tion du débit d’air et de la géométrie interne de la cavité. Quant au timbre du son
Chapitre 2 – Les sources acoustiques 49

perçu par un auditeur, il est grandement dépendant de la position de ce dernier


par rapport à la source ainsi que des caractéristiques acoustiques du lieu d’écoute.
Les structures vibrantes sont de deux sortes :
• des cavités aériennes, de forme quelconque (voix, sifflet), ou de tuyaux cylin­
driques, coniques… percés ou non de trous latéraux (instruments à vent) ;
• des corps solides déformables, de matériaux et de formes diverses : caisses
de bois minces (instruments à cordes), membranes élastiques (tambours),
plaques ou verges (cloches, xylophones).
Les instruments se classent généralement dans l’une ou l’autre catégorie mais
certains utilisent les deux structures comme le vibraphone qui combine les lames
métalliques et des résonateurs. Le matériau des tuyaux, surtout s’il est mince
(saxophone), peut jouer un rôle non négligeable dans le rayonnement. La cavité
aérienne délimitée par la caisse de résonance (guitare) y contribue également par
son premier mode propre.

Figure 2.2 — Classification des instruments


© Dunod – Toute reproduction non autorisée est un délit.

selon le mode de production du son. Sur le plan acoustique on distingue


deux grandes classes selon que le son est impulsif (I) ou entretenu (II).

Les types d’excitateurs mécaniques sont également en nombre limité. Ils jouent un
rôle déterminant dans la reconnaissance de la source (voir timbre, § 2.4).
L’apport d’énergie peut être :
• unique comme par exemple un choc, un pincement, une brusque compres-
sion ou dépression et suivie d’une série d’oscillations plus ou moins rapide-
ment amorties (corde, air, métal),
50 Le livre des techniques du son

• fournie périodiquement par synchronisation sur un des modes propres de


la structure vibrante : corde frottée (violon), jet d’air oscillant (flûtes) et
tous les systèmes d’anches : battante, libre, double, membraneuse.
Les instruments traditionnels sont une combinaison plus ou moins complexe de
ces divers éléments (figure 2.2).

2.1.2 Les deux classes acoustiques de sons instrumentaux


Aussi divers que soient les instruments de musique, on peut toujours les ramener
à l’une des trois catégories traditionnellement adoptée par les musiciens : les
vents, les cordes, les percussions. Il s’agit de trois classes de timbre à l’intérieur
desquelles on trouve des subdivisions selon le mode d’excitation employé.
Évidemment, toute classification porte en elle-même ses « exceptions », on trouve
des percussions parmi les cordes, le piano, et des sons entretenus dans les percus-
sions (cymbale jouée à l’archet par exemple).
En ordonnant les diverses familles musicales d’instruments selon des critères
acoustiques, on obtient le tableau 2.1.
On constate donc que selon leur mode d’excitation, les instruments se rangent dans
deux grandes classes de sons dont les caractéristiques peuvent être opposées :

Tableau 2.1

II. Le son est produit


I. Le son est produit
par une succession d’impulsions
par une impulsion unique
répétées périodiquement

– Spectre inharmonique, ± continu. – Spectre harmonique.


– Front d’attaque bref accompagné – Attaque relativement douce à très douce.
de bruits plus ou moins importants. – Extinction brève intervenant dès
– L’extinction succède immédiatement que cesse l’entretien.
à l’attaque, elle « est » le son. – Tous les « Vents », y compris la voix et les
– Cordes pincées et frappées ; cordes frottées.
toutes les percussions.

Les systèmes excités par une seule impulsion, classe I, transforment l’énergie
cinétique qui leur a été communiquée en énergie vibratoire acoustique par le
moyen des déformations des plaques qui les constituent ; celles-ci entraînent
également la vibration des cavités aériennes qu’elles délimitent (caisses des
tambours, des instruments à cordes).
Les systèmes alimentés par une source d’énergie continue comme le courant d’air
ou le frottement de l’archet classe II, transforment celle-ci en énergie vibratoire
dès le système excitateur : archet + corde ou « robinet » périodique de l’anche ou
Chapitre 2 – Les sources acoustiques 51

du jet d’air. Aux principaux types de sons instrumentaux et vocaux on peut faire
correspondre une typologie sonagraphique élémentaire volontairement schéma-
tique (voir § 2.1.3).
Le sonagramme fournit une représentation visuelle de l’évolution temporelle du
spectre acoustique. Le temps est en abscisse, la fréquence en ordonnée : l’inten-
sité est figurée par la noirceur et par l’épaisseur des traits. L’intérêt essentiel du
sonagramme est qu’il donne rapidement, sous une forme condensée et facile-
ment interprétable une grande quantité d’informations raccordables avec les
données perceptives. Son emploi convient particulièrement bien à l’étude du
timbre et à l’analyse de la parole, domaines où l’information est contenue dans les
formes acoustiques temporelles pour lesquelles sa représentation est bien
adaptée. Dans la phase exploratrice d’une étude, le sonagramme fournit des
informations globales sur le son qui permettent de prévoir des analyses plus
ponctuelles en connaissance de cause.

2.1.3 Quelques sons instrumentaux typiques


La figure 2.3 nous donne l’image sonagraphique de sons instrumentaux repré-
sentatifs des principales catégories mentionnées dans les tableaux.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 2.3 — Représentation schématique de l’image sonagraphique


de quelques sons types. En haut, sons harmoniques (classe II). La hauteur d’un son
harmonique est donnée sur un sonagramme en échelle linéaire par l’équidistance des raies
spectrales. Le nombre des raies, leurs intensités relatives, traduites par la noirceur
et la largeur des traits contribuent à la sonorité. Les phénomènes rapides se produisant
au début des sons (flûte, cor, violon) contribuent grandement à la reconnaissance
du timbre. En bas, sons inharmoniques (classe I). Tous montrent un transitoire d’attaque
bref (trait vertical) et « bruyant ». On reconnaît instantanément les sons quasi harmoniques
de hauteur bien définie (guitare, piano) ou les bruits colorés (cymbales, tambour).
52 Le livre des techniques du son

Figure 2.4 — Analyse spectrographique d’une gamme chromatique


jouée sur quatre instruments. Ce type de document illustre avec beaucoup d’évidence
la notion de « famille » de timbre. Bien que les sons successifs d’un instrument donné
soient tous différents, l’ensemble montre une homogénéité caractéristique de chaque source
instrumentale. On remarque le clavecin pour la richesse du contenu spectral, aussi bien dans
le grave que dans l’aigu, et pour la continuité des zones de réjection dues au point
de pincement (zones blanches sur la figure). Le spectre des instruments à vent
se transforme en fonction de la tessiture : voir les raies de souffle entre les harmoniques
de la flûte, dès le Ré4 et surtout après le Ré5, et le renforcement des harmoniques pairs
de la clarinette dès le La3. Les traits verticaux parasites correspondent aux bruits de clés !
Note : les noms de notes indiqués correspondent aux hauteurs réelles.

On identifie instantanément les composantes du spectre figurées par des traits


horizontaux, équidistants lorsqu’il s’agit d’harmoniques (classe II) et les bruits
représentés par des nuages de points diffus pour les bruits d’écoulement ou de
souffle, ou condensés dans un trait vertical pour les bruits de percussion.
Il est bien entendu que ces exemples fortement schématisés montrent, comme le
fait une caricature, les caractéristiques saillantes de chaque catégorie de son, mais
Chapitre 2 – Les sources acoustiques 53

que la réalité est autrement complexe et nuancée ; les diverses notes d’un instru-
ment n’étant pas, comme on l’a souvent pratiqué en synthèse, la simple transposi-
tion du grave à l’aigu de la même forme spectrale.

2.2 Dynamique
2.2.1 L’oreille et les dB : le crescendo instrumental
La variation d’intensité des sons purs se mesure en dB. Faire un « crescendo »
avec une sinusoïde c’est tourner le potentiomètre du générateur.
Avec les sons instrumentaux et vocaux, les choses se compliquent. On sait que
l’oreille ne réagit pas de la même façon aux variations d’intensité dans le grave,
dans le médium et dans l’aigu (voir chapitre 4 « La perception auditive »). Or, les
sons instrumentaux sont pour la plupart riches en harmoniques. La variation
dynamique d’un son, par exemple un crescendo, n’est pas un simple grossisse-
ment du son, mais correspond à un enrichissement du spectre dans la « zone
sensible » de l’oreille aux environs de 3 000 Hz. Pendant le crescendo, le fonda-
mental, aura pu conserver la même intensité ou même s’affaiblir. Un crescendo
instrumental efficace à l’oreille ne se traduit donc pas toujours par une impor-
tante déviation de l’aiguille du Vu-mètre.
Sur la figure 2.5, on a représenté en a) l’analyse d’un son émis dans la nuance
« piano » puis « forte » avec un spectre semblable, et en b) celle d’un son réel instru-
mental joué « piano » puis « forte ». On peut facilement trouver des cas semblables
à b), où le son, fort pour l’oreille, ne provoque qu’une faible déviation de l’aiguille.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 2.5 — Changement d’intensité et variation spectrale.


a) Un son synthétique joué faible puis plus fort par variation du niveau de sortie : le spectre reste
semblable mais toutes les composantes sont plus intenses; b) même changement dynamique
avec un son instrumental : le spectre s’est enrichi dans la zone de fréquence où l’oreille est la plus
sensible. On voit donc que la lecture du Vu-mètre renseigne sur la variation d’intensité électrique
produite lors du crescendo mais pas sur l’effet perçu qui est ici le même dans les deux cas.
54 Le livre des techniques du son

C’est lors d’un crescendo que ce phénomène devient très caractéristique


(figure 2.6). Les importantes transformations du spectre avec l’augmentation
d’amplitude de l’excitation s’expliquent par le comportement non linéaire des
instruments de musique.

Figure 2.6 — Le crescendo instrumental.


Un crescendo sur une note tenue de trompette est caractérisé
par un considérable enrichissement du spectre en composantes aiguës
et plus particulièrement dans la zone comprise entre 1 500 et 3 000 Hz.
Au piano le crescendo produit également un important enrichissement du spectre
accompagné d’une forte augmentation des bruits de percussion dans le grave et le médium.

2.2.2 Sons impulsifs


L’intensité des sons impulsifs – instruments à percussion ou bruits divers (marteau
piqueur…) – est difficilement mesurable et analysable. De plus, on connaît mal les
réactions de l’oreille à de tels sons. La prévisibilité joue un grand rôle dans l’appré-
ciation de leur intensité et les variations individuelles sont grandes.
C’est donc un problème difficile pour le preneur de son. Il doit connaître les limites
techniques de son appareillage pour éviter la saturation et par ailleurs estimer
correctement l’effet perceptif en vue d’un bon équilibre.

2.2.3 La gamme dynamique de quelques instruments


Le comportement dynamique des instruments de musique a fait l’objet de peu
d’études. On trouve généralement quelques chiffres indiquant le « maximum » en
dB de certains instruments. C’est bien insuffisant.
Chapitre 2 – Les sources acoustiques 55

Les questions importantes sont :


• Comment varie l’intensité maximum d’un instrument, du grave à l’aigu ?
• Quel est l’écart le plus grand possible entre les sons fortissimo (ff) et les
sons pianissimo (pp) ?
L’étude de Clark & Luce, menée en 1965 [8], donne des éléments très intéressants
(figure 2.7). Des instruments présentés, le plus intense est sans conteste la trom-
pette, le plus faible, la flûte dans le grave. On constate que tous les instruments à
vent ont une courbe du maximum d’intensité qui croît avec la fréquence, mais
celui dont la pente est la plus forte est la flûte (instrument à grand débit d’air). La
courbe inverse de la contrebasse s’explique par la nécessité de produire un son
très intense dans les basses fréquences où l’oreille est peu sensible, et par la possi-
bilité qu’a l’instrumentiste de « timbrer » les notes aiguës (250 Hz) en jouant près
du chevalet. Enfin, l’écart entre les deux limites, pp et ff, renseigne sur la dyna-
mique en dB de l’instrument, et la variation de cette dynamique avec la fréquence.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 2.7 — Étendue dynamique de quelques instruments


d’après Clark & Luce. De tels diagrammes renseignent sur les intensités relatives
des instruments et sur la variation de chacun d’eux en fonction de la tessiture.
56 Le livre des techniques du son

2.3 Rayonnement des sources acoustiques


Les ouvrages d’acoustique consacrés aux instruments de musique se donnaient
principalement pour tâche, jusqu’à une époque récente, d’expliquer le fonc­
tionnement des cordes vibrantes, des tuyaux, des plaques, sans envisager de
façon concrète la façon dont les diverses parties vibrantes émettent dans l’air
environnant. Nous ne donnons ici que les grands principes. Pour plus de détail on
pourra consulter avec profit l’ouvrage édité récemment par A. Chaigne et J. Kergo-
mard [6].
De l’énergie totale communiquée à l’instrument, la plus grande partie est dépensée
pour l’entretien des vibrations ou perdue en frottements visco-thermiques. Une
faible partie seulement est transformée en énergie vibratoire aérienne. Le rende-
ment acoustique des instruments à vent est particulièrement mauvais : de l’ordre
de 2 % à 5% de l’énergie fournie.

2.3.1 Données physiques sur le rayonnement des sources en champ libre


Une source petite devant la longueur d’onde, peut être considérée comme ponc-
tuelle. Son rayonnement est omnidirectionnel et l’intensité décroît en fonction
du carré de la distance.
Une flûte bouchée (bourdon) en est un bon exemple. L’expérience montre que le
signal acoustique recueilli en divers points de l’espace est identique à celui de la
source, compte tenu des corrections de phase et du réajustement de l’amplitude
pour compenser l’éloignement (figure 2.8a).

Figure 2.8 — Signal temporel capté simultanément


en deux points de l’espace (champ libre) d’après F. Wu.
a) Source ponctuelle : tuyau à bouche émettant par un seul orifice.
Le signal est semblable aux deux points considérés, à un facteur près
pour l’amplitude et avec un décalage temporel dû à la propagation.
b) Deux sources ponctuelles : tuyau à bouche à deux orifices.
À distance, le signal est réduit en amplitude dans les mêmes proportions
que précédemment mais la forme de la période est différente de celle de la source.
Chapitre 2 – Les sources acoustiques 57

Deux sources ponctuelles donnent lieu à un champ d’interférences encore assez


simple. Le signal acoustique est alors extrêmement variable d’un point à l’autre de
l’espace : le champ acoustique environnant la source est hétérogène (figure 2.8b).

2.3.2 Données sur les modes vibratoires des tuyaux,


et des plaques et membranes

✦ Tuyaux et résonateurs
Les phénomènes vibratoires qui s’établissent dans les tuyaux et cavités sonores
contribuent essentiellement à l’entretien du système excitateur. Aux basses
fréquences, la majeure partie de l’énergie est réfléchie sur l’embouchure ; au fur et
à mesure que la fréquence fondamentale s’élève, une proportion croissante est
rayonnée par l’instrument. La figure 2.9 montre l’analyse au sonagraphe d’une
séquence jouée à la flûte à bec.

Figure 2.9 — Analyse au sonagraphe du son recueilli simultanément


à l’extérieur et à l’intérieur d’une flûte à bec. On voit qu’à l’intérieur du tuyau
l’énergie est essentiellement concentrée dans les basses fréquences.
© Dunod – Toute reproduction non autorisée est un délit.

L’emploi d’un microphone dans cette position pour « sonoriser » la flûte à bec
ne peut évidemment pas donner de bons résultats !

Le signal sonore est enregistré simultanément dans le tuyau au moyen d’un très
petit microphone inséré dans la paroi intérieure de l’instrument (a) et capté par
un microphone extérieur, à 40 cm de l’instrument (b). Par comparaison des deux
analyses on note le nombre et l’importance des harmoniques aigus ainsi que l’af-
faiblissement du fondamental dans le son extérieur.
Les points d’émission sont les ouvertures du tuyau sur l’extérieur : trous latéraux,
pavillon, embouchure de la flûte.
58 Le livre des techniques du son

La vibration des parois est très faible, et, sauf exception, (certains pavillons de trompe
de chasse et de trombone), sa contribution au rayonnement est tout à fait négligeable.
Pour un preneur de son, le cas le plus simple est celui des instruments à un seul
orifice : bourdon, flûte de pan, les cuivres (trompette, trombone, cor, tuba) et voix
humaine. Cette dernière présente toutefois une difficulté supplémentaire puisque
l’orifice de sortie est variable dans le temps, en forme et en section ! (Voir figure 2.24.)
Dès que deux orifices et plus sont ouverts, la question des phases relatives des
sources est à considérer. Il n’est pas possible ici de rentrer dans le détail d’autant
que les rapports de phase varient avec le régime de fonctionnement du tuyau
(fondamental, octave…). Mais il faut savoir qu’il existe de très grandes variations
le long de l’axe du tuyau, surtout si l’on est très près des trous ouverts.
La notion de « fréquence de coupure » mise en évidence par Benade [1] peut
apporter d’intéressants renseignements aux preneurs de son. Prenons l’exemple
d’un tuyau conique. Le relevé de la courbe d’impédance à l’entrée du tuyau montre
(figure 2.10) une série de pics de résonance dont la hauteur et la position sont
caractéristiques de la géométrie de ce tuyau. Ils sont en nombre limité. Un tuyau
percé de trous se comporte comme un filtre passe-haut dont la fréquence de
coupure varie avec le nombre de trous ouverts. Très près du tuyau le champ acous-
tique rayonné par l’instrument est extrêmement variable avec la fréquence émise.
Ce phénomène est surtout sensible avec les instruments à anches dont le spectre
comporte un grand nombre de composantes. Pour les flûtes, il est perçu au travers
des variations d’intensité du fondamental.

Figure 2.10 — Courbe d’impédance d’un tuyau conique


et fréquence de coupure d’après A.-H. Benade.
Les basses fréquences du spectre, correspondant aux pics de la courbe d’impédance,
se réfléchissent à l’intérieur du tuyau au niveau des trous ouverts les plus proches
de l’excitateur. On peut les capter en A. En B, la série des trous ouverts
se comportant comme un filtre, on ne capte plus, pratiquement,
que les fréquences du spectre supérieures à la fréquence de coupure.
Chapitre 2 – Les sources acoustiques 59

✦ Plaques et membranes
On connaît depuis Chladni (1809) les modes vibratoires des plaques de formes
simples (figure 2.11). La recherche bénéficie aujourd’hui de visualisations obtenues
par interférométrie holographique (figure 2.12) et de la modélisation par la méthode
des éléments finis. Toutefois, les conditions d’excitation sont fort éloignées de la
réalité du jeu instrumental. Des recherches ont été faites récemment sur le violon et
sur la guitare [6]. Les déformées obtenues par holographie font apparaître un grand
nombre de lignes nodales en hautes fréquences (> 800 Hz) suggérant un rayonne-
ment multipolaire s’atténuant très vite avec la distance et très peu efficace dans un
axe perpendiculaire à la table, or la guitare émet bien jusqu’à 2 500 Hz au moins !
Des expériences récentes ont montré que le nombre de sources émettrices est relative-
ment réduit. Ces études sont encore bien parcellaires. Pour comprendre les phéno-
mènes, il faudrait relier avec certitude le champ acoustique aux déformées modales.
Le volume d’air contenu dans la caisse de résonance joue également un rôle
important. Son couplage avec les premiers modes de la table a été bien étudié.
On retrouve la fréquence fondamentale de cette résonance dans le spectre du son
impulsif, au moment de l’attaque de la guitare et dans les pizzicati des cordes.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 2.11 — Mise en évidence des modes propres de la membrane


d’une timbale par la méthode de Chladni d’après Th. Rossing (Pour la Science, janvier 1983).
Une poudre fine ayant été répandue sur la membrane on excite celle-ci à toutes
les fréquences du spectre. Pour certaines fréquences la poudre se concentre
en lignes nodales circulaires ou diamétrales où la vibration est quasi nulle.
À chaque mode propre correspond une fréquence de résonance de la peau que l’on pourra,
ou non, retrouver dans le spectre de l’instrument, selon l’endroit où il est percuté.
60 Le livre des techniques du son

Figure 2.12 — Modes propres d’un fond de violon visualisés


par la méthode de Chladni (à gauche) et par interférographie laser,
d’après C. Hutchins. Cette technique, plus délicate à mettre en œuvre,
est plus sensible et plus complète que celle de Chladni.
Elle indique l’ampleur des mouvements dans les zones antinodales
par les lignes minces et sombres des franges d’interférence.

Un des problèmes majeurs rencontrés dans l’étude des instruments à cordes est
celui des dimensions de la source devant la longueur d’onde. C’est pourquoi les
études se limitent généralement aux basses fréquences. Jusque vers 250 Hz
( = 1,30 m) une guitare ou un violon peuvent être assimilés à un monopôle,
mais qu’en est-il d’un piano ou d’un clavecin ? L’essentiel de l’énergie aux basses
fréquences est, dans la guitare, rayonné par la rose. Plus haut, jusqu’à 1 000 Hz, la
table intervient mais la rose continue à avoir une part active. Au-dessus de
1 000 Hz ( = 34 cm) les conditions expérimentales deviennent trop critiques.
Les recherches théoriques effectuées sur les tuyaux et sur les plaques demandent
de grandes compétences mais pour l’heure n’apportent que des connaissances
très fragmentaires sur le rayonnement des instruments de musique. Voyons ce
que l’on peut espérer d’une approche plus globale du problème.

2.3.3 Les méthodes d’études globales de la directionnalité


Il s’agit d’explorer l’espace environnant l’instrument aux différentes fréquences
émises par celui-ci. Immédiatement, divers choix sont à faire pour définir les
conditions expérimentales :
• Enregistrement en champ libre (anéchoïque) ou en salle réelle ?
• À quelle distance de l’instrument doit-on faire les mesures ?
• Quelle surface d’exploration va-t-on choisir ? La surface d’une sphère
centrée sur l’instrument ou certains plans de coupe ?
Chapitre 2 – Les sources acoustiques 61

• Faut-il faire jouer l’instrument par un musicien, le remplacer par un exci-


tateur normalisé (archet automatique, soufflerie), ou encore utiliser une
source d’excitation électroacoustique ? Dans le premier cas, les mesures
sont tributaires du mode de jeu de l’instrumentiste mais dans les deux
autres, on s’écarte notablement de la réalité… musicale, en particulier le
rôle absorbant du corps de l’instrumentiste n’est plus pris en compte.
Une étude exhaustive conduirait à une quantité de données beaucoup trop consi-
dérable pour être traitée efficacement. Les résultats sont soit schématisés soit
traités de façon qualitative.
J. Meyer [17] a procédé à une étude systématique des caractéristiques direction-
nelles des instruments de l’orchestre dans les conditions suivantes : l’instrument
excité de façon sinusoïdale par un dispositif électroacoustique est placé sur une
table tournante dans une chambre anéchoïque. Les résultats sont donnés sous
forme de diagrammes polaires relevés dans certains plans privilégiés (plan
passant par le chevalet, axe du tuyau…) et pour certaines fréquences choisies.
Les figures 2.13 et 2.14 montrent les diagrammes obtenus par le violon d’une part,
la trompette, le trombone et le tuba d’autre part.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 2.13 — Étude de la directionnalité du violon dans le plan horizontal passant


par le chevalet de l’instrument d’après J. Meyer. Pour chaque fréquence, on ne représente
que les contributions situées dans un intervalle de 3 dB au-dessous du maximum détecté
pour cette fréquence. Schématiquement, on observe un rayonnement omnidirectionnel,
jusqu’à 500 Hz, puis une prédominance de la zone du chevalet (0°) entre 550 et 1 500 Hz.
De 2 000 à 5 000 Hz on constate de nombreux pics très variables avec la fréquence.
62 Le livre des techniques du son

Violon : à partir des diagrammes polaires faits pour chaque fréquence, n’ont été
retenues que les zones rayonnant dans un intervalle de 3 dB au-dessous du
maximum.
Ces zones sont alors portées en coordonnées rectangulaires. L’ordonnée repré-
sente la probabilité d’apparition des zones, à partir d’une étude faite sur huit
violons différents.
Trompette et trombone : ce type d’instrument étant symétrique autour de son axe
de révolution, le graphique montre, pour chaque fréquence, l’angle d’ouverture de
la source de rayonnement issu du pavillon.
Tuba : on constate que dans la zone 100 à 400 Hz, le tuba reste plus directif que le
trombone, dans l’axe du pavillon.

Figure 2.14 — Diagrammes de rayonnement de 3 instruments


à embouchure d’après J. Meyer. Il s’agit d’instruments dont la source d’émission,
le pavillon, est unique et à symétrie de révolution. La figure indique l’angle d’ouverture
de la zone d’émission, l’axe du pavillon étant pris comme origine (0°). On lit qu’aux très
hautes fréquences, 10 kHz par exemple, les 3 instruments sont très directionnels
(angle d’émission inférieur à 30°). De même que pour la figure précédente,
l’étude ne retient que les contributions situées dans l’intervalle 0, – 3 dB.

Garcia [13] et Thfoin ont mené une expérience exploratoire sur la directionnalité
de quelques instruments. Les enregistrements ont été également faits en chambre
sourde mais tous les instruments étaient joués normalement par leurs interprètes
auxquels on demandait des extraits caractéristiques de musique. Le dispositif
d’enregistrement est le suivant : 9 microphones placés sur une sphère de 2 m de
rayon ayant pour centre l’instrument et disposés dans deux plans parallèles hori-
zontaux (figure 2.15) envoient leurs signaux à un magnétophone multipiste. Pour
Chapitre 2 – Les sources acoustiques 63

chaque piste, il est ensuite fait une analyse en 1/3 d’octave du son moyenné sur
plusieurs dizaines de secondes. On obtient le spectre moyen de l’instrument
« vu » depuis neuf points de l’espace. Le micro 1 est toujours dirigé face à l’instru-
mentiste. On trouve une confirmation de résultats connus et quelques éléments
nouveaux :
Violon : le spectre est très homogène aux basses fréquences, même dans le dos de
l’instrumentiste (no 3), à partir de 500 Hz, on remarque d’importantes variations
selon les positions ; observer le renforcement de la zone 500 à 1 500 Hz dans l’axe
du manche (no 8).
Trombone : rayonnement très homogène avec une nette prédominance dans l’axe
du pavillon (no 1).
Flûte traversière : les relevés montrent très bien la très grande variabilité du champ
sonore, caractère qui est commun à tous les instruments à trous latéraux : les
maxima du spectre changent selon l’angle du micro. Une surprise : le signal le plus
intense est fourni par le micro placé au zénith (no 9) vers lequel sont orientés la
plupart des trous latéraux.
Il faudrait maintenant réintroduire le local d’écoute, en particulier le rôle des
parois : plancher pour la clarinette et le hautbois, mur du fond pour le cor,
plafond pour la flûte. De plus, l’image acoustique d’un instrument donné par
l’enregistrement en chambre anéchoïque est très insatisfaisante à l’écoute.
L’angle d’écoute est extrêmement sélectif, ce qui n’est jamais le cas dans la réalité
où grâce aux réflexions provenant des parois (latérales, arrière, plafond) nous
pouvons reconstituer l’image acoustique complète de l’instrument, en
« volume ».
En conclusion, l’image sonore d’un instrument peut varier énormément d’un
point à l’autre de l’espace. Ce point est capital : l’instrumentiste a un point de vue
tout à fait original, fort différent de celui des auditeurs, et différent également de
celui du preneur de son. Ceci explique les réactions déroutantes d’instrumen-
tistes (et surtout des chanteurs) à l’écoute de leur premier enregistrement.
© Dunod – Toute reproduction non autorisée est un délit.

Ajoutons que les musiciens qui tiennent en main leurs instruments bougent en
jouant, produisant ainsi des changements de direction dans le rayonnement
sonore, ce qui contribue à augmenter la complexité du champ acoustique. Une
question se pose alors : qu’est-ce qui, dans le signal acoustique variable, nous
permet de reconnaître la source sonore et d’en apprécier ses qualités ? En d’autres
termes, qu’est-ce que le timbre d’un instrument, et quelles analyses permettent
d’en rendre compte ?
64

Figure 2.15 — Étude comparée de la directionnalité du violon, du trombone et de la flûte en 9 points de l’espace, d’après Garcia [13].
L’étude porte sur des extraits musicaux joués en chambre sourde. Tous les points d’enregistrement sont situés à la surface d’une sphère
de 2 m de diamètre dont l’instrumentiste est le centre. 1, 2, 3, 4 sont dans un plan horizontal passant par l’instrument, 5, 6, 7, 8 définissent
Le livre des techniques du son

un second plan horizontal situé à 1 m du premier; 9 est dans l’axe vertical passant par la tête du musicien, à 2 m du premier plan.
Chapitre 2 – Les sources acoustiques 65

2.4 Timbre(s) des sources

2.4.1 Définitions : timbre identitaire et timbre qualitatif


Le mot « timbre » est d’usage courant. Mais lorsqu’on parle du timbre d’un
orchestre, du timbre d’une voix ou du timbre particulier de telle note de trom-
bone, ce terme est employé dans des sens fort différents. Aujourd’hui encore
l’étude du timbre pose d’énormes problèmes aux acousticiens car l’apparente
simplicité du mot recouvre des mécanismes perceptifs complexes mettant en jeu
la mémoire, nos capacités à catégoriser et à extraire des formes au travers de la
variabilité du monde physique [4].
Le premier aspect du timbre se rapport à l’écoute « causale », celle que nous mettons
en jeu à tout instant pour identifier les sons de notre environnement, reconnaître
les « formes sonores ». Notre apprentissage du monde sonore consiste dans l’éla-
boration de catégories de sources. Pour chacune d’elles nous associons le dérou-
lement temporel de la séquence sonore perçue à la combinaison d’un type
d’excitation et d’une structure vibrante de nature particulière. Bien que les sons se
présentent chaque fois de façon différente, nous reconnaissons rapidement une
voix d’enfant, un cri d’oiseau, un grincement de porte, et à l’orchestre, les sons du
piano, de la flûte, du xylophone, etc.
Le deuxième aspect du timbre concerne notre capacité à apprécier, pour les sons
provenant d’une même catégorie de sources, les fines variations possibles du mode
de production, de la durée ou du contenu spectral. Nous dirons que tel piano a un
son moelleux et rond ou encore que tel trombone est plus éclatant qu’un autre.
C’est cette capacité d’écoute des qualités des sons d’une classe donnée qui est déve-
loppée au plus haut point en musique, et à laquelle on se réfère implicitement
lorsqu’on parle de timbre, ce que d’aucuns nomment aussi « couleur sonore » ou
sonorité. Le preneur de sons se doit de développer d’exceptionnelles capacités de
discrimination et de mémorisation des sonorités pour son travail.
© Dunod – Toute reproduction non autorisée est un délit.

2.4.2 Problèmes posés par l’étude acoustique du timbre


Si les outils d’analyse du signal sonore sont aujourd’hui puissants et permettent
de prendre en compte la complexité des signaux réels instrumentaux et en parti-
culier les parties instationnaires qui jouent un rôle important à la fois dans l’iden-
tité et la qualité des sons, il faut, pour espérer raccorder les résultats des analyses
avec les données de la perception, c’est-à-dire pour que l’étude acoustique ait un
sens, prendre toute la mesure de la complexité des processus cognitifs mis en jeu
dans la perception du timbre.
66 Le livre des techniques du son

✦ Le timbre identitaire : un problème de reconnaissance de formes


L’analyse spectrographique de toutes les notes d’un instrument montre d’impor-
tantes variations spectrales alors que nous ressentons la permanence perceptive
de l’identité de l’instrument (voir figure 2.4).
Nous sommes donc capables d’élaborer et de mémoriser un invariant qui
condense les traits communs à tous les sons d’un même instrument, et qui repré-
sente pour nous le « timbre » de cet instrument. Le fondement en est la catégori-
sation perceptive : mettre dans une même classe les sons partageant des
caractéristiques communes (même source de production) et suffisamment
distinctes de celles des sons d’une classe voisine [11]. L’élaboration cognitive du
timbre d’un instrument est donc l’affinage (actualisé tout au long de la vie) d’un
prototype personnel qui se construit à travers la diversité des expériences percep-
tives, car les sons d’un instrument donné varient sans cesse, ce qui est l’essence
même de la musique.

✦ L’appréciation du timbre qualitatif : une capacité d’analyse


et de discrimination des variations de qualité des sons d’une classe donnée
L’analyse spectrographique d’une note enregistrée simultanément en deux points
différents de l’espace sonore montre d’importantes variations spectrales, et pour-
tant nous conservons une « permanence » perceptive de la sonorité malgré les
mouvements de la tête ou notre déplacement dans le lieu.

Figure 2.16 — Variabilité de la sonorité selon le point d’écoute.


Cette variabilité est une des grandes difficultés de l’étude objective de la sonorité.
Alors qu’un auditeur peut, en divers points d’écoute, porter un jugement cohérent,
les analyses spectrales montrent des signaux très dissemblables.
Comment interpréter celles-ci en fonction de la perception ?

Analogue à la permanence visuelle (les objets ne se déforment pas lorsque nous


tournons la tête) cette capacité à préserver l’identité acoustique d’un son malgré
les variations physiques du signal est également un processus cognitif que
chacun de nous développe et affine au cours de l’apprentissage. Cette aptitude
est remarquablement développée chez les luthiers, de même que la mémoire
des sonorités.
Chapitre 2 – Les sources acoustiques 67

✦ Importance de la mémoire sonore


Dans les deux cas, la mémoire et l’apprentissage jouent un rôle primordial. Qu’il
s’agisse de reconnaître une source ou d’être capable de caractériser ses qualités
sonores, la sûreté et la finesse de performance de l’auditeur seront d’autant plus
remarquables que l’expérience d’un grand nombre d’écoutes et de leur mémorisa-
tion aura été développée (exemple : tableau 2.2).
Tableau 2.2

1 2 3 4

Auditions Mise en mémoire Comparaison Reconnaissance


antérieures des caractères entre les signaux
spécifiques actuels et ceux mis
en mémoire

Il ne faut pas pour autant perdre de vue qu’une expertise sonore du timbre n’a de
sens que pour les musiques d’un groupe culturel donné et que, pour juger de la
qualité sonore des instruments d’une autre culture, nous devrons étendre notre
apprentissage en construisant de nouvelles catégories de sources et de qualités
sonores. Le problème est bien connu pour les instruments provenant d’autres
pays mais il s’est posé de façon insidieuse avec le renouveau des instruments
anciens. Abusé par la banalité du nom : guitare (baroque) ou piano (pianoforte)
plus d’un ingénieur du son a tenté, consciemment ou non, de « corriger » la prise
de son de ces instruments pour qu’ils sonnent comme un piano ou une guitare
d’aujourd’hui ! Le développement d’orchestres « baroques » a produit un enri-
chissement de l’écoute des sonorités, au point que ces instruments et leur
ensemble orchestral ont acquis une identité sonore distincte de celle des instru-
ments modernes.

✦ L’écoute identitaire et l’écoute qualitative :


deux processus cognitifs quasiment antagonistes
© Dunod – Toute reproduction non autorisée est un délit.

La reconnaissance d’une source sonore est globale, rapide, et suppose une capa-
cité d’abstraction, de généralisation pour mémoriser le prototype commun à des
signaux acoustiques apparemment divers. Au contraire, l’appréciation de la sono-
rité met en jeu l’écoute fine et sélective de toutes les variations sonores d’une
forme connue, celles qui proviennent de l’exploitation des champs de liberté de
timbre de l’instrument par l’instrumentiste, des caractéristiques du lieu d’écoute
et de celles de la prise de son.
Remarquons que nous sommes capables de reconnaître des instruments dans de
très mauvaises conditions acoustiques : enregistrements dégradés, téléphone,
68 Le livre des techniques du son

lieux très réverbérants, avec une audition défectueuse, pourvu que la forme
temporo-spectrale soit conservée. À l’opposé, l’appréciation des qualités des sons
exige la mise en œuvre des meilleures conditions techniques de la chaîne de
captation et de reproduction du son, et qu’une bonne oreille est requise ! Mais la
compétence personnelle acquise au cours de l’expérience professionnelle d’écoute
reste l’atout majeur pour effectuer des jugements rapides et sûrs.

✦ Niveaux de perception
Un autre ordre de difficultés provient de la diversité des situations dans
lesquelles il est question de timbre. La source ou la sonorité qu’il s’agit d’identi-
fier peut se définir à divers niveaux d’écoute (figure 2.17). S’agit-il de comparer
le timbre de la flûte par rapport à celui de la clarinette ? Celui de la flûte traver-
sière par rapport à celui de la flûte à bec ? Le timbre de la flûte Boehm par
rapport à celui de la flûte traversière baroque ? Ou les deux timbres du « sol » et
du « la » d’une même flûte ?
On conçoit qu’il faudra adapter différemment les stratégies d’analyse acoustique
selon la question posée. Plus les classes de timbres sont voisines, plus les variables
externes (conditions de prise de son, rôle du musicien) devront être maîtrisées.

Figure 2.17 — Critères d’analyse du timbre


en fonction du niveau de comparaison des sources.
Chapitre 2 – Les sources acoustiques 69

✦ Parler du son
Pour communiquer à autrui notre avis, nos impressions, pour obtenir une
action visant à modifier l’équilibre sonore dans le sens désiré, nous devons
traduire en mots le ressenti sonore. Le preneur de son, le musicien, le luthier,
l’acousticien échangent leurs impressions sur le son à l’aide d’un vocabulaire
tantôt réduit, tantôt imagé, mais difficile à corréler à l’analyse acoustique.
Certains termes comme « éclatant, agressif, sourd » semblent correspondre à
des perceptions partagées par le plus grand nombre. Mais quelle analyse acous-
tique peut rendre compte d’un son « ovale, vert, lumineux » ? Et que faire d’un
son « clair » ou « timbré » ? alors que ces mots correspondent, pour celui qui les
emploie, à une sensation de sonorité bien repérable ? De tels termes n’ont de
sens que pour un groupe bien défini. Ainsi, les élèves d’une classe de flûte
traversière pourront développer avec leur professeur un vocabulaire riche et
précis, adapté à la pratique de leur instrument. Mais au même moment ces
termes seront employés dans des sens différents en classe de chant ou de
piano [7] !

2.4.3 Analyse acoustique des deux constituants du timbre :


identité et qualité

✦ L’identité sonore des sources instrumentales : travail à l’oreille


Tant que l’on ne pouvait pas enregistrer les sons ni analyser les variations tempo-
relles du spectre, on n’a que peu progressé dans la constitution d’une typologie
acoustique des sources sonores. Les premières synthèses sonores [1930] puis les
expériences réalisées par P. Schaeffer dès 1955 ont confirmé l’importance des
parties transitoires et en particulier le rôle que jouent les bruits dans la constitu-
tion du timbre causal. Grâce aux nouvelles techniques de synthèse il est possible
aujourd’hui de transformer ponctuellement des sons réels de diverses façons : en
éliminant une partie du spectre, en modifiant la durée des transitoires (logiciels
© Dunod – Toute reproduction non autorisée est un délit.

de type Audiosculpt) ; en séparant les parties harmoniques des parties bruitées


(analyses stochastiques de X. Serra) ; ou encore en pratiquant des « transmuta-
tions » d’un son dans un autre (techniques dites de morphing). Ces expériences
permettent de cerner les caractéristiques acoustiques pertinentes au regard de la
perception.
Dans un autre courant de recherches, les psychoacousticiens développent des
techniques de tests d’écoute permettant de traiter les résultats d’une évaluation
de dissemblance entre les deux sons d’une paire sans faire appel à une descrip­
tion verbale. Le corpus des sons donnés à entendre doit être constitué de sons
70 Le livre des techniques du son

i­dentiques en intensité, en hauteur et en durée et ne comprend généralement


qu’un seul son par instrument. Les premières recherches faites avec des sons
numérisés (Grey 1977 [14]) ont confirmé l’importance des phénomènes tempo-
rels dans l’appréciation globale d’un son.

✦ Analyse des transitoires


Le transitoire d’attaque correspond à l’établissement de la vibration. C’est la véri-
table signature de l’excitateur : archet, anche, jet d’air oscillant pour les sons entre-
tenus, ou pincement, percussion pour les instruments non entretenus. Il est
caractérisé par sa durée (de 1 à 100 ms), par l’ordre d’arrivée des composantes, par
sa pente dynamique et par sa composition spectrale (bruits, fréquences inharmo-
niques, instabilités, etc.). Une transformation importante du transitoire d’attaque
peut faire perdre l’identité de l’instrument. Ainsi le montage de l’attaque d’un
son de flûte sur une note de violon produit un son hybride évoquant la trompe
d’auto ou l’accordéon mais en aucun cas on ne reconnaît l’une des deux sources
­originales.
La partie tenue du son des instruments à vent et à archet, dont la durée est à
la discrétion du musicien est généralement considérée comme stable et pério-
dique. L’analyse montre toutefois de nombreuses fluctuations d’intensité ou de
fré­quences dûes à la fois aux variations de jeu produites par le musicien et à la
com­ple­xité du champ sonore. Ces fluctuations confèrent au son des instru-
ments réels une « vie » sonore qu’il est d’ailleurs difficile de reproduire par voie
­synthétique.
Le transitoire d’extinction prend un sens fort différent selon que l’instrument est
de la classe entretenue ou non. Pour les instruments de la classe I le son propre-
ment dit est en fait constitué du transitoire d’extinction. La structure percutée ou
pincée (plaque, corde, cavité) vibre sur ses modes propres. Ceux-ci conditionnent
le contenu fréquentiel du transitoire qui peut être quasi harmonique (corde
pincée ou frappée), accordé pour produire une sensation de hauteur plus ou
moins ambiguë (verge de bois ou de métal, tube, membrane circulaire) ou un
bruit plus ou moins coloré (bloc de bois). La durée d’extinction totale dépend de
l’amortissement du système et des caractéristiques du local d’écoute. L’étouffe-
ment du son peut produire des bruits singuliers : pose du doigt sur la corde, lance-
ment du partiel de l’étouffoir au piano, bruits de retombée du sautereau au
clavecin, etc.
Chapitre 2 – Les sources acoustiques 71

Le transitoire d’extinction des instruments entretenus est généralement très bref et


peu caractérisé, à l’exception des instruments à cordes qui font entendre de faibles
résonances. L’arrêt du son des instruments à vent est brutal (quelques périodes !).
Aussi apprécie-t-on pour ceux-ci un lieu d’écoute qui apporte au chanteur, au
flûtiste, un prolongement intéressant du son après l’arrêt de l’entretien.

✦ Étude du timbre qualitatif


Si l’identification d’une source se fait dans les premiers dixièmes de seconde il
faut, pour qualifier la sonorité, plusieurs secondes d’écoute pour mettre en jeu les
divers niveaux d’analyse du son. Évaluation du contenu spectral, équilibre des
composantes graves et aiguës, netteté des transitoires, importance relative des
bruits, appréciation de la durée de résonance etc. sont autant de critères sur
lesquels l’auditeur porte son attention et pour lesquels plusieurs écoutes sont
souvent nécessaires. À court terme l’oreille est sensible à de très faibles change-
ments d’amplitude, par exemple entre les premiers harmoniques, mais on remar-
quera, en utilisant un égaliseur, que passé la surprise du changement on s’adapte
très rapidement à une nouvelle configuration spectrale.
Divers types d’analyses : spectres moyennés sur une longue durée (voir figure 2.15),
détection de formants, caractérisation de zones de « brillance », per­mettent d’ob-
jectiver l’analyse de la sonorité, mais la mise en correspondance des résul­tats avec
la perception est encore balbutiante. Il est important de rappeler que tous les
éléments de la chaîne sonore jouent un rôle dans l’appréciation des qualités d’un
enregistrement : la salle de concert, la position du micro, les enceintes acoustiques,
le local d’écoute, et les particularités auditives de l’auditeur. Ce dernier juge, à un
moment donné, par référence à une audition antérieure mémorisée ou par
­comparaison à l’exemple précédent. La durée et l’ordre de présentation des
exemples jouent donc un rôle important. Enfin l’expérience montre que la fatigue
peut intervenir rapidement. Il n’est pas étonnant que les avis des auditeurs puissent
différer et qu’il soit encore difficile d’établir une correspondance satisfaisante entre
les analyses acoustiques et les paramètres auditifs de la sonorité.
© Dunod – Toute reproduction non autorisée est un délit.

✦ Étude acoustique du timbre identitaire


L’établissement d’une typologie sonore du « timbre » des sources instrumentales
repose sur l’utilisation d’analyses permettant de caractériser la séquence des
événements sonores qui se déroulent depuis l’excitation initiale jusqu’à l’extinc-
tion du son. La représentation la plus significative est celle qui fournit l’évolution
de la fréquence et de l’amplitude en fonction du temps et qui se présente soit
sous la forme simplifiée du « sonagramme » classique, ou celle d’une vue perspec-
tive de l’évolution des trois dimensions, plus exhaustive, mais plus difficile à
72 Le livre des techniques du son

i­nterpréter. Ensuite interviennent divers traitements du signal visant à extraire


les caractéristiques communes à divers sons issus d’une même source. Tous les
résultats doivent être validés par des tests d’écoute [4].
Nous sommes loin de pouvoir présenter un catalogue complet des caractéris-
tiques acoustiques des diverses sources instrumentales. Les bases de données
sonores disponibles en recherche offrent des sons isolés et le plus souvent dans un
seul mode de jeu. Il faut pour caractériser un instrument donné, acquérir tous les
sons depuis le grave jusqu’à l’aigu, en jeu détaché, en jeu lié, avec plusieurs nuances
d’intensité, avec ou sans vibrato, à des vitesses de jeu différentes, en explorant
divers types d’attaques, puis changer d’instrumentiste, d’instrument, et comparer
au moins deux positions de prises de son… ce qui produit une énorme quantité
de données. Le travail est considérable et doit être fait pour tous les instruments.

2.4.4 Champ de liberté en timbre des instruments de musique


Une telle base de données permettrait d’explorer les « champs de liberté en
timbre » des instruments de musique.
Sur ce plan, les instruments sont inégalement partagés. Dans la plupart des instru-
ments monodiques, le musicien peut agir sur les paramètres de l’excitation : il « fait »
le son. Toute action sur la forme et la direction du jet d’air (flûte traversière), sur le
mode d’ouverture et de la fermeture de l’anche de roseau (clarinette, hautbois) ou
des anches lipales (cor, trombone) peut modifier considérablement le contenu
spectral du son et des transitoires. Dans les instruments à cordes, c’est le mode d’at-
taque de la corde : pincement à la pulpe ou à l’ongle, marteau de matériau dur ou
mou, pression de l’archet ainsi que le point d’excitation de la corde qui joueront un
rôle prépondérant. Pour les instruments à percussion, il s’agit essentiellement du
type de percuteur (il en existe un grand nombre) et du point de frappe.
Les instruments polyphoniques offrent généralement moins de possibilités pour
varier la sonorité des sons isolés mais permettent une combinatoire extrêmement
complexe de sons de diverses hauteurs, ce qui produit de fait des changements de
sonorité spectrale. Ils disposent également de moyens d’action globale sur la sono-
rité par le moyen de pédales (pédale una corda, pédale forte du piano) ou de registres
qui commandent l’association de nouveaux rangs de cordes ou de tuyaux. L’exemple
le plus abouti en ce domaine est l’orgue, véritable synthétiseur de timbres. Dis­posant
de plusieurs claviers un musicien donné peut jouer des instruments distincts (grand
orgue, positif, pédale) qu’il peut faire dialoguer entre eux ou associer, cha­cun étant
constitué d’un grand nombre de jeux combinables de diverses manières.
Chapitre 2 – Les sources acoustiques 73

2.4.5 Timbre, sonorité et émergence


Certains instruments « sortent » mieux d’un ensemble que d’autres, bien qu’ils ne
soient pas plus intenses, pourquoi (figure 2.18) ?

Figure 2.18 — « Émergence » spectrale de deux instruments traditionnels.


La cabrette auvergnate et la vielle à roue du Bourbonnais sont deux exemples remarquables
d’instruments, qui, comme le clavecin, émergent clairement d’un ensemble instrumental
ou d’un bruit de foule, alors qu’ils ne produisent pas une grande intensité physique. Cela est
dû à la part importante d’énergie située dans l’aigu du spectre, entre 8 000 et 16 000 Hz.

a) Ce sont des instruments qui possèdent un formant très intense centré dans la
bonne zone de l’oreille (autour de 3 000 Hz). C’est le cas de la vielle vietnamienne
et d’un wood-block du même pays, dont l’efficacité auditive est redoutable. Les
acteurs et les chanteurs d’opéra s’efforcent également de concentrer l’énergie dans
© Dunod – Toute reproduction non autorisée est un délit.

cette zone afin que la voix porte à distance sans fatigue.


b) D’autres instruments ont une forme spectrale qui émerge bien de l’ensemble :
• soit parce que leur évolution temporelle est radicalement différente de
celle des autres instruments environnants (percussion dans un ensemble
de vents et de cordes) ;
• soit parce que leur forme spectrale est en dehors de la zone moyenne de
densité : triangle émergeant sur un grand orchestre, coup de grosse caisse,
grelots de la cabrette auvergnate ou « chien » de la vielle à roue « passant »
au-dessus du bruit d’une foule.
74 Le livre des techniques du son

2.5 Tessiture et contenu spectral

2.5.1 Définitions
La tessiture est l’étendue en fréquence de toutes les notes que peut émettre un
instrument donné. Or, ce qui intéresse le preneur de son n’est pas la fréquence du
fondamental, mais bien le contenu spectral réel. Très peu d’instruments suivent
le schéma classique du « son harmonique » des manuels : fondamental intense
accompagné d’harmoniques dont l’intensité décroît avec le rang ! La tessiture
musicale et le contenu spectral ne se suivent donc pas parallèlement.

2.5.2 Exemples
À titre d’exemple, examinons quelques analyses spectrales d’instruments moyen-
nées sur l’ensemble de la tessiture (figure 2.19). Sur chacun d’eux les musiciens ont
joué une gamme chromatique du son le plus grave au plus aigu, en nuance mf.
Sur le graphique, les limites de la tessiture sont représentées par un cadre en traits
pleins. En examinant les figures et en comparant les zones spectrales de plus forte
énergie avec la tessiture, on voit apparaître divers types d’instruments.
a) Instruments pour lesquels les maxima d’énergie sont inclus dans la tessiture.
Ce sont essentiellement le piano, la flûte traversière, la clarinette et la guitare.

b) Instruments présentant une zone maximale d’énergie bien circonscrite, située


à la limite aiguë de la tessiture et au-delà. Ce sont des instruments à formants :
hautbois, basson, trompette, cor et la voix chantée ou parlée des acteurs.

c) Instruments dont les maxima sont très étalés (clarinette) ou débordent large-
ment la limite aiguë de la tessiture : clavecin, accordéon, basson, violoncelle et la
voix chantée.

On remarquera également les instruments présentant peu d’énergie dans les


graves (accordéon, basson). Ces instruments nous font entendre le grave à travers
les harmoniques aigus.
Chapitre 2 – Les sources acoustiques 75

Figure 2.19 — Tessiture et contenu spectral de quelques sources musicales.


Chaque diagramme représente l’analyse spectrale en 1/3 d’octave
d’une gamme chromatique (sauf la voix), jouée sur l’instrument,
dans un local peu réverbérant. La zone claire, encadrée par une fenêtre
en traits pleins, correspond à l’étendue fréquentielle des fondamentaux de l’instrument.
On voit que beaucoup d’instruments : basson, accordéon, voix chantée
ont leur maximum énergétique situé en dehors de la tessiture musicale.
(Ces analyses ont pu être faites grâce à l’aimable coopération de la société Bruël et Kjaer.)
© Dunod – Toute reproduction non autorisée est un délit.

Un tableau exhaustif de la tessiture acoustique des instruments devrait montrer


les zones spectrales majeures associées aux zones musicales des fondamentaux.
Un exemple en est donné figure 2.20.
76 Le livre des techniques du son

Figure 2.20 — Représentation associant, pour divers instruments,


la tessiture musicale (zones blanches) et la tessiture spectrale (zones de densité variable :
les parties les plus noires correspondent aux sommets du spectre).

✦ Remarques
Il est bien évident que les analyses présentées ici doivent être considérées
comme des allures typiques de certains instruments mais ne peuvent être géné­
ra­lisées. Nous l’avons vu (§ 2.4.3), la sonorité d’un instrument peut changer
grandement selon l’angle d’écoute, selon le local et pour certains instru­ments
(§ 2.2.2) selon la nuance de jeu. Toutefois, ces modifi­cations pour impor­tantes
qu’elles soient (variations relatives de l’intensité des basses fré­quences, très
sensibles à l’oreille) n’affectent pas fondamentalement les rap­ports entre la
tessiture et l’étendue spectrale.

2.6 Voix parlée, voix chantée


2.6.1 Le signal vocal
Ce signal, familier pour un preneur de son n’est pourtant pas toujours facile à
enregistrer. Il est composé d’un mélange de signaux transitoires très complexes
(bruits) et de parties de signal quasi-périodiques (sons harmoniques). Les bruits
peuvent être des petites explosions : P, B, T, D, K, Gu ; des bruits diffus doux : F, V,
Chapitre 2 – Les sources acoustiques 77

J, Z ou intenses CH, S (figure 2.21) ; quant aux sons harmoniques, leur spectre


varie avec le type de voyelle et avec le locuteur.

kHz

Figure 2.21 — Sonagramme de 3 consonnes fricatives.


À faible distance, 30 cm, le spectre de la voix parlée peut monter
jusqu’aux très hautes fréquences pour certaines consonnes, ici « F » et « CH ».

Les rapports d’intensité entre les bruits et les voyelles changent selon qu’il s’agit
d’une voix conversationnelle, d’une voix parlée type conférence, d’une voix forte
criée ou d’une voix chantée. La voix forte et la voix chantée favorisent les sons
vocaliques au détriment des bruits consonantiques.
Le signal vocal transmet simultanément deux types de messages : un message
sémantique convoyé par la parole, expression verbale de la pensée, et un message
esthétique perceptible au travers des qualités esthétiques de la voix (timbre, into-
nation, débit, etc.).

2.6.2 L’intelligibilité de la parole


Le contenu sémantique de la parole, support d’une bonne intelligibilité est pratique-
ment indépendant des qualités de la voix ; il est véhiculé par les formes acoustiques
temporelles, visibles sur un sonagramme, correspondant aux mouvements articu-
laires. La figure 2.22 montre la même phrase prononcée avec trois types de voix.
La voix chuchotée, qui n’est constituée que de bruits d’écoulement.
© Dunod – Toute reproduction non autorisée est un délit.

La voix « intime » ou de proximité, dont les sons vocaliques offrent comme parti-
cularité d’être un mélange de sons harmoniques dans les fréquences graves et de
bruits d’écoulement dans l’aigu (entre 2 000 et 4 000 Hz). Les bruits consonan-
tiques, S, T, K… sont très présents.
La voix d’un conférencier parlant sans micro montre un spectre vocalique harmo-
nique riche et intense. Les bruits consonantiques y sont proportionnellement
beaucoup plus faibles. On remarquera combien, dans les trois cas, les formes
sémantiques de la parole, véhiculant l’intelligibilité sont bien reconnaissables,
indépendamment du type de voix employé.
78 Le livre des techniques du son

Figure 2.22 — Analyse au sonagraphe d’une même phrase prononcée,


par le même locuteur, avec trois types de voix.
a) Voix chuchotée. Il s’agit d’un bruit d’écoulement coloré diversement
par les résonances des cavités selon les phonèmes articulés.
b) Voix « intime ». Cette voix est caractérisée par la coexistence d’un spectre harmonique
(dû à la vibration des cordes vocales) dans la partie basse du spectre et d’un spectre
de bruits modulés dans la partie aiguë. C’est typiquement la voix de conversation.
c) Voix de conférencier. Toutes les parties vocaliques ou semi-vocaliques
sont constituées d’harmoniques. Le bruit n’apparaît plus
qu’aux consonnes fricatives ou plosives (« s », « t », « k », « j »).
Chapitre 2 – Les sources acoustiques 79

Une bande passante réduite suffit à transmettre une parole intelligible, comme en
témoigne le téléphone (figure 2.23). L’essentiel des formes sémantiques de la
parole est compris dans la bande 300-4 000 Hz. On notera incidemment que le
téléphone accentue, pour des raisons évidentes d’efficacité, la zone des fréquences
voisines de 3 000 Hz, ce qui entraîne une distorsion importante du timbre de la
voix. Les bruits aigus, CH, S, F… transposés dans la bande de façon indifférenciée
sont de ce fait peu reconnaissables.

Figure 2.23 — La voix au téléphone.


L’enregistrement a été fait simultanément près du locuteur et à l’écouteur d’un téléphone.
Par comparaison des deux sonagrammes on constate les « distorsions »
du téléphone, essentiellement : filtrage passe-bande (1 000 à 4 500 Hz)
et résonance marquée à 3 000 Hz, zone sensible de l’oreille !

L’intelligibilité d’un message est également tributaire du bruit de fond du canal.


© Dunod – Toute reproduction non autorisée est un délit.

En pratique, seules les résonances du local ou un bruit de fond de même nature,


comme d’autres conversations, peuvent gêner l’intelligibilité. On y remédie faci-
lement en rapprochant le micro du locuteur.

2.6.3 L’esthétique de la voix parlée ou chantée


Les qualités d’une voix peuvent être décrites à l’aide d’un certain nombre de para-
mètres qui contribuent en partie à définir les caractéristiques individuelles du
locuteur et qui par ailleurs nous renseignent sur ses états d’âme.
80 Le livre des techniques du son

Figure 2.24 — Rayonnement de la voix chantée d’après Marshall & Meyer [16]
dans les plans horizontal (a) et vertical (b). Les zones les plus denses montrent
que le rayonnement est plus important vers l’avant et vers le bas. On en conclura
que l’état de surface du sol situé devant le locuteur est important pour la portée
de la voix. Ce point était connu des anciens qui, dans la construction des théâtres en plein
air prévoyaient une zone dégagée et réfléchissante à l’avant des acteurs (l’orchestre).
Chapitre 2 – Les sources acoustiques 81

La voix est par excellence un instrument de timbre. Ce sont les variations forman-
tiques du spectre, qui, codées, transmettent le message sémantique. Les altéra-
tions de la qualité du timbre (sourd, clair) de même que la modulation du débit et
de l’intonation nous renseignent sur les dispositions affectives du locuteur. Enfin,
les invariants du timbre dûs aux résonances personnelles mais aussi les traits
caractéristiques articulatoires et les constantes de l’intonation qui constituent
l’accent nous permettent de reconnaître le locuteur.

2.6.4 Rayonnement de la voix chantée


Une étude [16] a permis de détailler les zones de rayonnement de la voix chantée
pour différentes bandes de fréquences. On notera en particulier, dans le plan
vertical, l’importance de la zone située au-dessous du plan passant par la bouche.
On peut en conclure que l’état du sol (réfléchissant, diffusant) joue un rôle impor-
tant sur la portée de la voix (figure 2.24).

2.6.5 Portée de la voix (sans micro)


De tout temps les professionnels de la voix (chanteurs, comédiens, orateurs,
camelots), ont dû faire preuve de puissance et d’endurance afin de se faire entendre
à distance, quel que soit le bruit de fond (bruits de foule, ou musique d’orchestre),
et dans les lieux d’écoute de qualités diverses (église, plein air, théâtre…). Les
analyses ont montré que les locuteurs dont la voix porte loin ont en commun un
formant, situé vers 2 000 Hz pour les voix les plus graves, et autour de 4 000 Hz
pour les voix les plus aiguës, c’est-à-dire dans la zone de fréquence dans laquelle
l’oreille est plus sensible. L’artiste obtient de la sorte une très grande efficacité
auditive sans développer une trop grande dépense d’énergie. Dans ce cas égale-
ment, le preneur de son ne doit pas trop se laisser influencer par la « faible dévia-
tion » du modulomètre et régler le niveau d’enregistrement à l’oreille.
La présence du formant dit « formant du chanteur » confère à la voix un timbre
particulier, clair, brillant [4]. On remarquera sur l’analyse que la hauteur des
notes graves d’une voix de basse est perçue au travers des harmoniques aigus
© Dunod – Toute reproduction non autorisée est un délit.

(figure 2.25).
À l’opposé, la voix d’un « speaker radio » traditionnel et la voix dite conversation-
nelle possèdent beaucoup d’énergie dans le fondamental, donc dans les basses
fréquences.
82 Le livre des techniques du son

Figure 2.25 — Sonagramme d’une phrase musicale


chantée par une basse d’opéra. La voix d’un chanteur d’opéra
(ou d’un acteur) porte d’autant mieux que celui-ci sait concentrer
l’énergie dans la zone du spectre où l’oreille est la plus sensible :
témoin le formant visible sur la figure, entre 2 000 et 3 000 Hz.
On constate par ailleurs la faible intensité du fondamental.
La hauteur des notes très graves est perçue au travers des harmoniques aigus.

2.7 Conclusions
Après de brefs rappels sur le fonctionnement acoustique des principales sources
musicales, nous avons traité du comportement dynamique et spectral de ces
sources. Nous aurions aimé offrir au preneur de son un corpus complet des varia-
tions spectrales et dynamiques des instruments de musique, corpus que récla-
ment également les compositeurs. Sa constitution est en cours, mais on a vu
qu’elle était rendue difficile du fait de la complexité du rayonnement spatial de ces
sources. Les travaux récents dont nous avons rendu compte n’apportent encore
que peu d’éléments directement utilisables dans la pratique, d’autant qu’ils ne
concernent que le rayonnement en champ libre. Or, on sait que la salle d’audition,
dont nous n’avons pas parlé ici, peut modifier considérablement le rayonnement
des sources.
Quant à l’étude de la sonorité, qu’on ne peut aborder qu’après celle du champ
acoustique, nous avons vu qu’elle pose au premier chef un problème qui est au
cœur de l’acoustique des communications humaines, celui de l’interprétation des
documents d’analyse en fonction de la perception. Les études de psychoacous-
tique, en plein essor actuellement, laissent espérer un développement rapide des
connaissances grâce aux outils nouveaux de la synthèse sonore qui permettent de
travailler sur des sons réels complexes.
Chapitre 2 – Les sources acoustiques 83

Figure 2.26 — Représentation sonagraphique


de l’analyse harmonique par filtrage d’un son d’harmonica.
Analyse faite avec le logiciel AudioSculpt mis au point à l’IRCAM.
De nombreux autres outils de traitement du signal sont aussi disponibles.

2.8 Bibliographie
[1] A. H. Benade, Fundamentals of Musical Acoustics, Oxford University Press, New
York, 1976.
[2] M. Castellengo, La perception auditive des sons musicaux, in Psychologie de la
musique, A. Zenatti (éd.). PUF, Paris, 1994.
[3] M. Castellengo, Perception(s) de la voix chantée : une introduction, in La voix
chantée : entre sciences et pratiques, N. Henrich-Bernardoni (éd.), De Boeck, Solal,
Paris, Bruxelles, 2014, p. 35-64.
[4] M. Castellengo, Écoute musicale et acoustique (avec DVD), Eyrolles, Paris, 2015.
© Dunod – Toute reproduction non autorisée est un délit.

[5] M. Castellengo et D. Dubois, Timbre ou timbres ? Propriété du signal, de l’instrument


ou construction(s) cognitive(s) ? Les Cahiers de la SQRM (Société Québécoise de
Recherches Musicales), 2007, 9 (1-2), 25-38.
[6] A. Chaigne et J. Kergomard, Acoustique des instruments de musique, Belin, Paris,
2008.
[7] P. Cheminée, Vous avez dit clair ? in Le sentir et le dire, D. Dubois (éd.). L’Harmattan,
Paris, 2010.
[8] M. Clark & D. Luce, Intensities of Orchestral Instrument Scales Played at Prescribed
Dynamic Markings, Journal Audio Eng. Society, 1965, 13, 151-157.
84 Le livre des techniques du son

[9] Collectif – M. Castellengo & H. Genevois (éd.), La musique et ses instruments (avec
CD-Rom), Delatour, Paris, 2013.
 ollectif – C. M. Hutchins (éd.), Sons et musique, Belin, Paris, 1980.
[10] C
[11] D. Dubois, Catégorisation et cognition : « 10 ans après », une évaluation des
concepts de Rosch in Sémantique et cognition – Catégories, prototypes, typicalité, D.
Dubois (éd.), CNRS, Paris, 1993.
[12] A. Faure, Des sons aux mots : comment parle-t-on du timbre musical ? Thèse
d’Université (non publiée), EHESS, Paris, 2000.
[13] A. Garcia, La directionnalité des instruments de musique, Bulletin du GAM
(Groupe d’Acoustique Musicale de l’Université Paris 6), 1983, 110.
[14] J. M. Grey, Multidimensional perceptual scaling of musical timbres, Journal of the
Acoustical Society of America, 1977, 61 (5), 1270-1277.
[15] E. Leipp, Acoustique et musique (fac-similé de la 4e édition de 1984), Presses des
Mines, Paris, 2011.
[16] A. H. Marshall et J. Meyer, The directivity and auditory impressions of singers,
Acustica, 1985, 58 (3).
[17] J. Meyer, Acoustics and the Performance of Music (traduit par J. Bowsher et S. West-
phal), Das Musikinstrument, Francfort, 1978.
[18] J.-D. Polack, M. Castellengo, V. Maffiolo, C. Guastavino, et al., Soundfield reproduc-
tion: the limits of the physical approach, Conférence présentée à CFA/DAGA’04,
Strasbourg, 2004.
 . F. Pollard, Feature analysis of musical sounds. Acustica, 1988, 65, 232-244.
[19] H
[20] J.-C. Risset et D. Wessel, Exploration of timbre by analysis and synthesis, in
Psychology of Music, D. Deutsch (éd.), Academic Press, New York, 1982.
[21] P. Schaeffer et G. Reibel, Solfège de l’Objet Sonore (disques 33 tours et livret),
Ina-GRM, Paris, 1967 (réédition 1998, 3 CD).
[22] F . Winckel, Vues nouvelles sur le monde des sons (traduit par A. Moles et J. Lequeux),
Dunod, Paris, 1960.
Chapitre 3

Acoustique architecturale

Éric Vivié (§ 3.1 et 3.3)


Maître es mathématiques. DEA en acoustique appliquée
de la Faculté des sciences du Mans. Fondateur du BET Acoustique
Vivié et Associés. Ancien professeur d’acoustique
architecturale à l’ENS Louis-Lumière

Michel Cassan (§ 3.2)
Diplômé d’études supérieures en acoustique à Paris VI.
Ancien responsable de l’acoustique des salles
aux services techniques de Radio France

3.1 Acoustique des salles


Dans un premier temps, nous allons nous attacher à décrire les principes qui
régissent la propagation du son dans un volume clos, c’est-à-dire dans une salle ;
les seuls liens avec la troisième partie de ce chapitre consacré à l’isolement et à
l’isolation sont d’une part, la géométrie des parois d’isolation qui détermine le
plus souvent la salle, et d’autre part, la description des matériaux absorbants qui
servent dans le premier cas à diminuer le bruit et dans le second à maîtriser ou
corriger l’acoustique interne de la salle.
86 Le livre des techniques du son

Il existe trois façons d’aborder l’étude du comportement d’une salle dans laquelle
se propagent des ondes sonores :
La première dite « acoustique ondulatoire », considère la salle comme un oscilla-
teur à trois dimensions. Dans le cas simple de salles parallélépipédiques, elle nous
permettra de bien comprendre la structure du champ acoustique, cette méthode
étant limitée par la complexité à laquelle on aboutit très rapidement dans le cas de
salles de forme quelconque.
La seconde dénommée « acoustique géométrique », est la plus parlante car la plus
intuitive et la plus visuelle : elle applique les lois de la propagation des rayons
lumineux en optique à celle des ondes sonores mais sous certaines conditions
qu’il faudra toujours avoir présentes à l’esprit.
La troisième dénommée « acoustique statistique », conduit à la description du
phénomène capital de la réverbération, là aussi sous certaines conditions.
Enfin, une des grandes préoccupations de l’acousticien a toujours été de définir
des critères d’appréciation des qualités acoustiques des salles, et d’essayer de les
relier aux critères subjectifs des auditeurs.
Cette partie de l’acoustique a considérablement progressé depuis ces quinze
dernières années, grâce en partie à l’informatique.
Elle a évolué parallèlement à la branche de recherche la plus répandue à l’heure
actuelle, celle de l’acoustique perceptive ou psychologique.
Mais avant d’aborder l’acoustique des salles proprement dite, nous allons étudier
de près les phénomènes liés au caractère ondulatoire du son.

3.1.1 Longueur d’onde et dimension des obstacles au cours


de la propagation
F Notions liées à la longueur d’onde et aux dimensions de l’obstacle

✧✧ Réflexion
Lorsque les dimensions de l’obstacle sont très grandes devant la longueur d’onde,
une partie de l’énergie incidente est réfléchie : c’est le phénomène de réflexion sur
lequel nous reviendrons.
Prenons un exemple : supposons que vous vous cachiez derrière un mur de
3 m × 3 m. Une onde sonore de 10 000 Hz (de longueur d’onde égale à 0,034 m) se
propage dans votre direction. La plus grande partie de l’énergie de l’onde incidente
est « renvoyée » par ce mur ; vous vous trouvez alors dans ce qu’on appelle une zone
d’ombre, par analogie à celle que produirait une source lumineuse (figure 3.1).
Chapitre 3 – Acoustique architecturale 87

Figure 3.1 — Zone d’ombre derrière un mur intercalé


entre la source et un auditeur.

✧✧ Diffraction
Nous nous sommes déjà trouvés maintes fois dans un cas similaire et nous enten-
dons quand même derrière le mur le son de 10 000 Hz, atténué certes mais nous
l’entendons ! Il y a bien réflexion de la plus grande partie de l’énergie sonore inci-
dente, mais les limites de la zone d’ombre ne sont pas si bien définies que cela :
agrandissons les extrémités du mur (figure 3.2). Une certaine quantité d’énergie
de l’onde sonore rayonnée par la source vient « raser » les angles de ce mur. Il se
produit donc localement un phénomène de diffraction : la partie haute du mur
rayonne comme si elle était une source secondaire.
Lorsque les dimensions de l’obstacle sont très petites devant la longueur d’onde,
© Dunod – Toute reproduction non autorisée est un délit.

tout se passe comme si l’onde ne « voyait » pas l’obstacle. On trouve d’ailleurs


derrière celui-ci une onde se propageant dans la même direction ; mais cela
implique que l’onde incidente ait contourné l’obstacle, donc qu’elle se soit déroutée
de sa direction originelle : ce phénomène est appelé diffraction.
Par exemple, si une onde sonore de 100 Hz, donc de longueur d’onde égale à 3,4 m,
rencontre une colonnade de 0,10 m de diamètre, vous entendrez cette onde
sonore derrière l’obstacle aussi bien que s’il n’existait pas. On observe le même
phénomène au bord de la mer, lorsqu’une grosse vague passe sous une jetée et
poursuit son chemin comme s’il n’y avait pas de pilotis soutenant cette jetée.
88 Le livre des techniques du son

Nous étudierons plus tard de manière théorique le cas de la réflexion d’une onde
plane sur un mur de dimensions infinies.
Lorsque les dimensions de l’obstacle et de la longueur d’onde sont voisines,
les  deux phénomènes interagissent. Aucune séparation nette ne peut être
faite  et  leur résultante est difficile à décrire (voir ci-après le phénomène de
­diffusion).

Figure 3.2 — La plus grande partie de l’énergie incidente


est réfléchie par le mur. Une petite partie est diffractée
derrière le mur, le haut du mur devenant une source secondaire.

F Notions liées à la longueur d’onde et à la rugosité


de la surface de l’obstacle. Diffusion
Que signifie « surface plane » ? Là aussi, tout n’est qu’ordre de grandeur. En obser-
vant avec un grossissement convenable la surface la plus lisse possible que nous
rencontrons dans notre environnement immédiat, nous y trouvons un relief très
accidenté.
C’est ainsi qu’un objet éclairé par une source lumineuse peut être vu de n’importe
quel côté car les aspérités de sa surface dispersent les rayons lumineux incidents
dans toutes les directions : c’est le phénomène de diffusion.
En acoustique, le même phénomène existe : considérons par exemple un mur en
accordéon (figure 3.3) dont chaque soufflet présente une largeur de 0,34 m. Nous
observons trois types de réflexion suivant la longueur d’onde de l’onde sonore
incidente :
• Une onde de 100 Hz arrive sur le mur, sa longueur d’onde (λ = 3,4 m) est
grande (10 fois plus) devant l’anomalie de surface. Cette onde ne va pas
« voir » ces anomalies et va se réfléchir par rapport au plan du mur comme
le ferait un rayon lumineux sur un miroir. Il s’agit alors d’une réflexion dite
géométrique.
Chapitre 3 – Acoustique architecturale 89

• Une onde de 1 000 Hz arrive sur le mur avec la même direction que l’onde
de 100 Hz. Sa longueur d’onde (λ = 0,34 m) est du même ordre de gran-
deur que les soufflets de l’accordéon. Cette onde va donner naissance, en
frappant le mur, à plusieurs ondes secondaires qui vont repartir dans diffé-
rentes directions : c’est une réflexion diffuse qui est le résultat cumulé des
phénomènes de réflexion, diffraction et réfraction.
Nous verrons par la suite l’importance capitale de la diffusion en acous-
tique des salles et les façons de réaliser des surfaces diffusantes intéres-
santes (voir traitement acoustique).
• Une onde de 10 000 Hz arrive sur le mur toujours avec la même direction.
Sa longueur d’onde (λ = 0,034 m) est petite (10 fois plus) devant la dimen-
sion du soufflet. Cette onde ne va voir que la partie inclinée du soufflet et
non pas le plan du mur. Elle se réfléchit comme le ferait un rayon lumineux
mais uniquement par rapport à la partie inclinée du soufflet.
Nous considérerons par la suite que le mur est de dimensions infinies mais aussi
que ses anomalies de surface sont petites devant la longueur d’onde, c’est-à-dire
que le mur est plan.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.3 — Réflexions sur une paroi accidentée.


90 Le livre des techniques du son

3.1.2 Champs acoustiques au voisinage d’une paroi


Nous ne considérerons dans ce chapitre que les réflexions géométriques d’ondes
planes sur des surfaces planes.
À proprement parler, les ondes planes n’existent pas dans la réalité. Les ondes
planes dont il est question représentent des portions d’ondes sphériques lorsque
la source rayonnante est assez éloignée de la paroi où se fait la réflexion
(figure 3.4a). Le rayon de courbure du front d’onde est grand et sa surface peut
donc être assimilée localement à un plan ; de même, si la surface de réflexion est
courbe et possède un rayon de courbure grand devant la longueur d’onde inci-
dente, elle peut être assimilée localement à un plan (figure 3.4b). Les approxima-
tions que l’on fait ainsi ne sont absolument pas gênantes pour les résultats (le mot
« paroi » peut aussi bien désigner un mur en béton qu’une tenture).

Figure 3.4 — Lorsque la source est assez éloignée de la paroi,


l’onde incidente sphérique peut être assimilée localement à une onde plane (a).
Lorsque le rayon de courbure de la paroi est grand devant la longueur d’onde de l’onde
incidente, on peut l’assimiler localement à une paroi plane (b).

F Facteur de réflexion, coefficient de réflexion, coefficient d’absorption


Lorsqu’une onde sonore plane frappe une paroi (onde incidente), seule une partie
de son énergie est en général réfléchie. L’onde réfléchie est de même fréquence
que l’onde incidente, son amplitude est inférieure ou presque égale à celle de
l’onde incidente et sa phase peut être différente de celle de l’onde incidente.
La superposition de l’onde incidente et de l’onde réfléchie au voisinage de la paroi
donne naissance à une onde quasi stationnaire (les amplitudes de pressions aux
quasi-nœuds sont minimales mais non nulles et celles aux quasi-ventres sont
maximales sans être égales à celles que produirait une onde stationnaire formée
de deux ondes de même fréquence et de même amplitude).
L’énergie de l’onde incidente non réfléchie est absorbée par le milieu situé au-delà
de la surface de réflexion, dans lequel va se propager l’onde réfractée.
Nous préférons utiliser le terme « énergie non réfléchie » au terme « énergie trans-
mise » pour la raison suivante : considérons le cas d’une tenture devant une fenêtre
ouverte : une partie de l’énergie non réfléchie va se dissiper en chaleur à la traversée
Chapitre 3 – Acoustique architecturale 91

des fibres du textile et la plus grande partie (l’énergie transmise) va sortir par la
fenêtre. L’énergie transmise n’est donc pas tout à fait égale à l’énergie non réfléchie.

✧✧ Facteur de réflexion R
Si pi et pr sont les pressions des ondes incidentes et réfléchie, le changement
p
­d’amplitude et de phase lors de la réflexion est entièrement défini par R  r .
pi
R appelé facteur de réflexion est une caractéristique de la paroi ; il dépend de la
fréquence et de l’angle d’incidence de l’onde incidente (il peut être représenté par
un nombre complexe R = Re iγ où R est le rapport de l’amplitude des pressions
réfléchie/incidente et γ la phase entre pr et pi ).

✧✧ Coefficient de réflexion β
L’énergie transportée par l’onde (voir chapitre 1) est proportionnelle au carré de
p2
l’amplitude de la pression. Le rapport β = R 2 = r2 , qui exprime le rapport de
pi
l’énergie réfléchie à l’énergie incidente, est appelé coefficient de réflexion.

✧✧ Coefficient d’absorption 
Il exprime le rapport de l’énergie non réfléchie (absorbée) à l’énergie incidente, et
est noté α. La conservation de l’énergie implique : α + β = 1 d’où α = 1 – R2. Dans
les chapitres consacrés à l’acoustique des salles, c’est le coefficient d’absorption α
qui sera largement utilisé. Nous verrons à ce moment-là, les distinctions existant
entre les coefficients α de la théorie et ceux mesurés en laboratoire.
Nous pouvons dès à présent préciser que α dépend de la fréquence et de l’angle
d’incidence de l’onde incidente ainsi que de la nature de l’absorbant. Les varia-
tions de α en fonction de ces variables seront étudiées au paragraphe sur les
« absorbants » mais il faut retenir que donner la valeur de α pour une incidence
normale (α0) ne suffit pas à décrire un absorbant.
© Dunod – Toute reproduction non autorisée est un délit.

Nous avons vu que l’énergie absorbée était constituée d’une partie dissipée sous
forme de chaleur et d’une partie transmise par l’onde réfractée. On peut donc
écrire que le coefficient d’absorption est la somme d’un coefficient de dissipation
δ et d’un coefficient de transmission τ. Soit : α = δ + τ.
Ainsi dans le cas d’un matériau poreux de grande épaisseur (par exemple 20 cm
de laine de verre collée sur un mur et pour un son de 1 000 Hz), il y aura une
absorption totale de l’énergie incidente et donc α = δ = 1, et aussi τ = 0 = β.
Dans le cas d’une fenêtre ouverte, il y aura absorption totale par transmission, on
aura α = τ = 1 et δ = 0 = β.
92 Le livre des techniques du son

F Impédance acoustique d’une paroi : Z


Il est utile d’introduire une autre caractéristique de la paroi, celle d’impédance
acoustique notée Z :

p
Z
vn surface

où p est la pression acoustique à la surface de la paroi et vn la composante normale


à la paroi de la vitesse des particules.
U
On peut établir une analogie avec l’électricité, où l’on pose Z  d’où les corres-
pondances : tension → pression et courant → vitesse. I

Cette méthode d’analogie électrique peut servir à résoudre, par l’étude de circuits
électriques équivalents, certains problèmes d’acoustique.
Comme le facteur de réflexion, l’impédance acoustique dépend de l’angle d’inci-
dence et de la fréquence de l’onde incidente, et caractérise à elle seule complète-
ment le comportement d’une paroi. Il existe donc une relation entre ces deux
quantités, que l’on peut trouver facilement par le calcul :

ρo c 1 + R
Z= ×
cos θ 1 − R
où θ est l’angle d’incidence et ρ0c l’impédance caractéristique de l’air. On raisonne
Z
souvent sur l’« impédance acoustique spécifique » Z spe = .
ρo c
2
 Z cos θ − ρoc 
On peut en déduire α de l’équation Z, soit α = 1 − R = 1 − 
2
.
 Z cos θ + ρoc 
Que peut-on déduire de cette équation ?
Sous incidence normale (θ = 0 et cos θ = 1) lorsque R = 0, α = 1, la paroi est tota-
lement absorbante et Z = ρOc.
On dit que ces parois sont « souples ». L’impédance de la paroi est égale à l’impé-
dance caractéristique de l’air : en électricité, il s’agit de l’adaptation d’impédance.
Par contre quand R = 1, c’est-à-dire quand α = 0, la paroi est totalement réfléchis-
sante. Il n’y a pas de changement de phase et Z → ∞. De telles parois sont dites
« rigides ».
Le cas où R = – 1 (avec Z = 0 et α = 0), soit un changement de phase égal à π
(opposition de phase), est très rare en acoustique des salles et seulement dans des
bandes de fréquences très limitées.
Chapitre 3 – Acoustique architecturale 93

F Réflexion sous incidence quelconque


Nous avons vu que la réflexion d’une onde sur une paroi donne naissance à une
onde quasi-stationnaire. Cette onde aura des amplitudes de pression variant
entre un minimum pm et un maximum pM donnés par les relations : pM = pi + pr et
pm = pi – pr en désignant par pi et pr les pressions des ondes incidente et réfléchie.
Dans le cas d’une paroi rigide et réfléchissante (R = 1, α = 0), les maxima (ou
λ
minima) sont distants d’une longueur égale à cos ϕ , ϕ étant l’angle d’incidence.
2
Pour des parois plus absorbantes, on observera toujours un maximum de pres-
sion au voisinage de la surface du mur. C’est précisément à cet endroit que la
vitesse des particules d’air présente un minimum.
Pour une paroi rigide (R = 1) et sous incidence diffuse (c’est-à-dire lorsque la
paroi est frappée par des ondes venant uniformément de toutes les directions et
transportant toutes la même énergie), un microphone placé juste à la surface de
la paroi indiquerait théoriquement un niveau de pression supérieur en moyenne
de 3 dB à celui mesuré à une certaine distance. Cet effet est employé pour les
microphones à zone de pression (P.Z.M) microphone plan à placer au sol ou sur
un mur (voir chapitre 2 « Les microphones », tome 2).
L’écoute à proximité d’une surface réfléchissante est généreuse et les musiciens
de studio (bassistes en particulier) apprécient d’écouter leurs enregistrements
près d’une surface dure et réfléchissante. La figure 3.5 représente l’onde quasi-­
stationnaire au voisinage d’une paroi sous incidence normale avec un coefficient
d’absorption de la paroi égal à α = 0,7.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.5 — Niveau de pression sonore au voisinage


d’une paroi rigide totalement réfléchissante, ou sous incidence diffuse.

Le fait de moyenner sur les directions (incidence diffuse) pour une fréquence
donnée ou de moyenner sur les fréquences pour une direction donnée aboutit
dans les deux cas à une atténuation de l’amplitude lorsqu’on s’éloigne de la paroi.
94 Le livre des techniques du son

Aux fréquences élevées, les fluctuations de la pression au voisinage de la paroi


s’estompent quand on s’éloigne. On considère alors que l’effet de la réflexion sur la
paroi revient à diminuer l’énergie de l’onde incidente du facteur β = R2 = 1 – α.
Cette approximation sera valable pour l’étude des salles en acoustique géomé-
trique.

3.1.3 Champ acoustique d’une salle par l’approche ondulatoire ;


cas d’une salle parallélépipédique
F Cas général : champ acoustique dans une salle quelconque
Le but fixé est de décrire la distribution de la pression sonore dans tout le volume
d’une salle délimitée par des parois plus ou moins réfléchissantes, en partant de
l’équation d’onde.
Pour ce faire, on suppose qu’une source sonore ponctuelle émet un signal sinu-
soïdal et rayonne à un point de la salle et que toutes les parois de la salle ont leurs
propriétés acoustiques décrites par leur impédance acoustique Z.
Les solutions au problème seront les solutions des équations d’onde qui répon-
dront aux conditions aux limites, c’est-à-dire aux propriétés acoustiques des
parois décrites mathématiquement.
Ces solutions peuvent être données par une expression appelée « fonction de
Green », qui décrit complètement le champ acoustique en un point de la salle,
excitée par une source ponctuelle. Une des propriétés importantes de cette
­fonction est que les positions de la source et du point de réception sont
­interchangeables : cela signifie que si la source située en un point A de la salle
produit une pression sonore pr au point R de réception, cette même source
située en R produira en A la même pression sonore pr . Cette propriété impor-
tante connue sous le nom de « théorème de réciprocité » permet de simplifier
certaines mesures en acoustique des salles en plaçant la source au point où l’on
veut faire la mesure et en mesurant au point où devrait se trouver normalement
la source.
Cette approche ne peut donner de résultats pratiques dans le cas général, en
raison des formes de salles compliquées (balcons, galeries, colonnes…) et de la
difficulté à décrire de façon précise les conditions aux limites (c’est-à-dire l’impé-
dance des parois) qu’en utilisant des moyens de calcul importants (calcul par
éléments finis).
Par contre, pour des configurations géométriques simples, parallélogrammes,
cube, prisme et des parois supposées parfaitement réfléchissantes, le calcul
manuel donne des résultats pratiques.
Chapitre 3 – Acoustique architecturale 95

C’est ce que nous allons étudier maintenant pour un cas simple : celui d’une salle
parallélépipédique. Nous ne donnerons pas les calculs, ce n’est pas l’objet de cet
ouvrage, mais aboutirons aux mêmes résultats par une voie schématique plus
concrète.

F Ondes stationnaires entre deux parois parallèles


Réalisons l’expérience suivante : plaçons un haut-parleur entre deux parois
rigides et réfléchissantes, envoyons un signal sinusoïdal (une fréquence pure) qui
va balayer le spectre des fréquences audibles des graves aux aiguës. Nous remar-
quons alors que certaines fréquences sont comme « amplifiées » ou résonnent.
Que se passe-t-il donc ? En fait, à ces fréquences, s’établit une onde stationnaire
entre les deux parois avec des ventres de pression à la surface des parois. Ces
fréquences appelées « fréquences de résonance » ou aussi fréquences propres ou
bien encore modes propres du système paroi-air-paroi sont des multiples de la
plus basse d’entre elles qui est la fondamentale ( f1). Sa valeur est donnée par
c
F1  , c étant la célérité du son et L la distance entre les deux murs. Cela revient
2L
à dire que sa longueur d’onde λ1 vaut 2L soit deux fois la distance séparant les
deux parois. Les fréquences propres suivantes seront 2f1, 3f1, 4f1, 5f1, etc. Les

nœuds et les ventres de ces ondes stationnaires sont distants de n pour la nième
nc 2
fréquence propre Fn  ( figure 3.6).
2L
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.6 — Ondes stationnaires entre deux parois


rigides et réfléchissantes (R = 1, α = 0).

Notons dès maintenant que le fait que les parois soient plus ou moins absorbantes
ou plus ou moins rigides ne modifie pas le résultat dans sa globalité. La figure 3.7
donne trois exemples d’ondes stationnaires ou quasi-stationnaires pour des
parois rigides et réfléchissantes a) (R = 1, α = 0), pour des parois souples et
96 Le livre des techniques du son


r­ éfléchissantes b) (α = 0 et changement de phase =  ) et pour des parois absor-
bantes c) (α = 0,8). 2

Le cas a) est celui étudié précédemment, le cas b) montre un léger resserrement


des nœuds et des ventres, donc un léger accroissement de la fréquence propre ; un
ventre de pression subsiste au voisinage de la paroi. Le cas c) montre une onde
quasi-stationnaire de même fréquence que dans le cas a), mais les minima de
pression (quasi-nœuds) ne sont jamais nuls, ce qui s’explique par le fait que, les
parois dissipant de l’énergie, cette perte d’énergie doit être compensée par un
apport des ondes progressives.

Figure 3.7 — Ondes stationnaires et quasi-stationnaires, pour f4.


a) Parois rigides et réfléchissantes (R = 1, a = 0),

b) Parois souples et réfléchissantes (changement phase , a = 0),
2
c) Parois absorbantes d’impédance quelconque.

F Fréquences propres d’une salle parallélépipédique


Nous supposerons que les parois sont rigides et réfléchissantes. Chaque couple de
parois parallèles possède donc des fréquences propres (3.2) définies figure 3.8.

Figure 3.8 — Salle parallélépipédique.


Chapitre 3 – Acoustique architecturale 97

mc
• Entre face droite et gauche (axe L) f L (m)  ;
2L
nc
• entre face avant et arrière (axe l) fl (n)  ;
2l
pc
• entre sol et plafond (axe H) f H ( p)  ;
2H
où m, n, p sont des nombres entiers naturels. Mais les fréquences propres définies
ci-dessus ne sont pas les seules valeurs pour une salle parallélépipédique : en
effet, elles vont se combiner entre elles pour donner naissance à d’autres
fréquences propres.
À la figure 3.9, nous avons représenté un repère en trois dimensions, chaque axe
0L, 0l, 0H étant gradué par les fréquences propres des trois familles suivant les côtés
L, l et H de la salle. Nous avons tracé à partir de ce repère un « maillage » en trois
dimensions, constitué d’arêtes et de sommets. Le point A par exemple est un des
sommets de ce maillage et dans le repère (0, L, l, H) ses coordonnées sont (1, 1, 2).
D’après le théorème de Pythagore, la longueur de 0A est égale à :
2 2 2 2 2 2
 c   c   2c  c  1  1  2 
  +  +  soit ×   +   +  
 2 L   2l   2H  2 L l  H 
2 2 2
c  1  1  2 
En fait F = ×   +   +   est une des fréquences propres de la salle
2 L l  H 
générée à partir des trois autres contenues dans les trois familles de base.
On peut donc construire de la sorte toutes les fréquences propres de la salle qui
seront données par la formule trouvée par Lord Rayleigh en 1869 :

c  m2   n2   p 2 
f (m, n, p) = + +
2  L2   l 2   H 2 
© Dunod – Toute reproduction non autorisée est un délit.

m, n, p, étant des nombres entiers et L, l et H les dimensions de la salle. (Lorsque


les parois ne sont pas rigides ou réfléchissantes, c’est-à-dire lorsque leurs impé-
dances sont quelconques, on observe une déviation des valeurs données par la
formule de Rayleigh. Mais cela ne remet pas en cause la signification des résultats
énoncés ci-après.) La fréquence propre correspondant au point A sera notée ainsi
f  (1, 1, 2).

c 1 0  0  c
Autre exemple : f (1, 0, 0) = ×  2  +  2  +  2  =
2  L   l   H  2L
98 Le livre des techniques du son

Figure 3.9 — Réseau permettant de compter et de construire


les fréquences propres : chaque somme d’un volume unitaire est l’extrémité
d’un vecteur dont la norme est la valeur d’une fréquence propre.
Ici, le point A de coordonnées (1, 1, 2) correspond à la fréquence propre
c 1 1  4 
f(1,1,2) = OA = + + .
2  L2   l 2   H 2 

On retrouve la fréquence fondamentale correspondant à la longueur L.


En calculant f  (0, 1, 0) et f  (0, 0, 1) on retrouverait les deux autres fréquences
c c
propres fondamentales correspondant aux longueurs l et H soit et .
2l 2H
Les fréquences propres d’une salle peuvent être classées en trois groupes
(figure 3.10) :
• Les fréquences propres axiales : ce sont celles qui correspondent aux
fréquences propres des parois parallèles.
mc
f (m, o, o) 
2L
nc
f (o, n, o) 
2l
pc
f (o, o, p) 
2H
donc celles qui sont parallèles à l’un des trois axes de la salle.
Chapitre 3 – Acoustique architecturale 99

• Les fréquences propres tangentielles : ce sont celles construites à partir de


deux familles de fréquences propres axiales.
• Elles sont du type f  (m, n, 0), f  (m, 0, p) ou f  (0, n, p) donc contenues dans
un plan parallèle (tangent) à l’un des faces de la salle.
• Les fréquences propres obliques : ce sont toutes les autres de la forme
­générale f  (m, n, p), m, n et p étant non nuls. Elles ne seront ni parallèles
à  un axe, ni contenues dans un plan parallèle à l’une des faces, donc
obliques.

Figure 3.10 — Exemple de fréquences propres


(les courbes représentent les niveaux de pressions sonores).
© Dunod – Toute reproduction non autorisée est un délit.

a) Fréquence propre axiale 0L f(6, 0, 0) (onde stationnaire unidimensionnelle).


b) Fréquence propre tangentielle f(1, 1, 0) (onde stationnaire bi-dimensionnelle).
c) Fréquence propre oblique f(1, 1, 1) (onde stationnaire tri-dimensionnelle).

On montre que les fréquences propres axiales transportent deux fois plus d’énergie
que les fréquences propres tangentielles, et que ces dernières en transportent
deux fois plus que les fréquences propres obliques.
Ceci prouve que les fréquences propres axiales ont une importante prépon­
dérante.
100 Le livre des techniques du son

Fréquences propres inférieures à 100 Hz


d’une salle de dimension (7,85 × 6,25 × 4,95 m).

m n p f (Hz) m n p f (Hz)

1 0 0 21,7 1 1 2 77,0

0 1 0 27,2 2 2 1 77,6

0 0 1 34,3 3 1 1 78,4

1 1 0 34,8 2 0 2 81,2

1 0 1 40,6 0 3 0 81,6

2 0 0 43,3 1 3 0 84,4

0 1 1 43,8 3 2 0 84,7

1 1 1 48,9 2 1 2 85,6

2 1 0 51,1 4 0 0 86,6

0 2 0 54,4 0 2 3 87,6

2 0 1 55,3 0 3 1 88,5

1 2 0 57,6 1 2 2 90,3

2 1 1 61,1 4 1 0 90,8

0 2 1 64,3 1 3 1 91,1

3 0 0 65,0 3 2 1 91,4

1 2 1 67,9 2 3 0 92,4

0 0 2 68,7 4 0 1 93,2

2 2 0 69,5 3 0 2 94,5

3 1 0 70,4 4 1 1 97,1

1 0 2 72,0 2 2 2 97,7

3 0 1 73,5 3 1 2 98,4

0 1 2 73,9 2 3 1 98,6

✧✧ Dénombrement des fréquences propres


La figure 3.9 permet de compter les fréquences propres d’un local comprises entre
0 et une fréquence donnée f.
Chapitre 3 – Acoustique architecturale 101

La formule donnant ce nombre est connue sous le nom de formule de M. Maa


(1939) :
3 2
4π  f  π  f  L  f 
N( f ) = V   + S  + t  
3 c 4 c 8c

• V : volume de la salle (l × L × H),


• S : surface totale des parois de la salle [2 × (lL + LH + lH)],
• Lt : longueur totale des arêtes de la salle [4 × (l + L + H)].
Exemple 1 : soit une salle de 2 × 3 × 2,5 m (V = 15 m3).
On aura N1(1 000) = 1 861 pour c = 340 m/s.
Donc 1 861 fréquences propres pour cette salle, entre 0 et 1 000 Hz.
On aura N1(100) = 5.
Exemple 2 : soit une salle de 10 × 20 × 8 m (V = 1 600 m3).
On aura N2(1 000) = 176 552 et N2(100) = 236.

✧✧ Espacement des fréquences propres


La dérivation de la formule de M. Maa permet de connaître la densité de
fréquences propres à une fréquence donnée, c’est-à-dire le nombre de fréquences
propres comprises dans un intervalle de 1 Hz centré sur f. On aura :

4 πV 2 πS L
∆N ( f ) = 3
(f) + 2 f + t
c 2c 8c

soit pour la salle no 2 à 1 000 Hz, ∆N(1 000) = 523.


Ces formules et ces exemples nous montrent que :
© Dunod – Toute reproduction non autorisée est un délit.

• pour une fréquence donnée f, le nombre des fréquences propres compris


entre 0 et f est proportionnel, en première approximation, au volume de la
salle et au cube de cette fréquence ;
• la densité de fréquences propres est proportionnelle au volume de la salle
et au carré de la fréquence.
Si un musicien joue, par exemple, de la contrebasse dans la salle no 1, sa note de
contrebasse aura une grande probabilité de tomber entre deux fréquences
propres, les fréquences propres comprises entre 0 et 100 Hz étant peu
nombreuses.
102 Le livre des techniques du son

Cette note paraîtra pauvre par rapport à une note qui coïncidera avec une
fréquence propre, et qui donc excitera la salle.
Ceci explique les défauts liés aux petits studios ou cabines speak qui sont généra-
lement de petites dimensions : les premières fréquences propres de ces cabines
assez espacées (d’autant plus que les fréquences propres axiales sont prépondé-
rantes), colorent certaines notes ou syllabes.
Par contre, la même note jouée dans la salle 2 aura moins de chance de tomber
sur  une fréquence propre isolée. La coloration dans le grave due aux
fréquences propres sera moins importante dans les grandes salles que dans les
petites.
À partir de la formule de Maa, il est donc possible d’optimiser les dimensions
d’une salle parallélépipédique afin d’obtenir une suite de fréquences propres qui
soient le plus régulièrement espacées dans le grave du spectre audible, la première
démarche étant de ne pas choisir de salle ayant deux côtés égaux et au pire 3. Dans
ces cas, les fréquences propres générées par les côtés de mêmes dimensions
seraient égales et le phénomène de coloration s’en trouverait amplifié. Cet effet est
connu sous le nom de phénomène de coïncidence.
Les diagrammes donnant les rapports entre ces dimensions sont connus sous le
nom de diagrammes de Bolt (parmi les plus connus, citons ceux correspondant
aux salles de dimensions dans les rapports 3 × 4 × 5).
Dans le cas de formes géométriques très simples, il est possible d’établir des
formules correspondant à celle de Maa. Pour des salles de forme quelconque, ce
calcul s’avère pratiquement impossible.
La question se posant alors tout naturellement à nous est la suivante :
Faut-il faire des salles parallélépipédiques ou des salles de formes quelconques ?
Dans la plupart des cas, la salle existe déjà. Dans beaucoup d’autres cas, les
contraintes architecturales emportent la décision. Dans les quelques cas restant,
la question est en fait : faut-il faire une salle parallélépipédique, de dimensions
optimisées et dont on connaîtra les fréquences propres, ou bien faut-il faire une
salle de forme quelconque dont les fréquences propres seront difficiles sinon
impossibles à calculer ?

✧✧ Première introduction au phénomène de la réverbération


Si l’on joue une note de musique autour de 1 000 Hz dans la salle 2, on ne va pas
exciter un mode propre, mais 523 ! (et l’on suppose pour le moment que cette note
est un son pur, sans harmoniques).
Chapitre 3 – Acoustique architecturale 103

On ne peut plus alors considérer le phénomène comme étant discret. Quand l’on
joue de la musique dans une salle, ce sont des milliers de fréquences propres qui
vont être excitées. Or, comme toutes fréquences propres d’oscillateur (une salle
est un oscillateur à trois dimensions), elles possèdent une constante d’amortisse-
ment. Il est possible d’associer à chaque fréquence propre sa constante d’amortis-
sement et également d’associer une constante d’amortissement moyenne à
l’ensemble des fréquences propres. Nous pouvons donc envisager le phénomène
de la réverbération, d’un point de vue ondulatoire, comme étant le phénomène de
décroissance de toutes les fréquences propres excitées par un son.
Ceci constitue en acoustique des salles, un lien fondamental entre l’espace
fréquence et l’espace temps.

3.1.4 Acoustique géométrique


L’acoustique géométrique est le domaine de l’acoustique des salles permettant
d’étudier la propagation des ondes sonores issues d’une source, en les assimilant à
des « rayons sonores » auxquels on peut appliquer les lois de Descartes, c’est-à-dire
les lois décrivant en optique les phénomènes de réflexion des rayons ­lumineux.
Pour étudier une salle du point de vue de l’acoustique géométrique, il faudra
toujours être en présence de réflexions géométriques, c’est-à-dire qu’il faut :
• que les dimensions de la salle soient grandes devant la longueur d’onde du
rayon sonore,
• que les dimensions des surfaces sur lesquelles se réfléchit le rayon sonore
soient grandes devant la longueur d’onde de celui-ci,
• que les dimensions des accidents dus à la rugosité des surfaces considérées
soient petites devant la longueur d’onde du rayon sonore.
Cela élimine implicitement les phénomènes dus au caractère ondulatoire de
l’onde, à savoir la diffraction, la diffusion, les interférences et les problèmes liés à
la phase.
© Dunod – Toute reproduction non autorisée est un délit.

En cas de superposition de différents champs sonores, seule est prise en compte


l’addition des intensités ou des énergies (en moyenne statistique).
L’étude d’une salle par l’acoustique géométrique, si parlante soit-elle, n’en
constitue pas moins une simplification du problème posé.

F Réflexion géométrique sur une surface plane : source image


Lorsqu’un rayon sonore frappe une surface Σ, il est réfléchi par celle-ci selon la
loi d’optique bien connue : son angle de réflexion (c’est-à-dire l’angle que forme
104 Le livre des techniques du son

ce rayon avec la normale à la surface Σ, au point de réflexion) est égal à son


angle d’incidence (ce type de réflexion est également dénommé réflexion spécu-
laire, du grec speculos signifiant « miroir »).

✧✧ Source image
Considérons la figure 3.11.

Figure 3.11 — Source d’image d’une source par rapport à une paroi Σ.

Soit un rayon sonore issu de la source S et se réfléchissant sur la surface Σ au point


I. Soit S′ le symétrique de S par rapport à la surface Σ.
La distance SI étant égale à la distance S′I, tout se passe en fait comme si le rayon
réfléchi était issu d’une source S′.
Cette source S′ est appelée source image de la source S par rapport à la surface Σ.
C’est une source virtuelle qui émet en même temps exactement le même
signal  que  la source S, et possède les mêmes caractéristiques directionnelles
­symétriques.

✧✧ Réflexion sur une surface courbe


Les mêmes principes de construction peuvent s’appliquer aux rayons sonores se
réfléchissant sur une surface courbe : il suffit alors de considérer la source image
S′ comme étant le symétrique de S par rapport au plan tangentiel T à cette surface
au point de réflexion I (figure 3.12a).
Cette construction géométrique simple permet d’expliquer les phénomènes de
focalisation et d’échos rencontrés dans la vie quotidienne (figure 3.12b).
Chapitre 3 – Acoustique architecturale 105

Le phénomène de la propagation du son par réflexions sur des surfaces était bien
connu des anciens : Oracle de Delphes, Oreille de Denys à Syracuse, Théâtres
gréco-romains, galeries pour espionner les confidences faites à voix basses, etc. Il
est également bien connu des modernes quand ils se parlent d’un quai à l’autre du
métro !

Figure 3.12 — Source image d’une source


par rapport à une paroi courbe Σ.
a) Réflexion sur la tangente. b) Focalisation sur l’axe PC.

✧✧ Énergie et réflexion
Comme nous l’avons vu plus haut, seule une partie de l’énergie incidente est en
général réfléchie par une paroi ; l’autre partie est absorbée par la paroi ou bien
transmises de l’autre côté de celle-ci, ce qui revient au même du point de vue de la
réflexion.
© Dunod – Toute reproduction non autorisée est un délit.

La quantité d’énergie non réfléchie est caractérisée par le coefficient α de la paroi


que nous avons défini comme étant le rapport de l’énergie non réfléchie à l’énergie
incidente. Ce coefficient dépend en général de l’angle d’incidence et de la
fréquence de l’onde incidente.
Introduire cette notion pour chaque surface en cause compliquerait énormément
l’étude d’une salle par l’acoustique géométrique et perdrait son intérêt : sa simpli-
cité. On se contente généralement d’introduire le coefficient d’absorption moyen
α et d’admettre que l’énergie d’un rayon réfléchi est égale à (1 – α) fois l’énergie du
rayon incident.
106 Le livre des techniques du son

F Réflexions dans une salle


Une salle est un espace délimité par des surfaces plus ou moins réfléchissantes.
Considérons une source sonore S située dans une salle (figure 3.13).
On peut, par rapport à une des parois, déterminer sa source image S′.
Tous les rayons sonores issus de S réfléchis par cette paroi pourront être construits
à partir de S′. Mais certains de ces rayons vont rencontrer la paroi suivante. D’où
la construction d’une seconde source image S′′, source image de la source image
S′ par rapport à la paroi suivante.
Une telle source image telle que S′ sera appelée source image de S du premier
ordre.
Une source image telle que S′′ sera appelée source image de S du second ordre.

Figure 3.13 — Construction d’une source image S˝ du second ordre


pour une salle parallélépipédique. On remarquera que le rayon incident
est parallèle au rayon réfléchi par la 2e réflexion.

Le procédé peut se poursuivre ainsi de suite et le résultat devient, dans le cas de


salle de forme quelconque rapidement « embrouillant », dans la mesure où le
nombre de sources d’image du premier ordre de S est égal au nombre de surfaces
réfléchissantes, et que chacune de ces sources image possède à son tour le même
nombre de sources image.
Dans la pratique, on se limitera aux sources du premier ordre.
On suppose bien sûr dans l’étude des salles par l’acoustique géométrique, que le
temps pendant lequel émet la source est tel que le trajet parcouru par le son
pendant ce temps est petit devant les dimensions de la salle ; ce n’est pas un
problème, dans la mesure où tout signal peut se décomposer en une succession de
signaux de courte durée.
Chapitre 3 – Acoustique architecturale 107

F Front d’onde
La méthode des « sources image » permet de tracer facilement les fronts d’ondes,
c’est-à-dire le lieu des extrémités des rayons sonores issus de la source, au bout
d’un temps t. Il suffira de tracer des cercles de rayon ct dont les centres seront les
sources images (figure 3.14). On ne retiendra que les arcs de cercle situés du côté
« réel » des parois (le côté imaginaire étant celui où se trouvent les sources image,
qui sont virtuelles).

Figure 3.14 — a) Construction d’un front d’onde.


b) Propagation des fronts d’onde à divers instants
dans une salle parallélépipédique.

F Cas d’une salle parallélépipédique


Dans le cas d’une salle parallélépipédique (figure 3.15), de nombreuses sources
© Dunod – Toute reproduction non autorisée est un délit.

d’ordre supérieur à 1 coïncident du fait du parallélisme des murs 2 à 2.


Il est possible, en faisant ce dessin en trois dimensions, de dénombrer les sources
image entrant en jeu pendant un intervalle de temps ∆t compris entre t et t + ∆t.
Le nombre de ces sources image est égal au volume compris entre les sphères de
rayons ct et c(t + ∆t) divisé par le volume élémentaire égal à celui de la salle. Ce
qui donne :

4 πc 3 2
∆n = t ∆t
V
108 Le livre des techniques du son

(Pour des raisons difficiles à expliquer ici, cette formule est également valable
pour une salle de forme quelconque. Remarquez par ailleurs, que la densité
temporelle des réflexions suit une loi fonction du carré, comme la densité fréquen-
tielle des modes propres d’une salle.) Connaître le nombre de source image émet-
tant pendant cet intervalle de temps revient donc à connaître le nombre de rayons
réfléchis parvenant pendant ce même intervalle de temps à l’oreille d’un auditeur
situé dans la salle.

Figure 3.15 — Sources image d’une salle parallélépipédique.


Chaque point représente une source image dont l’ordre est d’autant
plus élevé que l’on s’éloigne de la source.

Exemple : salle de 5 × 8 × 3 = 120 m3.

t = 1 s
∆t = 1/5 s (donc c∆t = 68 m)
on aura ∆n = 823 180 réflexions entre 1 s et 1,2 s.
L’existence de ces très nombreuses réflexions au bout d’un certain temps t,
nous  amènera tout naturellement à considérer le problème d’un point de
vue statistique, pour déboucher sur les formules classiques du temps de réver­
bération.
Chapitre 3 – Acoustique architecturale 109

F Phénomènes d’échos
Vous vous êtes très certainement amusé à provoquer ce phénomène au cours de
promenades en montagne. Que se passe-t-il ? Une ou plusieurs parois éloignées
vous renvoient le signal que vous avez émis, au bout d’un temps suffisamment
long pour que ce signal réfléchi ne se confonde pas avec le signal émis. Nous
notons là une des caractéristiques principales d’un écho : c’est un phénomène
sonore isolé temporellement.
Bien sûr, ce phénomène dépend du pouvoir séparateur temporel de l’oreille de
l’auditeur : certaines personnes confondent deux sons identiques séparés de
25 ms, d’autres percevront distinctement ces deux mêmes sons séparés seule-
ment de 15 ms (voir chapitre 4).
Il dépend aussi du message émis : la réflexion d’une impulsion de très courte
durée sera beaucoup plus facilement perçue comme un écho, le seuil d’apparition
de l’écho sera différent pour de la musique ou de la parole.
On admet généralement que le phénomène d’écho apparaît quand le retard entre
son direct et réfléchi est environ de 50 ms, soit une différence de trajet de 34 m.
Cela signifie qu’une paroi éloignée de vous de 17 m est susceptible de provoquer
un écho (trajet aller + retour).

✧✧ Écho dans une salle


Nous avons pris l’exemple de l’écho en plein air pour décrire ce phénomène, car la
probabilité de masque par d’autres réflexions est faible. Dans le cas d’une salle, le
phénomène est moins évident dans la mesure où de nombreuses réflexions
peuvent exister entre le moment où le signal est émis et le moment où se produit
la réflexion susceptible de donner l’écho. Cette réflexion ne se trouve donc plus
isolée temporellement. Pour qu’elle apparaisse comme telle, il faut que ce soit une
très forte réflexion, donc émergeant bien au-dessus du niveau ambiant.
Cette condition peut également être remplie lorsque plusieurs réflexions
provoquent chacune un écho au même moment ; c’est le cas lorsqu’une surface
© Dunod – Toute reproduction non autorisée est un délit.

concave suffisamment éloignée focalise vers l’auditeur un grand nombre de


rayons sonores émis par la source. Il existe des cas célèbres de ce phénomène : le
dôme voûté du Royal Albert Hall par exemple, qui était très haut au-dessus du
parterre, focalisait sur une partie de l’auditoire, des rayons sonores qui parve-
naient environ 250 ms après le son direct.
Un autre exemple que l’on rencontre souvent en raison de l’attirance tout à fait
légitime des architectes pour un mur de fond de salle concave, est une focalisation
des réflexions sur ce mur vers la scène : il devient alors très difficile aux instru-
mentistes de jouer correctement.
110 Le livre des techniques du son

Bien entendu, ce ne sont pas nécessairement les réflexions du premier ordre qui
provoquent un écho, mais aussi celles du deuxième, troisième voire quatrième
ordre. Au-delà, étant donné que la pression sonore décroît pendant la propaga-
tion, l’écho devient trop faible pour émerger.

✧✧ Remèdes
Au stade de la conception, l’étude peut faire apparaître l’existence future d’échos.
Dans le cas de salles existantes, il existe trois remèdes :
• soit modifier la géométrie de la surface en cause, ce qui est généralement
impossible ;
• soit intercaler entre la source et la surface en cause des panneaux réflé­
chissants de dimensions suffisantes pour être efficaces aux fréquences
­considérées  ;
• soit diminuer l’énergie réfléchie en mettant un absorbant sur la surface
en cause. Mais dans ce cas on peut diminuer de façon non négligeable
le  temps de réverbération de la salle, ce qui peut présenter un gros
­inconvénient.

✧✧ Échos multiples
C’est le cas où plusieurs échos parviennent séquentiellement à l’auditeur, de telle
façon qu’il puisse les distinguer temporellement.
Si le retard séparant ces échos est très court, il ne pourra plus les distinguer et
percevra leur séquence comme une note d’où le nom d’écho total. Ces échos
peuvent être produits par réflexions de différents rayons sonores sur des surfaces
différentes.
Dans le cas où des surfaces sont disposées de telle façon que les rayons sonores
empruntent le même trajet plusieurs fois de suite, et donc que le signal émis passe
et repasse un grand nombre de fois aux oreilles de l’auditeur, on parlera d’écho
répétitif ; c’est un phénomène périodique, et si la distance entre ces surfaces est
suffisamment courte, on entendra également une note. De tels échos sont appelés
« flutter ». Vous pouvez en obtenir en frappant dans vos mains entre deux murs
proches parallèles et très réfléchissants : il sera d’autant plus perceptible si les
deux autres murs de la pièce sont absorbants (les réflexions sur ces murs ne
venant pas masquer le flutter).

F Étude d’une salle par l’acoustique géométrique


L’étude d’une salle par l’acoustique géométrique consiste à tracer sur un plan de
celle-ci, le plus grand nombre de rayons sonores issus d’une source, d’étudier leur
Chapitre 3 – Acoustique architecturale 111

propagation, de voir si la diffusion du son dans la salle est celle recherchée,


et  surtout d’éviter les défauts dont nous avons parlé plus haut : focalisation,
échos, etc.
L’avantage de cette méthode est sa simplicité.
On pourra bien sûr tenir compte de la directivité de la source et dans une certaine
mesure de l’absorption des parois.
Les inconvénients sont quand même assez nombreux :
• on ne travaille qu’en deux dimensions : en plan ou en coupe, et il est donc
très difficile de tracer les rayons sonores réfléchis par des surfaces non
parallèles à l’un des plans, donc d’avoir une vision en volume ;
• on ne tient pas compte des réflexions d’ordre supérieur sinon le dessin
deviendrait très vite illisible. On peut donc passer à côté d’échos vicieux,
dus à des réflexions du troisième ordre, par exemple ;
• on ne tient pas compte, comme nous l’avons dit au début de ce chapitre, des
phénomènes de diffraction ou de diffusion.
Bien sûr, depuis quelques années, l’informatique a pris le relais et le tracé des
rayons sonores en « 3D » est fait par l’ordinateur. À partir de cette méthode de
base, on a développé des programmes qui tiennent compte de la directivité de la
source, de l’absorption et de la diffusion des parois, ce en fonction de la fréquence.
Mais l’introduction de phénomènes ondulatoires ne nous permet plus de parler
d’acoustique géométrique au sens classique du terme.

3.1.5 Acoustique statistique


F Un peu d’histoire…
Les hommes ont perçu de tout temps le phénomène de l’extinction d’un son émis
dans une salle. Mais ce n’est qu’au début du xxe siècle qu’un physicien américain,
© Dunod – Toute reproduction non autorisée est un délit.

Wallace Clement Sabine, étudia scientifiquement ce phénomène.


Attardons-nous un peu sur cette période et citons un passage du livre La science
au théâtre, écrit en 1908 par MM. Vaulabelle et Hemardinquer.
« M. Ch. Garnier qui, lors de la reconstruction de l’Opéra, s’est occupé lui aussi de la
question d’acoustique, dit à ce sujet, dans son livre sur le théâtre : “L’acoustique est
une science positive en ce qui touche les expériences de laboratoire et en ce qui se
rapporte à la physique proprement dite. Mais elle devient hésitante et à peu près
nulle lorsqu’elle s’attaque à des questions pratiques et surtout lorsqu’elle se préoc-
cupe de la sonorité des salles de spectacle… Il en est qui, presque identiques de
112 Le livre des techniques du son

forme, de dispositions et de dimensions, ont des qualités très variables ; celle-ci est
bonne, celle-là est mauvaise : l’une frémit au moindre coup d’archet, c’est une salle
nerveuse ; l’autre ne vibre même pas sous l’influence d’un orchestre entier, c’est la
salle lymphatique ; puis un écho se produit dans le jour, qui disparaît le soir, ou se
fait entendre le soir, qui disparaît dans le jour alors que la salle est vide, et les anno-
tations que l’on fait sur ce point, et les comparaisons, et les recherches minutieuses,
tout cela se confond dans un interminable gâchis, dans un labyrinthe inextricable.”
« D’après M. Adolphe Sax, dont, malgré sa compétence, nous ne partageons pas
absolument la manière de voir, les matériaux qui entrent dans la construction d’une
salle n’auraient aucune influence sur la formation et le caractère des sons. Il invoque
à l’appui de sa théorie les expériences qu’il a faites à ce sujet et d’après lesquelles il
n’existerait aucune différence entre les sons produits par des instruments exacte-
ment semblables, mais exécutés avec des matières différentes : le caoutchouc, le
carton, le cuivre, l’argent, le verre, etc.1. Cela est vrai quand il s’agit de la formation
et du caractère des sons, mais il n’en est plus de même lorsqu’il est question de leur
réflexion, phénomène dont dépend surtout la qualité d’une salle de concert ou de
théâtre. »
« Une étude encore récente, parue dans un journal américain d’architecture, et due
à M. William C. Sabine, permet de se rendre compte de leur erreur. M. Sabine, par
une nombreuse série d’expériences dont le détail ne peut entrer dans le cadre de cet
ouvrage, a montré l’influence de la nature de tous les corps qui figurent dans une
salle de théâtre sur la prolongation des sons émis, prolongation à laquelle il a donné
le nom de réverbération. Il a pu traduire par des chiffres les effets absorbants des
fenêtres, des matériaux de construction : bois, plâtre, ciment, briques, marbre,
verre, etc. ; des objets de décoration : plantes, tapis, tentures, etc. ; enfin des sièges en
bois, en crin, des coussins, etc. »
« Des chiffres cités par M. Sabine, on peut tirer des remarques intéressantes et même
amusantes. Ainsi, en prenant pour unité le pouvoir absorbant d’une fenêtre ouverte
de 1 mètre carré de surface, ce qui se conçoit sans avoir besoin de plus ample expli-
cation, on trouve qu’un homme a un pouvoir absorbant de 0,48, et une femme
isolée, conséquence probable du fatras de la toilette et peut-être de la coiffure, 0,54,
soit 6 p. 100 de plus que l’homme. Il faut avouer qu’on aurait cru à plus de diffé-
rence, et ceux qui n’aiment pas voir les dames à l’orchestre ne trouveront pas là un
argument bien sérieux en faveur de leur peu galante compagne. »
« À titre de comparaison, les tapis d’Orient ont un pouvoir absorbant de 0,29 et les
sièges rembourrés de 0,28. Avec ces données numériques, on peut calculer, a priori,

1. Sax se basait sur son expérience de luthier, car contrairement à une fausse idée largement répandue, la
matière constitutive des instruments à vent n’a que très peu d’influence sur leur sonorité.
Chapitre 3 – Acoustique architecturale 113

le pouvoir absorbant d’un amphithéâtre plein ou vide, avant même qu’il soit
construit. »
« Dans une salle où se produit un son continu, régulier, un auditeur peut entendre
trois sortes de vibrations : 1° l’onde primaire qui vient directement de la source
sonore ; 2° les ondes diffusées, en nombre infini, qui sont renvoyées par les parois et
forment ce qu’on appelle la résonance ; 3° d’autres ondes réfléchies régulièrement
par les parois et constituant autant d’échos distincts. Or, pour qu’une salle soit bonne
au point de vue acoustique, il faut qu’il ne s’y produise pas d’échos et que le son de la
résonance soit assez court pour renforcer le son qui l’a déterminé sans empiéter sur
le son suivant. D’autre part, comme la durée du son de résonance varie avec le
timbre, la hauteur et l’intensité du son primitif, il s’ensuit qu’une salle peut être
bonne pour un orateur et mauvaise pour un orchestre. Si cette durée dépasse une
seconde, on n’arrive à se faire entendre qu’en parlant très lentement, en articulant
avec soin et en ne donnant pas à la voix une trop grande intensité. C’est le cas, par
exemple, pour la salle du Trocadéro. Quand elle est pleine, il ne faut pas y parler trop
fort, sans quoi la parole y devient absolument diffuse. »

F Les expériences de W. C. Sabine

Sabine n’avait à sa disposition que des tuyaux d’orgues comme source sonore et
qu’un chronomètre comme moyen de mesure. Il fit ses expériences dans des
salles plutôt réverbérantes ce qui lui permettait de mieux mesurer les durées.
Sa première constatation fut que la durée de la réverbération était la même en
tout point de la salle (nous voyons déjà poindre la notion d’énergie uniformé-
ment  répartie dans le volume). Ainsi, cette durée (durée psychologique car
­correspondant au temps s’écoulant entre l’arrêt de la source et l’instant où le son
devenait inaudible) était-elle une caractéristique de la salle.
Mais il remarqua que cette durée n’était pas fonction uniquement de la salle, mais
aussi de la puissance de la source : un coup de pistolet « dure » plus longtemps
qu’un claquement de mains.
© Dunod – Toute reproduction non autorisée est un délit.

Il étudia donc l’influence de la puissance de la source en utilisant un tuyau d’orgue,


puis deux, puis quatre, chacun jouant à pression d’air constante. Il observa ainsi
que la durée de la réverbération ne doublait ni ne quadruplait mais par contre,
que celle-ci augmentait du même temps lorsqu’il passait de un à deux tuyaux que
lorsqu’il passait de deux à quatre tuyaux. Il en déduisit ainsi que, dans une salle,
l’énergie sonore décroît du quadruple au double dans le même temps qu’elle
décroît du double au simple et il émit l’hypothèse que la perte de l’énergie initiale
est due à son absorption par les parois lors des réflexions successives. Exprimé de
façon plus générale : il a observé que l’énergie sonore décroît de la même fraction
114 Le livre des techniques du son

de l’énergie initiale, par intervalles de temps égaux. Ce qui signifie que la perte
instantanée d’énergie est un pourcentage constant de l’énergie instantanée.
Mathématiquement, cela signifie que ce phénomène se décrit par une fonction
exponentielle décroissante ce qui peut s’exprimer par :

dE dt
− =
E τ
où τ est la constante de temps, non déterminée pour le moment, de ce phéno-
mène de décroissance.
Nous avons utilisé sciemment, le terme de durée de la réverbération et non de
temps de réverbération. En effet, au risque de nous répéter, la durée de ce phéno-
mène est une durée subjective, une durée apparente : elle dépend de la puissance
de la source et si le bruit de fond de la salle est plus élevé, cette durée nous appa-
raîtra plus courte, car le son réverbéré se fondra plus vite dans le bruit de fond.
Nous verrons plus loin que le terme de temps de réverbération correspond à une
diminution arbitraire de l’énergie initiale, indépendante de la puissance de la
source et du bruit de fond de la salle.

F Loi d’extinction du son

✧✧ Définition
Par intégration de l’équation différentielle écrite plus haut, nous avons tout de
suite :
t
t −
LnE = ln Eo − soit E = Eoe τ
τ
Ce qui peut s’exprimer par : le logarithme de l’énergie sonore instantanée décroît
linéairement en fonction du temps (figure 3.16). Comme la sensation du niveau
sonore est logarithmique, cela explique le fait que le phénomène de la réverbéra-
tion soit perçu comme étant linéaire ; en première approche seulement, et sous la
condition fondamentale suggérée plus haut, à savoir que l’on suppose que l’énergie
est distribuée uniformément dans tout le volume de la salle. Il ne faudra jamais
perdre de vue cette condition dans l’application des formules de temps de réver-
bération. Ce n’est que rarement le cas en pratique.
Chapitre 3 – Acoustique architecturale 115

Figure 3.16 — a) Puissance émise par la source


pendant le temps nécessaire à obtenir Emax dans la salle.
b) Courbes de l’énergie pendant l’établissement et l’extinction
du son; les surfaces grisées sont identiques.
c) Mêmes courbes mais en niveau d’énergie.

✧✧ Détermination de la constante de temps  . Durée de réverbération : RT60


L’équation écrite plus haut nous permet de calculer τ : supposons que l’énergie
sonore décroisse de E1 à E2 pendant l’intervalle de temps t1 – t2, on aura :
t 2 − t1
τ=
E 
Ln  1 
 E2 
Si on prend le rapport des énergies qu’avait Sabine, soit 4/1, l’intervalle de temps
t1 – t2 serait extrêmement court comparé à la durée apparente de la réverbération.
C’est pourquoi, dans la mesure où le plus grand rapport des énergies rencontré
dans une salle de concert peut atteindre 1 000 000 soit 106, on prendra ce rapport
© Dunod – Toute reproduction non autorisée est un délit.

pour définir le temps de réverbération.


On appellera donc durée de réverbération T la durée que met l’énergie sonore
d’un son après son extinction pour décroître du millionième de sa valeur initiale
ou de 60 dB en niveau (d’où l’abréviation RT60). La durée de réverbération T est
donc totalement différente de la durée apparente de la réverbération.
E
En introduisant le terme 1  106 dans l’équation précédente, on obtient donc :
E2
T T
τ= =
6Ln10 13, 8
116 Le livre des techniques du son

et l’équation de l’énergie devient E = E0 × 10–6t/T


soit logE = logE0 – 6t/T,
60t
soit en niveaux : L = Lo − .
T
Nous venons donc d’étudier le phénomène d’extinction d’un son dans une salle ;
nous allons maintenant étudier celui, moins flagrant, de l’établissement d’un son
dans une salle.

F Loi d’établissement du son dans une salle


Imaginons qu’à l’instant t = 0, une source S de puissance constante P rayonne
dans une salle.
Si E(t) est la densité d’énergie instantanée, et si l’on choisit un petit intervalle de
temps dt pendant cette période d’établissement du son, l’énergie contenue dans la
salle VE(t) va s’accroître d’un petit surplus d’énergie égal à Pdt apporté par la
source et qui devra au moins être supérieur à l’énergie perdue par absorption
Edt/τ pendant le même intervalle de temps.
Nous pouvons donc écrire le bilan des énergies :
dt
VdE = Pdt − VE
τ
V dE VE
Ou bien le bilan des puissances : =P− .
dt τ
Cette dernière équation montre que la densité d’énergie tend vers une valeur
asymptotique Emax quand il n’y a plus d’accroissement, c’est-à-dire quand
dE/dt = 0.
VE Pτ PT
On a alors 0 = P − max d’où Emax = = en remplaçant τ par sa valeur
en fonction de T. τ V 13 , 8V

En fait, cette valeur Emax est la valeur E0 de la densité d’énergie initiale dont nous
sommes partis pour décrire la loi d’extinction du son.
Nous pouvons donc écrire la densité d’énergie instantanée E(t), comme étant
égale à la densité d’énergie Emax moins la différence de E(t) à Emax = ∆E(t) :
E(t) = Emax – ∆E(t)
En remplaçant E(t) par cette valeur dans l’équation du bilan des puissances, nous
obtenons :
∆E(t ) ∆E
−d =
dt τ
Chapitre 3 – Acoustique architecturale 117

Cette équation différentielle est en fait la même que celle de la loi d’établissement
du son, si l’on remplace E(t) par ∆E(t).
Cela signifie que l’accroissement de l’énergie s’établissant pendant un intervalle de
temps donné est égal à la diminution de l’énergie décroissante pendant ce même
intervalle de temps, ou, exprimé autrement, que les fonctions décrivant l’établis-
sement du son et l’extinction du son sont des fonctions complémentaires (voir
figure 3.16).
Compte tenu que l’on a ∆E(0) = Emax, la dernière équation différentielle nous
donne par intégration :
E(t ) = Emax (1 − e −t /τ )
(On peut remarquer l’analogie avec la charge et la décharge d’un condensateur.)
Si nous traçons la courbe du logarithme de E(t), nous n’obtiendrons pas une droite
comme dans le cas de l’extinction du son, mais une courbe avec un front de
montée très raide dans les premières millisecondes (voir figure 3.16).

F Libre parcours moyen et nombre moyen de réflexions par seconde


L’aspect statistique de ce chapitre va apparaître plus visible dans ce paragraphe.
Supposons une source omnidirectionnelle émettant dans une salle, l’hypothèse
de départ est toujours valable : on a une distribution uniforme de l’énergie dans la
pièce. On peut assimiler cette source à un objet qui émettrait en même temps et
dans toutes les directions une infinité d’éléments sonores identiques, transpor-
tant la même énergie. Appelons ces éléments « des particules sonores » ou
« phonons ». Ces particules n’auront aucune interaction.
Chaque particule sonore va se propager dans la salle selon le trajet d’un rayon
sonore.
À chaque « rebond », la particule sonore (qui rebondit toujours en suivant le
trajet du rayon sonore), va perdre une partie de son énergie qui va être absorbée
© Dunod – Toute reproduction non autorisée est un délit.

par la paroi sur laquelle a lieu le rebond. Dans cet esprit, le coefficient d’absorp-
tion α peut être assimilé à une « probabilité d’absorption ».
Si nous observons une de ces particules sonores pendant un temps assez long t,
cette particule parcourra un trajet égal à ct. Si, pendant ce temps, elle subit N
réflexions, le trajet moyen l entre deux réflexions successives sera égal à ct/N ou à
c/n si n est le nombre moyen de réflexions par seconde. l et n sont les nombres
moyens pour une particule.
Bien sûr, il semble normal de dire que le trajet moyen d’une particule est différent
de celui d’une autre. Mais là encore intervient l’hypothèse fondamentale d’être en
118 Le livre des techniques du son

présence d’un champ sonore entièrement diffus, et nous admettrons que la


moyenne, sur un temps assez long, des trajets d’une particule entre deux réflexions
successives, est égale à la moyenne, à un instant donné, de tous les trajets de toutes
les particules entre deux réflexions successives.
L’évaluation par le calcul de ce trajet moyen conduit à la formule très simple
suivante :

4V
libre parcours moyen : lm 
S
où V est le volume de la salle, et S la surface totale des parois de celle-ci. La première
remarque à faire sur cette formule, est que le libre parcours moyen ne dépend pas
de la forme de la salle.
Nous verrons plus loin que M. J. Pujolle a introduit une nouvelle évaluation du
libre parcours moyen tenant compte des dimensions de la salle, dans les cas de
volumes géométriques élémentaires.
De l’expression du libre parcours moyen, nous pouvons facilement tirer le nombre
de réflexions par seconde, sachant que lm = c/n, ce qui donne :

cS
n
4V

F Formules de la durée de réverbération


Nous ne donnerons ici que la démonstration de la formule de Sabine.
Soit α le coefficient d’absorption moyen des parois d’une salle défini par :
i =n
αi Si
α=∑
i =1 S
où chaque αi est le coefficient d’absorption correspondant à la surface Si, avec
ΣSi = S, surface totale des parois de la salle.
À chaque réflexion, les particules sonores vont perdre, en frappant les parois, une
quantité d’énergie égale à VEα.
Comme il y a n réflexions par seconde, l’énergie perdue par seconde sera égale à :

cS EcSα
nVEα  soit   ×VEα =
4V 4
Chapitre 3 – Acoustique architecturale 119

donc l’équation différentielle de la loi d’extinction du son peut s’écrire :


EcSα dE dE cSαdt
= −   d’où   =−
4 dt E 4V
Nous voyons au passage, que la constante de temps τ qui était indéterminée est
égale à :

4V
τ=
cSα

T
et comme τ =
13, 8
13, 8 × 4V 0,161V
RT60 = = qui est la formule de Sabine.
340 × Sα Sα
La grandeur A = Sα est appelée « Aire d’Absorption Équivalente ». Ce serait la
surface équivalente s’il n’y avait que des matériaux absorbants de coefficient
α = 1. D’où le nom que l’on rencontre aussi : Surface Équivalente de « fenêtre
ouverte ».
Cette formule peut être améliorée en tenant compte de l’énergie perdue en cours
de propagation par l’absorption due à l’air. Si m est la constante d’atténuation de
0,161V
l’air nous obtenons : RT60 =
Sα + 4 mV
L’introduction de l’absorption due à l’air devient non négligeable pour les salles de
grand volume, surtout pour les hautes fréquences.
Nous avons implicitement émis l’hypothèse, au cours de cette démonstration,
que le nombre de réflexions était grand, c’est-à-dire que les parois de la salle
étaient peu absorbantes. La formule de Sabine ne sera donc exacte que pour des
αi petits (jusqu’à 0,3). Il suffit de voir, que pour α = 1, la formule de Sabine donne
© Dunod – Toute reproduction non autorisée est un délit.

un RT60 = 0,161V/S, alors qu’il devrait être nul.


Parmi les autres formules de temps de réverbération, calculées à partir d’hypo-
thèses statistiques légèrement différentes, citons :
• la formule d’Eyring :
0,161V
RT60 =
−S ln(1 − α)
Nous remarquons que pour α petit, – ln(1 – α) = αsab, et l’on retrouve la
formule de Sabine (par contre, quand α tend vers 1, RT60 tend bien vers 0) ;
120 Le livre des techniques du son

• la formule de Sette-Millington :
0,161V
RT60 =
−ΣSi ln(1 − αi )
Attention : les α utilisés dans la formule de Sabine et ceux utilisés dans les
formules de Eyring et de Sette-Millington n’ont pas la même signification :
c’est pourquoi l’on trouve souvent le terme β pour parler de coefficient α
Sabine, on a alors :
1
β = log
1 − α millington

• la formule de Pujolle :
M. Pujolle, acousticien français, a exprimé le libre parcours moyen en
fonction des dimensions de la salle, pour des géométries simples.
Dans le cas d’une salle de forme parallélépipédique, ce libre parcours
moyen, lm, est égal à :
1 13, 8lm
lm = × 
6 
(l 2
+ L2 ) + (l 2
+ H2) + ( L + H ) 
2 2
et RT60 =
−c ln(1 − α)
Si nous remplaçons lm par son expression classique (4V/S) nous retrouvons
la formule d’Eyring.
Pour conclure, on ne peut utiliser ces formules qu’avec la plus extrême précau-
tion, en ayant toujours à l’esprit l’hypothèse fondamentale d’être en présence d’un
champ sonore parfaitement diffus.

F Salles couplées
Si une salle est composée en fait de deux volumes distincts, couplés par une
ouverture ou même par une paroi « transparente » du point de vue de la transmis-
sion, on ne pourra plus appliquer les formules du temps de réverbération à
cette salle.
De tels cas de couplage se rencontrent fréquemment : salle/loge, salle/balcon,
scène/salle, etc.
Nous ne donnerons pas la théorie des salles couplées ici, mais tout se passe comme
si l’extinction d’un son émis dans l’un des deux volumes était la résultante de l’in-
teraction des caractéristiques réverbérantes des deux volumes.
À l’époque des premiers studios, on faisait varier la réverbération d’un studio en
ouvrant plus ou moins la baie qui le faisait communiquer avec une salle très
Chapitre 3 – Acoustique architecturale 121

réverbérante. D’ailleurs, l’utilisation d’une chambre de réverbération naturelle


dans laquelle le signal émis par des haut-parleurs est récupéré par un ou plusieurs
microphones, n’est qu’un cas particulier de couplage des salles ; le couplage de
deux salles peut être également électroacoustique.

F Champ direct - Champ réverbéré. Grossissement - Rayon acoustique

✧✧ Champ direct - Champ réverbéré


Supposons qu’une source S de puissance W, située assez loin des parois d’une
salle de volume V, rayonne dans celle-ci.
Pour un auditeur A placé dans cette salle, les ondes sonores lui parvenant direc-
tement, c’est-à-dire sans avoir subi de réflexions sur les parois, constitueront le
champ direct.
L’ensemble des ondes lui parvenant après avoir subi une ou plusieurs réflexions
constituera le champ réverbéré.
L’énergie directe Ed rayonnée par la source en 1 seconde est égale à :
WQ
Ed = (en J/m3)
4 πcr 2

(voir § 1.4.3) si r est la distance source-auditeur et Q le facteur de ­directivité de la


source.
4W
L’énergie du champ réverbéré peut s’exprimer par : Er  .
cR

Où R est la constante de la salle : R = (en m2).
1− α
WQ 4W
L’énergie totale Et est donc égale à Ed + Er = + ,
4 πcr 2 cR
© Dunod – Toute reproduction non autorisée est un délit.

W Q 4
soit Et =  + 
c  4 πr R 
2

En exprimant cette relation en termes de niveaux de puissance sonore et de


niveaux de pression sonore, nous obtenons (figure 3.17) :

 Q 4
LSPL = LSWL + 10 log  +  en dB
 4 πr R 
2
122 Le livre des techniques du son

avec les niveaux de référence habituels :


SPL : Sound pressure level avec le niveau de pression sonore de référence :
2 × 10–5 Pa.
SWL : Sound power level avec le niveau de puissance sonore de référence : 10–12 W.

Figure 3.17 — Champ sonore au voisinage d’une source dans une salle
réverbérante, en fonction de la distance à la source.

✧✧ Grossissement - Rayon acoustique


La contribution du champ direct devient prédominante au fur et à mesure que
l’on se rapproche de la source, de même que celle du champ réverbéré le devient
au fur et à mesure que l’on s’éloigne de la source.
Nous pouvons donc introduire le rapport, appelé grossissement :
Ed QR
G= =
Er 16πr 2
À une certaine distance ra de la source, lorsque les contributions respectives des
deux champs sont égales, le grossissement est égal à 1 ; cette distance ra est appelée
rayon acoustique de la salle :
RQ
ra =
16π
Ces deux notions se rencontrent fréquemment. Bien que représentant des réalités
bien palpables, elles n’en sont pas moins liées, elles aussi, à la même hypothèse de
départ, à savoir l’existence d’un champ sonore entièrement diffus.
Chapitre 3 – Acoustique architecturale 123

À titre d’exemple, prenons une salle de séjour courante :


• V = 4 × 6 × 2,5 = 60 m3
• S = 2 (4 + 6) × 2,5 + (2 × 4 × 6) = 50 + 48 = 98 m2
• α = 0,1
on aura RT60 = 1 s et ra = 0,47 m en prenant Q = 1.
En faisant l’approximation que votre interlocuteur soit une source omnidirec-
tionnelle, et en supposant que vous soyez assis à 1,5 m de celui-ci, cela signifiera
que l’essentiel du message parlé vous parviendra sous forme d’énergie réverbérée !

✧✧ Critères de qualité
En fait, les acousticiens se sont très rapidement aperçus que la caractéristique
principale d’une salle, le RT60 était loin de décrire les qualités acoustiques de la
salle. En effet, deux salles de concert, par exemple, peuvent avoir le même RT60
et l’une être mauvaise et l’autre bonne, aux dires des utilisateurs.
On a donc été amené à définir d’autres critères, basés sur une étude plus fine de la
structure de la réverbération. Tous ces critères peuvent être déduits de la connais-
sance de la réponse impulsionnelle de la salle (voir chapitre 5), c’est-à-dire de la
connaissance de la quantité d’énergie arrivant à chaque instant en un point de
mesure d’une salle dans laquelle on émet une impulsion. Ces méthodes de mesure
faisant largement appel à l’informatique, cela en explique le caractère très récent.
Parmi les plus importants, citons :
EDT (Early decay time) : durée de la réverbération sur les 10 premiers décibels de
décroissance. Il apparaît en effet que l’auditeur est très sensible aux premiers dB
de décroissance. D’ailleurs très souvent, la pente de la courbe de réverbération
pendant les premiers dB de décroissance, est différente de celle du reste de la
courbe (alors qu’elle devrait être constante, d’après la théorie) ; de plus, on n’at-
teint pas toujours les 60 dB de dynamique, et la fin de la décroissance est souvent
© Dunod – Toute reproduction non autorisée est un délit.

noyée dans le bruit de fonds ou couverte par la suite du message musical.


Deutlichkeit ou Clarté (D80) : c’est le rapport de l’énergie contenue dans les 80
premières millisecondes à l’énergie contenue au-delà des 80 premières millise-
condes.
Indice de clarté, temps de montée ainsi que coefficients de clarté binaurale, de
temps central, de corrélation binaurale, etc. (voir § 3.2.3) : tous ces coefficients
décrits en seconde partie du § 3.2 montrent l’importance accordée à l’énergie
124 Le livre des techniques du son

contenue dans les premières millisecondes, c’est-à-dire l’importance accordée


aux premières réflexions.
Dans une salle, l’énergie apportée par les premières réflexions entre 0 et 50 ms, est
perçue comme faisant partie du champ direct et non du champ réverbéré (voir
§ 4.2.1).

3.1.6 Somme d’un son direct et de sa réflexion


F Filtrage en peigne
Réalisons l’expérience suivante :
Émettons un signal sinusoïdal de 100 Hz à l’aide d’un haut-parleur A, et émettons
le même signal à l’aide d’un haut-parleur B, de telle sorte que la pression acous-
tique produite par chaque haut-parleur soit identique à la surface de la membrane
d’un microphone.
Si le signal émis par B est en opposition de phase (180°) par rapport au signal émis
par A, le microphone délivrera une tension nulle. Par contre, si les deux signaux
sont en phase, le microphone délivrera une tension supérieure de 6 dB à la tension
qu’il délivrerait en présence d’un seul des deux signaux.
Par somme, il faut donc entendre « somme vectorielle » et le résultat est identique
si les signaux émis par les haut-parleurs A et B sont complexes.
En partant des deux signaux en phase, retardons de 0,1 ms le signal B avec l’aide
d’un retard électronique (delay) (figure 3.18), et regardons la réponse en sortie du
microphone : à certaines fréquences, des pics de 6 dB en raison d’interférences
constructives des deux signaux, et entre ces pics, des creux de profondeur
­théoriquement infinie, en raison d’interférences destructives (en pratique de
– 20 à – 30 dB) ; les pics se situent vers 2 kHz, 10 et 18 kHz, et les creux à 5 et
15 kHz.
Si nous portons maintenant le retard à 0,5 ms, creux et pics se rapprochent, les
pics apparaissent à 2 kHz et à tous ses multiples, et les creux à 1 kHz et tous ses
multiples. Si nous portons le retard à 1 ms, le phénomène se multiplie et nous
montre clairement pourquoi on le nomme « filtrage en peigne ».
En fait, si ∆t est le retard en millisecondes, la fréquence du premier creux sera
T 1
donnée par ∆t = d’où f = et l’espacement entre les pics ou entre les
creux par 2 2∆ t

1
∆f =
∆t
Chapitre 3 – Acoustique architecturale 125

Figure 3.18 — Filtrage en peigne résultant de la somme d’un signal


acoustique et de son double retardé : a) de 0,1 ms en échelle logarithmique;
b) de 0,5 ms en échelle logarithmique ; c) de 1 ms en échelle linéaire.

Ce phénomène est exactement celui qui arrive, aux amplitudes près, lorsqu’un
son direct et le même son réfléchi (donc parcourant un trajet plus long)
parviennent aux oreilles d’un auditeur, séparés par un temps très court (quelques
millisecondes). C’est ce qui se passe lorsque des surfaces réfléchissantes se
trouvent à proximité d’un orchestre, ou bien des enceintes acoustiques dans le cas
d’une cabine de mixage.
La somme d’un signal et des réflexions proches de ce signal donne une réponse
en fréquence analogue à celle que donnerait le filtrage de ce signal par un filtre
© Dunod – Toute reproduction non autorisée est un délit.

en peigne.
Le signal d’origine est donc ainsi fortement coloré.
Quel effet cette coloration amène-t-elle sur le plan subjectif ?
Dans le cas de lieux d’écoute tels que salles de concert, elles ont plutôt tendance à
enrichir le signal, à le « grossir », ce qui est un effet recherché. Par analogie, c’est
un peu ce que fait l’ingénieur du son lorsqu’au mixage, il mélange au son direct le
même son avec un retard de quelques millisecondes, qu’il peut d’ailleurs spatia-
liser, il cherche ainsi à « élargir » le son, à lui faire « prendre plus de place », etc.
126 Le livre des techniques du son

Dans le cas de cabine de mixage ayant toute la face avant et une partie du plafond
réfléchissant, cela va au contraire à l’encontre du but recherché, qui est la neutra-
lité de l’écoute.

F Influence des amplitudes


Lorsque les deux signaux issus des haut-parleurs A et B n’ont pas la même ampli-
tude, les pics seront inférieurs aux 6 dB de la théorie et les creux non infinis.
L’abaque de la figure 3.19 donne la hauteur des pics et la profondeur des creux en
fonction du rapport de l’amplitude du signal réfléchi à celle du signal direct (en
acoustique, du fait de l’absorption des parois, l’amplitude du signal réfléchi est
inférieure à celle du signal direct).

Figure 3.19 — Amplitude des pics et des creux du filtrage en peigne,


en fonction du rapport des amplitudes des deux signaux.

3.1.7 Absorbants et diffuseurs


F Les absorbants

✧✧ Propriétés générales des absorbants


Le principe acoustique des absorbants est assez simple à exposer. Par contre, et surtout
pour les résonateurs, leur mise en œuvre dépend beaucoup de l’expérimentation.
Chapitre 3 – Acoustique architecturale 127

Qu’est-ce qu’un absorbant ? N’importe quoi ! En effet, la réflexion totale (α = 0)


n’existe pas dans la réalité et la plus réfléchissante des surfaces réfléchissantes
absorbe toujours un peu d’énergie lors d’une réflexion, ne serait-ce que par la
viscosité de l’air. α ne peut être inférieur, pour une fréquence donnée f, à la valeur
minimale définie par α min = 5, 7 × 10 −3 f .

Le premier absorbant est l’air, dont l’absorption, comme nous l’avons vu au


­§ 3.1.5, est loin d’être négligeable, surtout dans les grandes salles et pour les
fréquences élevées ; elle varie sensiblement en fonction du taux d­ ’hygrométrie.
a) Absorption et incidence
Le coefficient d’absorption α d’un matériau dépend de l’angle d’incidence de
l’onde incidente.
Nous avons vu (§ 3.1.2) que α pouvait être exprimé en fonction de l’angle d’inci-
dence et de l’impédance acoustique du matériau :

2
Z cos θ − ρc
α(θ) = 1 −
Z cos θ + ρc

Cette formule fait apparaître que pour θ = 90°, α (90°) serait nul ; en fait,
il  y  a  toujours une absorption, quel que soit l’angle d’incidence. Pour les
­matériaux  poreux, la figure 3.20 en donne la forme générale ; en outre la
valeur  de  α  pour θ = 90°, est sensiblement égale à la moitié de celle pour
α = 0°.

b) Mesure du coefficient d’absorption


Il peut tout d’abord être calculé, lorsque l’on connaît toutes les caractéristiques
physiques du matériau.
© Dunod – Toute reproduction non autorisée est un délit.

Il peut également être déduit de l’impédance acoustique, que l’on peut mesurer à
l’aide d’un tube de Kundt.
Il peut être mesuré en chambre sourde, en envoyant une impulsion sur
un  ­échantillon de surface, et en mesurant l’amplitude de l’impulsion
réfléchie.  Enfin, il peut être mesuré en chambre réverbérante, en le dédui-
sant  de la m­ odification  du temps de réverbération de celle-ci. Dans ce cas,
la  valeur est  obtenue sous ­incidence diffuse, et dépend de la formule de
durée  de  ­réverbération utilisée pour  le calcul. Cette méthode est la plus
employée.
128 Le livre des techniques du son

c) Influence de la fixation sur la paroi


Le coefficient d’absorption α d’un matériau est modifié :
• par la nature de la fixation sur la paroi ;
• par la nature de la cloison elle-même ;
• par la distance qui le sépare de la cloison.
Nous pouvons classer les absorbants en deux grands groupes :
• les matériaux poreux : laine de verre, ouate, moquette, etc. ;
• les résonateurs, eux-mêmes divisés en deux groupes : résonateurs à
membrane tendue et résonateurs du type Helmholtz (voir plus loin « Les
résonateurs »).

✧✧ Les absorbants par porosité


Un matériau poreux est un matériau dont la matière contient de nombreux
pores, plus ou moins ouverts vers l’extérieur et reliés entre eux par des canaux
très fins.
Lorsqu’une onde acoustique rencontre un tel matériau, une partie de l’énergie
acoustique est transformée en chaleur par les effets de viscosité et de résistance
frictionnelle liés à la présence des pores et des canaux.
Cette absorption de l’énergie acoustique est liée à l’impédance acoustique du
matériau, dont dépend l’énergie acoustique réfléchie à la surface, et à sa viscosité
en ce qui concerne la partie de l’énergie acoustique transformée en chaleur.
Ces deux facteurs sont contradictoires dans la mesure où, pour que l’énergie
acoustique réfléchie soit aussi faible que possible, il faut qu’il y ait adaptation de
l’impédance acoustique du matériau à celle de l’air, c’est-à-dire que le matériau
contienne beaucoup d’air, ce qui implique que sa viscosité interne soit faible et
donc que la part d’énergie transformée en chaleur soit petite.
Tous les matériaux poreux possèdent des caractéristiques communes (figure 3.20).
• Absorption en fonction de la fréquence : pour un matériau poreux donné,
à épaisseur constante, le coefficient d’absorption croît avec la fréquence.
• Absorption en fonction de l’épaisseur : pour un matériau donné, à
fréquence constante, le coefficient d’absorption croît avec l’épaisseur, et
d’autant plus que la fréquence est basse.
• Influence de la distance à la paroi (figure 3.21).
Chapitre 3 – Acoustique architecturale 129

Figure 3.20 — Coefficient d’absorption d’un matériau poreux


en fonction de son épaisseur.

Figure 3.21 — Coefficient d’absorption de trois matériaux poreux


différents situés à une distance d d’une paroi rigide et réfléchissante.
© Dunod – Toute reproduction non autorisée est un délit.

Lorsqu’un matériau poreux est placé à une certaine distance de la paroi, l’absorp-
tion de celui-ci va être maximale pour les ondes dont les ventres de vitesse
 λ
­coïncident avec la position du matériau  d = (2k + 1)  , l’énergie dissipée par
 4
viscosité étant proportionnelle à la vitesse acoustique.
Donc, si d est la distance séparant le matériau poreux de la paroi, les ondes de
longueur d’onde λn égales à 4 d/n où n est impair seront très absorbées ; à l­ ’inverse,
130 Le livre des techniques du son

les ondes de longueur d’onde égale à 4 d/n où n est pair ne seront que peu absor-
bées. Cette absorption est donc très sélective et il faudrait disposer plusieurs
matériaux poreux à différentes distances pour obtenir une absorption plus
étendue.

✧✧ Les résonateurs
a) Les résonateurs à membranes
Ce sont des panneaux perforés ou non, en général relativement légers, montés sur
un cadre périphérique fixé sur une paroi. Il est donc ainsi créé un volume hermé-
tique entre le panneau et la paroi, volume qui est en général amorti par la fibre
minérale. Sous l’effet d’une onde acoustique incidente, le panneau vibre, du fait de
l’effet de ressort de l’air contenu dans le volume, et l’énergie acoustique incidente
se trouve ainsi transformée en partie en énergie cinétique.
L’absorption est donc maximale à la fréquence de résonance du système
(figure 3.22) qui, dans la pratique, est donnée avec une bonne approximation par
la formule :

600
f
ms d

où ms est la masse surfacique du panneau en kg/m2 et d la distance du panneau à


la paroi en cm (le calcul de cette fréquence en utilisant l’analogie acoustique/
mécanique est un bon exemple d’application).

Figure 3.22 — Courbe type du coefficient d’absorption d’un résonateur


à membrane en fonction de la fréquence.
Chapitre 3 – Acoustique architecturale 131

Dans le cas où le panneau est perforé, ms peut être remplacé par la masse équiva-
lente m′ donnée par :
ρo b
m′ =
σ
où b est l’épaisseur du panneau et σ le pourcentage de perforation égal à S1/S2 avec
S1 surface d’une perforation et S2 la surface de panneau par perforation.
Cette fréquence de résonance est en général assez basse, ce qui fait de ces résona-
teurs des outils idéaux pour absorber les basses fréquences.
L’amortissement de ces résonateurs, qui joue un rôle très important dans la forme
de la courbe d’absorption, est fonction des frottements dans le matériau du panneau,
de la dissipation d’énergie dans le matériau poreux disposé dans le vide d’air et dans
le cas des panneaux perforés, du frottement de l’air dans le col des perforations.
Le coefficient α de ces résonateurs peut être calculé à partir de la théorie, mais
donne une expression très compliquée ; dans la pratique, on utilise les valeurs
mesurées en laboratoire.
b) Résonateur du type Helmholtz
Le résonateur de Helmholtz est composé d’une cavité à paroi rigide qui commu-
nique avec l’air par une ouverture possédant un col (figure 3.23).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.23 — Résonateur de Helmholtz.

L’air enfermé dans la cavité agit comme un ressort pour les ondes dont les
longueurs d’onde sont grandes devant les dimensions de la cavité, et l’air contenu
dans le col comme une masse ; on se trouve donc en présence d’un dispositif
masse-ressort dont on peut calculer la fréquence de résonance :

c S
f= ×
2π lV
132 Le livre des techniques du son

où S est la surface de la section du col, l sa longueur et V le volume de la cavité.


Il est également possible de jouer sur l’amortissement de ce type de résonateur en
introduisant un matériau poreux sur les bords du col ou dans la cavité.
On peut donner diverses formes à ces résonateurs, et les grouper (résonateurs à
fentes, etc.) ou les coupler entre eux afin d’obtenir une absorption élevée dans une
large bande de fréquence.
Citons enfin les bass-trap, très utilisés dans le traitement acoustique des studios
et cabines de prise de son, qui sont de grands volumes (1 à 3 m3) communiquant
par une ouverture avec le volume du studio, et dans lesquels on fait pendre des
panneaux mobiles revêtus d’absorbant.
Ce type d’absorbant est surtout utilisé pour les très basses fréquences, et leur
fonctionnement tient à la fois de la présence d’une cavité résonnante et d’un
énorme matériau poreux dont on essaie d’adapter l’impédance acoustique à celle
de l’air, afin que l’énergie réfléchie au niveau de l’ouverture soit aussi faible que
possible.

✧✧ Utilité des absorbants


Leur destination est double :
• en acoustique industrielle, amortir des bruits d’équipements dans des
salles ;
• en acoustique des salles, obtenir la durée de réverbération désiré, ou éviter
certains défauts comme les échos ou la focalisation, ce qui a naturellement
une incidence sur la durée de réverbération ; c’est pourquoi il est toujours
préférable d’agir dans ces cas sur la géométrie des parois.
L’implantation des absorbants joue un rôle très important, ainsi que leur morcel-
lement : 10 diaphragmes de 1 m2 chaque ne donnent pas le même résultat qu’un
seul diaphragme de 10 m2.
Les résultats d’expériences menées sur ce sujet peuvent se résumer ainsi :
• lorsqu’on pose un certain nombre de mètres carrés d’un matériau absor-
bant dans une salle, le coefficient de Sabine est d’autant plus grand que ce
nombre de mètres carrés est plus petit ;
• lorsqu’on pose une surface S d’un matériau absorbant dans une salle, le
coefficient de Sabine de celui-ci est d’autant plus élevé que S est morcelée
en un plus grand nombre d’éléments (dans ce cas, la diffusion est en outre
améliorée) ;
Chapitre 3 – Acoustique architecturale 133

• la durée de réverbération d’une salle varie avec la position du microphone


par rapport aux absorbants : un absorbant est plus efficace dans son voisi-
nage qu’en un emplacement éloigné.

F Les diffuseurs
Nous avons déjà vu au § 3.1.1 le phénomène de la diffusion.
Tout objet visible à l’œil nu est un diffuseur en puissance pour une certaine gamme
d’ondes, dont les longueurs d’onde seront de l’ordre de grandeur des dimensions
de l’objet.
Comme nous l’avons vu au paragraphe précédent, des absorbants peuvent égale-
ment jouer le rôle de diffuseurs dans des gammes de fréquences différentes de
celles où ils sont efficaces en tant qu’absorbants.
La forme donnée à un diffuseur peut donc être quelconque, a priori, mais certaines
formes sont classiques. Parmi celles-ci, citons les dièdres, demi-cylindres appelés
poly-cylindres. Dans le cas de ces derniers, la diffusion agit pour des longueurs
d’onde voisines du rayon du cylindre.
Le problème de ces formes est que l’on ne maîtrise pas bien le phénomène :
combien de directions de diffusion, dans quelles directions, quelle énergie est
réémise dans chaque direction ?
Le célèbre acousticien, Manfred R. Schroeder, a exposé récemment une théorie
permettant de concevoir des diffuseurs auxquels on a donné son nom, et de
connaître toutes leurs caractéristiques : bande passante, directions ; ces diffu-
seurs ont en outre la propriété de diffuser la même quantité d’énergie dans toutes
les directions.
Sans exposer les calculs, nous allons décrire le principe de cette théorie, qui est
très belle, puisqu’elle part d’un nombre premier et aboutit à un objet.

✧✧ Diffuseur de Schroeder (figure 3.24)


© Dunod – Toute reproduction non autorisée est un délit.

Si l’on considère un nombre premier N, il est possible de construire une suite


appelée suite des résidus quadratiques de modulo N.
Cette suite est en fait la suite de tous les restes de la division de n2 par N autant de
fois que cela est possible, n prenant toutes les valeurs entières comprises
entre 0 et N.
Si une onde de longueur d’onde λ vient frapper une surface dont les accidents de
surface seront de dimensions proportionnelles aux termes de la suite, et si λ est
du même ordre de grandeur que ces dimensions, elle va être diffusée dans un
134 Le livre des techniques du son

certain nombre de directions, et dans chaque direction, la quantité d’énergie


diffusée sera constante (cela vient du fait qu’au cours du calcul, on prend la trans-
formée de Fourier discrète de la suite exponentielle dont les exposants sont les
termes de la suite décrite plus haut. La propriété fondamentale de cette suite
exponentielle est que sa transformée de Fourier discrète donne dans l’espace des
fréquences, des termes dont le module est constant).

Figure 3.24 — Coupe en plan d’un diffuseur de Schroeder (en haut).


Sur cet exemple, N = 17 et W =  0,137 λmin,
si λmin est la longueur d’onde de fmin.
L’onde incidente fait un angle de – 65° par rapport à la normale,
et les cinq ondes diffusées des angles de – 54°2,
– 22°4, 2,7°, 28°5 et 65° (m = 2).
Suite des résidus quadratiques pour N = 17 (à droite).
Diagramme de diffusion sous incidence normale,
pour fmin et 12 fmin (à gauche).
Chapitre 3 – Acoustique architecturale 135

Les paramètres du diffuseur de Schroeder auxquels le calcul aboutit sont :


• fmin la fréquence la plus basse pouvant être diffusée par le diffuseur ;
• fmax la fréquence la plus haute pouvant être diffusée par le diffuseur ;
• N le nombre premier ;
• mmax le nombre tel que pour fmin, on aura 2mmin + 1 directions de diffusion ;
• dn la profondeur du nième accident de surface (0 ≤ n < N ) ;
• W est la largeur des accidents de surface (constante).
Si l’on désigne par :
c
f max 
2W
ce qui signifie que l’onde diffusée de fréquence la plus élevée sera telle que sa
longueur d’onde sera le double de la largeur des accidents de surface.
mmax × c
N=
f min ×W
ou bien
2mmax × f max
N=
f min
Sn × C
dn = où Sn est le nième terme de la suite des résidus quadratiques.
2 N f min
On voit d’après la dernière expression, que l’onde diffusée de fréquence la plus
basse a une longueur d’onde égale environ à deux fois la plus grande profondeur
d’accident de surface.
© Dunod – Toute reproduction non autorisée est un délit.

L’angle d’incidence de l’onde incidente de fréquence f peut être quelconque, et les


angles des directions de diffusion lui sont liés par la relation :

m×c
sin α d = − sin αi
NW f

avec bien sûr sin αd ≤ 1.


Signalons enfin que l’adjonction d’une fine séparation métallique entre chaque
accident de surface améliore la diffusion, en changeant très peu sensiblement les
résultats annoncés ci-dessus.
136 Le livre des techniques du son

Ces diffuseurs ont une application toute trouvée pour diffuser les réflexions laté-
rales et celles du plafond, dans les salles de concert. Ils trouvent également une
application immédiate dans la création du champ réverbéré et diffus d’une cabine
de mixage LEDE (voir plus loin « Le concept Live-end – Dead-end »).

3.1.8 Acoustique des studios et cabines de prise de son


F Studios de prise de son
L’acoustique du studio de prise de son dépend essentiellement du type d’enregis-
trement réalisé : il existait, au début des années cinquante, trois grandes catégo-
ries de studios : les studios de prise de son musicaux, les studios pour les
dramatiques radiophoniques et les auditoriums de cinéma. Avec l’apparition de
l’enregistrement en multipistes, est apparue la notion de studio de variétés.
L’acoustique des studios est la mise en pratique de ce que nous avons décrit précé-
demment. Par contre, le traitement acoustique des cabines de prise de son et de
mixage est beaucoup plus délicat et nous en donnerons les grands principes, en
nous attardant tout particulièrement sur le plus élaboré : le système LEDE.

✧✧ Auditoriums de cinéma et studios radiophoniques


Les auditoriums de cinéma et les studios pour les dramatiques radiophoniques
ont beaucoup de points en commun, puisqu’il s’agit d’y recréer des ambiances
sonores diverses extérieures et intérieures.
Dans le cas des auditoriums cinéma, l’enregistrement de ces ambiances est
souvent fait sur le tournage et le problème ne se pose qu’en cas de post-produc-
tion. L’ambiance sonore extérieure est reconstituée dans une chambre sourde très
amortie. L’idée de base est qu’il n’y a pas de réflexions, ni de réverbération en
extérieur. En réalité, il existe toujours des objets divers tels que : arbres, maisons…
qui produisent des réflexions (il m’est arrivé d’entendre de splendides réverbéra-
tions en forêt). Dans le cas des ambiances sonores intérieures, il suffit d’utiliser
des pièces avec des acoustiques différentes. On ne recherche pas une trop grande
diffusion afin de bien percevoir les phénomènes d’éloignement et de déplacement
des comédiens.

✧✧ Cas des studios d’enregistrement de musique


Les studios de prise de son musicale étaient à l’origine de grands volumes, dans
lesquels il était utile d’avoir une diffusion importante et un temps de réverbéra-
tion adéquat.
Dans le cas des studios modernes, équipés de magnétophones multipistes, les
instrumentistes pouvaient être enregistrés séparément. La taille des studios a
Chapitre 3 – Acoustique architecturale 137

sensiblement diminué pour laisser place à des cabines pour y placer une batterie,
un chanteur… isolé ainsi des autres instrumentistes. Les problèmes liés aux lieux
de petites dimensions sont rapidement apparus (voir § 3.1.3 « Fréquences
propres ») et d’autre part le côté « vivant » du son lié à l’acoustique d’un grand
local a disparu.
Si le studio est assez grand, il est possible de concevoir des zones d’acoustiques
différentes sans qu’il soit nécessaire d’avoir des séparations physiques entre elles ;
ceci n’élimine pas le phénomène des salles couplées. Mais il n’est guère intelligent
de croire que l’on peut créer quatre zones différentes dans une salle de 20 m2 !
En fait, n’importe quel lieu, traité ou non acoustiquement, peut faire un bon
studio lorsque le son qui en sort va dans le sens esthétique choisi (Phil Spector
avait fait construire son studio autour d’un puits dont la réverbération l’avait
séduit et bien des instruments ont été enregistrés dans le grand escalier du
château d’Hérouville) ; bien sûr, il est nécessaire de disposer d’un endroit relative-
ment « passe-partout » dans les autres cas.

✧✧ Acoustique variable
Une des solutions permettant d’avoir des acoustiques naturelles différentes dans un
seul studio, est de faire ce que l’on appelle de « l’acoustique variable » ; cela consiste à
pouvoir faire varier le volume de la pièce par des cloisons de séparation coulissantes,
des plafonds pouvant monter ou descendre, ou bien à pouvoir faire varier le coeffi-
cient d’absorption des parois, par l’utilisation de rideaux montés sur rails, de
panneaux montés sur charnières et possédant une face réfléchissante et une face
absorbante ; ces systèmes sont d’utilisation simple et rapide. Des systèmes plus
compliqués existent comme disposer sur toute la surface d’une paroi des séries de
prisme ayant une face réfléchissante, une face moyennement absorbante et une face
absorbante, le tout pouvant être commandé électriquement et même géré par ordi-
nateur, ce qui permet de retrouver instantanément une acoustique donnée.

F Cabines de prise de son et de mixage


© Dunod – Toute reproduction non autorisée est un délit.

Le sujet a longtemps été la bouteille à encre.


Voici sur ce thème quelques variations d’acousticiens célèbres :
• « Il faut absorber le plus possible en distribuant les absorbants régulière-
ment sur toutes les surfaces » ;
• « Le volume avant de la cabine doit être constitué de panneaux réfléchis-
sants, et le volume arrière doit absorber le plus possible » ;
• « Le volume avant de la cabine doit être absorbant, et le volume arrière
réfléchissant et diffusant. »
138 Le livre des techniques du son

Si le traitement acoustique d’une cabine de mixage se résumait à construire une


chambre sourde, il y a longtemps que le problème serait résolu. Mais voilà,
l’homme supporte très mal d’être enfermé en chambre sourde, et l’oreille humaine
a besoin de champ réverbéré. Tout le problème est donc de maîtriser ce champ
réverbéré afin qu’il ne perturbe pas la réponse au point d’écoute.

✧✧ Les premiers essais


L’obtention d’une durée de réverbération optimale a longtemps été le seul but du
traitement acoustique d’une cabine de mixage.
Le traitement consistait alors à disposer des absorbants adéquats en nombre
suffisant pour obtenir un RT60 égal à 0,5 s environ.
Certains d’entre vous se souviennent certainement du « look » rétro de ces
cabines, avec la tôle perforée orange (résonateur à trous), les tissus gris et la
console style « Tintin objectif Lune ».
Avec l’apparition de l’enregistrement multipiste, et d’une variété rock, le problème
du traitement acoustique de la cabine s’est avéré être crucial, en raison justement
du travail très précis du mixage, pour lequel une écoute fidèle est primordiale,
alors que dans le cas d’une prise de son directe stéréophonique, une pièce sans
trop de défauts, équipée d’une bonne paire d’enceintes faisait l’affaire, le résultant
reposant alors essentiellement sur l’ingénieur et sa grande expérience de la prise
de son.
En plus de l’obtention d’un temps de réverbération optimal (0,3 s), plus court
en raison des puissances d’écoute plus grandes de la musique rock, le premier
réflexe des acousticiens de l’époque (Rettinger en particulier) a été de s’intéresser
aux premières réflexions.
Ils se basaient, et là réside sans doute le malentendu, sur leur expérience
des  grandes salles, pour lesquelles nous avons montré que les premières
réflexions – les plus rapprochées dans le temps – donnaient du corps au son
et  les  étoffaient ; de même la paroi arrière des grandes salles est souvent
­absorbante.
Mais le but d’une cabine de mixage n’est pas d’enjoliver les sons, mais de les
­restituer fidèlement.
Ils disposèrent donc, dans le but de favoriser ces premières réflexions à court
retard, des surfaces réfléchissantes autour des enceintes, ce qui conduisit finale-
ment à baffler les enceintes, ce bafflage évitant en outre les problèmes dus aux
réflexions en arrière de celles-ci, dans les angles de la pièce, et améliorant les
transitoires aux basses fréquences.
Chapitre 3 – Acoustique architecturale 139

Le plafond devint également une surface réfléchissante et l’ensemble de ces


surfaces réfléchissantes qui pouvaient d’ailleurs être convexes, était orienté de
façon à « arroser » l’emplacement de l’ingénieur du son et des auditeurs situés en
arrière de celui-ci. Les autres parois, et en particulier le mur arrière, étaient forte-
ment absorbantes, afin d’éviter les réflexions de retard plus long.
D’autres acousticiens s’engagèrent sur cette voie, et l’un des plus connu, Tom
Hidley, introduisit l’utilisation systématique des bass-trap, dont les ouvertures
étaient placées sous la baie vitrée et sur les côtés de la face avant, en plafond
au-dessus de l’ingénieur du son, et en partie basse du mur arrière.
Il faut dire que ces cabines étaient avant, légèrement différentes de celles de
Rettinger, dans la mesure où elles étaient également symétriques dans le sens trans-
versal ; en effet, à l’époque (1975), la quadriphonie était dans l’air, et l’emplacement
des enceintes arrières était prévu, ce qui fait que l’on trouvait également dans la
partie arrière de la cabine, des surfaces réfléchissantes. Sur les côtés, étaient encas-
trés des blocs de pierres jointoyées entre elles (la diffusion apportée par celles-ci
était très symbolique puisque les accidents de surface ainsi créés étaient de l’ordre
de  4 cm). Les surfaces réfléchissantes étaient constituées d’un sandwich assez
lourd recouvert de planches de bois massif, les ouvertures des bass-trap générale-
ment fermées par un tissu beige ou marron ou bien encore par un rideau lourd et
le sol recevait une moquette ; le tout ayant un peu l’allure du chalet savoyard.

✧✧ Le concept Live-end – Dead-end


L’acousticien Don Davis, conçut en 1978 le critère LEDE (Live-end – Dead-end, ce
qui signifie une extrémité vivante, une extrémité amortie), à partir d’observations
faites sur l’interaction des premières réflexions avec le champ direct, dans des
cabines modernes.
La méthode de mesure utilisée était celle du TDS (Time delay spectometry), que
nous ne décrirons pas ici, mais dont nous dirons qu’elle permet d’étudier réflexion
par réflexion le développement du champ acoustique de la pièce, et de connaître
© Dunod – Toute reproduction non autorisée est un délit.

le niveau du champ direct et celui du champ réverbéré.


L’observation de base fut la mise en évidence d’énormes accidents provoqués
dans la courbe de réponse par l’effet de filtrage en peigne, dû aux premières
réflexions, de retard très court et d’amplitude voisine de celle du champ direct,
comme nous l’avons longuement montré au § 3.1.6. Plus le retard son direct/son
réfléchi est court, plus l’accident est large et son amplitude voisine en pratique de
20 à 30 dB.
Il est évident que ces accidents sont très détectables par l’oreille ; par contre
ceux provoqués par des réflexions plus lointaines (10 à 30 ms) et de plus faible
140 Le livre des techniques du son

a­ mplitude le sont beaucoup moins puisque leur largeur et leur amplitude sont
beaucoup plus petites.
L’idée de base du LEDE est donc la suivante : puisque l’oreille humaine a
besoin  d’un champ réverbéré et que les premières réflexions importantes de
celui-ci de courts retards doivent être évitées, il faut créer un champ réverbéré
dont les pre-mières réflexions significatives soient rejetées à partir de 20 ms
du son direct.
D’un point de vue de la géométrie cela signifie que la cabine est divisée
en  une  moitié avant aussi anéchoïque que possible et une moitié arrière
­réverbérante.
Comme les réflexions ne doivent pas être de grande amplitude, elles doivent
être  produites par des surfaces extrêmement diffusantes ; les diffuseurs de
Schroeder trouvent donc ici une application évidente. Le champ réverbéré
est ainsi constitué d’une multitude de petites réflexions de retards différents de
20 ms minimum.
La réponse de la cabine à la place de l’ingénieur du son est donc le résultat d’une
multitude de filtrages en peigne donnant une multitude d’accidents de très petite
amplitude et de très petite largeur ; de telle sorte que l’oreille intègre ces « acci-
dents » et « lisse » la courbe de réponse.
Le fait de rejeter les premières réflexions significatives au bout d’un temps
égal à 20 ms, implique qu’il existe un « fossé » temporel de 20 ms entre l’arrivée
du son direct et ces premières réflexions ; d’un point de vue psychoacoustique,
cela revient à dire que l’ingénieur, à la position d’écoute, a l’impression de se
trouver dans une salle plus grande ; de plus, si le studio n’est pas trop grand, ce qui
est souvent le cas des studios de variétés et donc si le retard entre le son direct
dans le studio et les premières réflexions dans le studio est compris entre 0
et  20 ms, l’ingénieur du son en cabine entendra les réflexions du studio,
puisqu’elles ne seront pas masquées par celles de la cabine, qui n’arrivent qu’après
20 ms. Ainsi, l’acoustique de la cabine ne masque pas l’acoustique du studio
(figure 3.25).
Ayant conçu une dizaine de cabines de ce type, la première impression que m’ont
confiée les utilisateurs, a toujours été l’absence de fatigue auditive. Je pense que
cela tient au fait que le travail dans ce type de cabine élimine une gymnastique
cérébrale inconsciente qui, dans l’autre type de cabine consiste à dissocier
constamment l’information utile venant des enceintes, de celle parasite, apportée
par les puissantes premières réflexions de court retard, arrivant pratiquement en
même temps que le son direct.
Chapitre 3 – Acoustique architecturale 141

Figure 3.25 — Échogramme enregistré à l’emplacement


de l’ingénieur du son dans une cabine LEDE.

Don Davis a donné une série de cinq conditions pour qu’une cabine puisse rece-
voir l’appellation LEDE :
• l’existence d’une coque extérieure asymétrique aussi grande, lourde et
rigide que possible (aux très basses fréquences, c’est cette coque qui sera
« vue » par les ondes) ;
• la coque intérieure doit être symétrique, la fréquence en dessous de
laquelle la coque extérieure devenant prépondérante étant donnée par la
3c
relation f  , où l est la plus petite dimension de la pièce ;
l
• l’existence d’un chemin anéchoïque entre les enceintes et l’ingénieur du
son, donnant un ITD (Initial time delay : temps de délai initial) cabine
supérieur de 2 à 5 ms, à l’ITD studio ;
• l’existence d’un champ hautement diffus, créé par les parois de la moitié
arrière de la cabine, les premières réflexions significatives se situant dans
© Dunod – Toute reproduction non autorisée est un délit.

le domaine temporel de l’effet Haas (voir § 4.2.1) ;


• la non-existence de « pré-échos », qui pourraient être produits par une
mauvaise désolidarisation entre les enceintes et les parois (la célérité
du  son étant supérieure dans la matière que dans l’air, le signal des
enceintes pourrait être rayonné par des parois proches de l’ingénieur –
plafond par exemple – et donc entendu par lui avant que le son direct
­n’arrive).
142 Le livre des techniques du son

La meilleure preuve que l’on peut donner de la supériorité du traitement LEDE,


n’est-elle pas celle-ci :
Depuis plusieurs années, la très grande majorité des ingénieurs du son, travail-
lant dans l’autre type de cabine, mixent à l’aide de petites écoutes posées sur
la console.
Ce faisant, ils recréent les conditions du LEDE : ils rejettent dans le temps les
premières réflexions bien après l’arrivée du son direct.

3.2 Acoustique des lieux d’écoute

3.2.1 Définitions, généralités


Nous regroupons sous le vocable général « lieu d’écoute », tout espace limité
dans  lequel coexistent des sources sonores et des auditeurs. Cette notion de
« lieu  d’écoute » ne comprend pas les studios spécialement conçus pour
­l’enregistrement. On peut bien entendu, enregistrer dans les lieux d’écoute
avec  ou  sans la présence du public. L’espace destiné à recevoir les auditeurs
influence le  choix des formes et la répartition des matériaux dans les locaux
respectifs.

F Différents locaux appelés « lieux d’écoute »


Il s’agira des salles de concert, auditoriums, théâtres, salles de conférences, palais
des congrès, pavillons de musique, églises, amphithéâtres, gymnases… cette liste
n’est pas exhaustive.
Usages, dimensions, formes et esthétiques sont multiples et très différents.
Néanmoins, ces paramètres apparemment indépendants sont en réalité très
liés entre eux. Acoustiquement parlant, c’est l’usage que l’on en fait qui condi-
tionne tous les paramètres. Le terme « polyvalence » est synonyme en acous-
tique de compromis impossible. (On ne peut en effet concevoir sans de sérieuses
difficultés techniques un véhicule à la fois rapide et léger qui transporte
20 tonnes de marchandises.) La bonne utilisation d’un « lieu d’écoute » dépend
donc essentiellement du type de modulation, donc des événements sonores :
parole « fonctionnelle » (conférence, cours, information, sermon…) ou parole
« esthétique » (théâtre, poésie, déclamation…) musique instrumentale, vocale,
en petite ou grande formation, par bande diffusée, ou encore instruments
amplifiés par un système improprement appelé « sonorisation ». Le but
recherché est la satisfaction maximale – sur le plan de l’acoustique – des audi-
teurs, des exécutants et des preneurs de son potentiels. En effet, les propriétés
Chapitre 3 – Acoustique architecturale 143

acoustiques d’un local agissent sur la qualité de l’exécution et cette dernière est
ressentie par l’auditoire qui réagit face aux interprètes. C’est en quelque sorte un
asservissement en boucle fermée. On entend par qualités acoustiques d’une
salle, la recherche de la compréhension suffisante (ou  ­intelligibilité), de la
netteté et de la non-déformation du message initial (fidélité), du confort
d’écoute, et d’une esthétique appropriée.
Les caractéristiques acoustiques du local influent sur la qualité du message sonore
et peuvent l’améliorer ou la dégrader suivant les cas. Il faudra donc rechercher
l’adaptation optimale entre la nature de l’utilisation et le genre du local ; ceci peut
se faire dans un sens comme dans l’autre : salle choisie pour un répertoire ou un
instrument, ou bien l’inverse.

F Adaptation optimale du lieu


Rétrospectivement, on vérifie bien que cette adaptation s’est faite depuis toujours
empiriquement ; c’est ainsi que nous avons assisté :
• à la création et au développement de lieux destinés tout spécialement à
certaines représentations, instruments ou formations. Ainsi, les théâtres
antiques ont fait l’objet de règles (acoustique géométrique de Pythagore,
ve siècle avant J.-C.) qui se sont avérées fort judicieuses depuis, et de
« corrections acoustiques » avant la lettre (amphores accordées, urnes,
sortes de résonateurs amortis par de la cendre). Plus tard, les salles
« à ­l’italienne » ont été créées pour les besoins de l’opéra et les grandes
salles de concert pour les importantes formations orchestrales du
xixe siècle ;
• à la création ou l’adaptation des sources sonores en adéquation avec le lieu
où elles se produisaient. Par exemple, l’orgue qui accompagne depuis le
xive siècle la liturgie dans les églises et les cathédrales, ou encore les
ensembles vocaux polyphoniques, les instruments à vent, en particulier
les cuivres (par exemple, le répertoire pour fanfares de Gabrielli destiné à
© Dunod – Toute reproduction non autorisée est un délit.

la Basilique St Marc de Venise).


Ces sources musicales – de grande dynamique – émettent des sons pouvant être
tenus et liés. Elles ont été choisies plutôt que les instruments à sons détachés et
d’intensité plus faible (luth, clavecin, etc.).
Plus tard, les formations verront leur effectif varier avec le volume de la salle
et  réciproquement. On fera la différence entre la « musique de chambre »
destinée à un auditoire réduit et les grandes œuvres orchestrales destinées à de
grands volumes. De même, le piano, né instrument de salon au début du
xixe siècle, deviendra progressivement instrument de concert, sa technologie se
144 Le livre des techniques du son

­développant pour s’adapter – entre autres – aux volumes contenant un auditoire


plus ­important.
De façon générale, la recherche de l’adaptation optimale d’un lieu nécessitera la
définition :
• d’une durée de réverbération optimale,
• de limites géométriques à ne pas dépasser,
• d’une forme adéquate ainsi qu’un certain nombre d’autres critères de
qualité que nous allons définir.

F Durée de réverbération optimale


La durée de réverbération optimale est celle qui, pour un volume de local donné,
n’altère pas la modulation et le cas échéant la complète utilement, et parfois esthé-
tiquement. Suivant les cas, cette durée peut être courte (modulations contenant
des éléments brefs, détachés : parole, clavecin, guitare…) ou très longue (notes
tenues nécessitant une synthèse ou un « legato » : orgue, orchestre symphonique,
chant, chorale…). Il existe des abaques qui indiquent la durée de réverbération
optimale en fonction du volume de la salle et de son utilisation. Ces abaques ont
été déterminés empiriquement à partir de données subjectives traitées statisti-
quement (figure 3.26).

Figure 3.26 — Durée de réverbération optimale en fonction du volume.


Chapitre 3 – Acoustique architecturale 145

Remarquons toutefois que les valeurs utilisées pratiquement ont subi l’influence
de modes : certaines périodes ont eu des préférences pour des durées longues
(salles sonores), d’autres pour des durées plus courtes (salles analytiques) ; ceci
est également vrai en ce qui concerne l’esthétique de la prise de son, le choix des
tempi, etc.
Un RT60 trop long crée un flou, un manque de précision, de netteté. Les modula-
tions sont comme diluées. Il est parfois possible d’effectuer un enregistrement
correct mais il est plus difficile, voire impossible, d’utiliser une telle salle pour une
audition directe ; on dit alors que la salle est trop « claire », « brillante », « longue »,
ou encore qu’elle « sonne » trop. Au contraire, un RT60 trop court crée une impres-
sion de sécheresse, de matité, de dureté. On se rapproche alors des conditions de
plein air (champ libre) où seule l’onde directe est prise en compte. Là encore, une
prise de son peut être réalisée – à laquelle on pourra toujours ajouter de la réver-
bération artificielle – mais l’audition directe sera fortement altérée. Le « rende-
ment » de la salle est faible, et donne une impression désagréable, préjudiciable à
une bonne exécution.

✧✧ Distance critique
La durée de réverbération va conditionner la « distance critique ». On appelle
« distance critique » (appelée encore « rayon de réverbération » dans certains
pays) la distance (entre la source et l’auditeur, ou le micro) pour laquelle l’énergie
réverbérée est égale à l’énergie directe (figure 3.27).
Plus le RT60 est élevé, plus la distance critique est courte et inversement. Le
dosage énergie directe-énergie réverbérée est possible jusqu’à la distance critique;
au-delà , nous sommes dans le champ réverbéré constant (asymptote). Cette
notion est très importante pour la prise de son (plans sonores).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.27 — Définition de la distance critique.


146 Le livre des techniques du son

Jusqu’à présent, nous avons évoqué uniquement la valeur globale du RT60.


Celle-ci, sans aucune autre précision, donne théoriquement la valeur du RT60 à
500 Hz, (bande de fréquence médium). Cette valeur seule est insuffisante pour
caractériser la « couleur » d’une salle. Pour avoir une idée plus précise, il faut
considérer le diagramme RT60 = f (fréquence) dans la bande la plus large possible
(de 40 à 10 000 Hz), mesurée si possible par 1/3 d’octave.
La première idée qui vient à l’esprit est de croire que le diagramme doit obligatoi-
rement être horizontal : le RT60 devant être constant avec la fréquence, à l’image
des courbes de réponse des amplificateurs, des magnétophones… Malheureuse-
ment, ce qui est vrai pour un quadripôle électrique ou électroacoustique ne l’est
plus tout à fait pour un lieu d’écoute. En effet, le principal juge reste notre oreille,
merveilleux outil dont les caractéristiques ne sont pas linéaires en fréquence
(voir chapitre 4). C’est ainsi que nous considérons comme naturel, parce que nous
y sommes habitués, une salle dont le RT60 est plus long aux fréquences graves et
plus court aux fréquences aiguës car la majorité des lieux possède cette caracté-
ristique et les différences sont d’autant plus importantes que le volume est grand
(figure 3.28). En effet, l’absorption de l’air aux fréquences aiguës est plus élevée
que pour les fréquences graves : ceci se constate d’autant plus que le volume
est grand.

Figure 3.28 — Allures générales du diagramme RT60 = f (fréquence).

Remarque : dans les cathédrales gothiques, la valeur du RT60 redescend dans le


registre grave (exemples : N.D. de Paris, Basilique de St Denis). Ceci est dû à l’ab-
sorption produite par les chapelles latérales, absidioles, niches, etc., qui consti-
tuent autant de pièges à sons et diffuseurs ; leurs dimensions sont du même ordre
de grandeur que les longueurs d’onde du registre considéré.
Un local spécialement traité pour l’écoute aura un large palier (à la valeur opti-
male) et les différences de RT seront minimisées aux extrémités. Le profil du
Chapitre 3 – Acoustique architecturale 147

diagramme (figure 3.29) donne déjà une idée assez précise de la couleur du local.
Une remontée trop importante, mais régulière, dans les basses fréquences, provo-
quera un traînage, tandis qu’une remontée sélective (sous forme de « bosse »)
entraînera un effet de ballonnement appelé son « de tonneau »… Ces défauts
seront d’autant plus marqués, que la décroissance sera importante dans le spectre
aigu, créant ainsi un déséquilibre. C’est ainsi qu’un accord sur le tutti d’un grand
orgue, ou encore d’un orchestre, variera spectralement dans le temps, les sons
graves ayant une durée de vie bien plus longue que les sons aigus. Ce « détim-
brage » est très sensible dans une cathédrale telle que Notre-Dame de Paris par
exemple, et encore très audible dans une salle de concert symphonique.
L’expérience montre qu’un local dont le diagramme RT60 = f (fréquence) est
horizontal donne une impression artificielle, dure, métallique et désagréable. De
la même façon, lorsque l’on utilise une chambre de réverbération artificielle, un
diagramme linéaire n’est utilisé que pour produire un effet spécial.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.29 — Allures réelles du diagramme RT60 = f (fréquence)


de quelques lieux vides.

F Les principaux critères

✧✧ La durée de réverbération
Une mauvaise adaptation du RT est toujours préjudiciable à la qualité de la
communication. Un orateur sera gêné par un excès de réverbération et ne
sera  pas  compris, un clavecin sera noyé dans l’acoustique d’une cathédrale.
148 Le livre des techniques du son

Au contraire, un violoniste sera gêné par un manque de réverbération (il aura


alors tendance à « tirer » sur l’archet pour compenser, et son timbre sera altéré).
De même, un chanteur forcera sa voix dans un local trop sec ; pour cette raison,
un local de répétition doit être légèrement plus mat qu’une salle de concert, afin
que les exécutants ne soient pas déroutés. Un grand orgue dans un auditorium ne
sera pas mis en valeur, et sera comme « étouffé ».
Sur scène, la réverbération augmente sensiblement le confort de la « source
sonore » (conférencier, chanteur, comédien, musicien) par le fait qu’elle constitue
d’une part une amplification (addition de l’énergie directe avec l’énergie
­réverbérée) et, d’autre part, un retour d’écoute « feed-back » qui aide à contrôler
l’émission (boucle : source → salle → oreille → cerveau → commande source).
Tout le monde a pu constater qu’il était plus plaisant de chantonner dans un
endroit réverbérant (salle de bains par exemple !). De la même façon, tous les
­débutants au piano ont tendance à abuser de la pédale qui permet de prolonger
le son.
Un chef d’orchestre dirige ses musiciens en fonction de la réverbération de la
salle. Il peut même être obligé de modifier la formation de l’orchestre ; le choix
des tempi peut aussi varier sensiblement en fonction du RT de la salle. De même,
la registration, l’articulation, le phrasé et le tempo d’un organiste varieront
­sensiblement – pour la même œuvre – avec les caractéristiques acoustiques
de l’église.
Dans le cas de la diction, le débit sera d’autant plus lent que le RT sera long. Les
grands prédicateurs (déjà Bossuet à St Denis) et les avocats le savent bien. On peut
se demander si l’acoustique très longue des cathédrales gothiques dues à leurs
vastes dimensions n’était pas recherchée dans un souci de rhétorique, d’emphase
et de solennité. Une diction lente est en effet plus sentencieuse, impressionnante
et bien en harmonie avec la majesté du lieu. Les facteurs d’orgue ont toujours tenu
compte des conditions particulières des églises et des cathédrales en harmoni-
sant leur instrument directement dans la nef de chaque lieu.

✧✧ Les premières réflexions


L’EDT (Early decay time) est la pente initiale du RT60 calculée sur les 10 premiers
dB. Les premières réflexions (early sound) sont une succession d’ondes réfléchies
qui arrivent à l’auditeur entre le son direct et ce qu’on appelle l’énergie diffuse
(figure 3.30). Ceci concerne les 300 premières millisecondes mais la durée inté-
ressante est surtout les 50 premières millisecondes. De l’EDT et des premières
réflexions dépend la plus ou moins bonne qualité acoustique de la salle, indépen-
damment des autres paramètres (RT60, diffusion, répartition de l’énergie
sonore…).
Chapitre 3 – Acoustique architecturale 149

Figure 3.30 — Claquement, ses différentes réflexions


et apparition de la réverbération.

✧✧ La diffusion
Ce terme un peu général désigne la plus ou moins grande homogénéité d’une
salle, et ce, à toutes les fréquences. Cette qualité, qui a pour avantage de donner
une grande richesse sonore à la salle, est due à la présence d’éléments réflecteurs
polydirectionnels, de dimensions variées qui multiplient le nombre de réflexions
et « brassent » ainsi le champ sonore.
L’homogénéité ainsi obtenue se traduira par des décroissances lissées, la réparti-
tion statistique de l’énergie étant plus régulière dans le temps.
C’est également pour accroître l’homogénéité que l’on panache le plus possible les
éléments absorbants et diffusants dans un local (augmentation de l’effet de bord)
(figure 3.31).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.31 — Décroissances du son dans deux salles différentes


pour un RT60 identique.
150 Le livre des techniques du son

Il faut en effet, pour être efficaces, que les creux et saillies produits par ces éléments
soient du même ordre de grandeur que les longueurs d’onde des fréquences en
jeu. Ceci conduit à des grandes dimensions aux fréquences basses (à 100 Hz, la
longueur d’onde est 3,40 m).
Il faut remarquer enfin que ces éléments diffusants sont également absorbants
(effet de piège à son, augmentation du trajet par réflexions multiples) ; on peut
comparer leur effet à celui des brise-lames utilisés dans les ports. Il conviendra
donc d’en tenir compte lors de l’étude pour obtenir le RT60 optimal.
Les éléments diffusants peuvent être mis en place tout spécialement (en coordi-
nation avec l’étude de décoration), ou se trouvent naturellement dans l’architec-
ture de la salle (piliers, moulures, statues, etc.) ou encore dans la forme propre des
murs du gros œuvre.
Enfin, les éléments diffusants ne doivent pas apporter de perturbation : échos
gênants pour les musiciens (retours), ou pour les auditeurs.
Nouvelles tendances : emploi de diffuseurs à résidu quadratique, dits diffuseurs
de Schroeder et diffuseurs RPG (Reflexion phase grating diffusors) [27], [29] ;
ces  éléments sont constitués de blocs de bois, dont les formes et dimensions
résultent de méthodes basées sur la théorie des nombres (voir § 3.1.7 « Les
­diffuseurs  »).

✧✧ Le bruit de fond
Le bruit de fond acoustique est un autre facteur qui affecte la qualité d’une salle
d’écoute. En plus de la gêne proprement dite, de l’effet de masque, il y a une réduc-
tion de la dynamique à l’écoute, donc une modification de la durée de réverbéra-
tion apparente (figures 3.32 et 3.35). Les causes essentielles du bruit de fond
acoustique sont :
• un isolement trop faible du bâtiment, (murs, portes, fenêtres…),
• la climatisation, l’éclairage, etc.,
• un mauvais découplage des équipements bruyants tels qu’ascenseurs,
groupes compresseurs, machineries, circulation, etc.
Le bruit est le plus souvent exprimé en niveau global, suivant une méthode de
calcul qui tient compte de la gêne psycho-physiologique (voir chapitre 4). Les
plus couramment utilisés sont les dBA (pondération physiologique A) ou les
courbes NR (Noise Rating). On peut également fournir la répartition spectrale du
bruit par octave ou par 1/3 d’octave avec et sans pondération physiologique. Les
valeurs pratiquement utilisées pour le niveau du bruit de fond sont 25 dBA ou
NR20 dans une salle de concert.
Chapitre 3 – Acoustique architecturale 151

La présence du public, même calme, crée toujours un léger bruit de fond, ou


rumeur. C’est pourquoi ces niveaux sont moins contraignants que pour les studios
d’enregistrement (23 dBA ou NR15 et même 20 dBA pour un studio numérique).
Remarquons enfin qu’un auditeur accepte un niveau de bruit plus élevé à l’écoute
d’un concert en direct (ou d’enregistrement live) qu’à l’écoute d’un enregistre-
ment réalisé en studio.

Figure 3.32 — Réduction de la durée de réverbération


apparente par le bruit de fond.

3.2.2 Recherche de la meilleure adaptation


F Dimension optimale
Tout d’abord, un local – quelle que soit sa taille – doit être adapté à la source
sonore. Il semble évident qu’un grand orchestre avec chœurs demandera une
salle plus grande qu’un récital de piano, ou qu’un comédien disant un poème. Le
souci de rentabilité a souvent conduit à envisager des salles ayant les plus grandes
dimensions possibles afin d’y installer le plus grand nombre de spectateurs. De ce
fait, les dimensions et le volume de la salle augmentent souvent au détriment des
qualités acoustiques :
© Dunod – Toute reproduction non autorisée est un délit.

• la distance augmentant, le niveau sonore perçu décroît considérablement


pour les auditeurs éloignés. En effet, en champ libre, le niveau décroît
proportionnellement au carré de la distance soit :

1
Li = Lp +10 log
4 πr 2
4
En espace semi-réverbérant, s’ajoute la constante de la salle , soit :
R
152 Le livre des techniques du son

 1 4 Sα
Li = Lp + 10 log  +  et R =  (a absorbant moyen)
 4 πr R  1− α
2

• l’air est absorbant principalement aux fréquences élevées (voir chapitre 1).


Un grand volume aura une durée de réverbération élevée aux fréquences
basses et médium, et relativement moins élevée aux fréquences aiguës
(voir figure 3.28).
Ces deux inconvénients conjugués font que le niveau et l’équilibre sont mauvais
aux places éloignées dans une salle de dimension trop vastes. Les réflecteurs
(plafond, parois à proximité des auditeurs et parois latérales) ne sauraient
compenser ces défauts.
Des décalages importants entre ce que voit le spectateur et ce qu’il entend peuvent
se produire : la vitesse du son étant de 340 m/s environ, un éloignement de 50 m
provoquera un retard de 150 ms. Si l’on veut espacer les sources sonores, pour
obtenir un effet spatial, un décalage temporel important gênera les musiciens.
Pour être ensemble, ils devront se guider à l’oreille, et non suivre la battue du chef,
ce qui n’est pas une moindre difficulté (exemples : Requiem de Verdi à la Basilique
de St Denis, avec trompettes dans le transept et à la tribune, l’orchestre étant dans
le chœur. Requiem de Berlioz à Bercy, les fanfares du « Tuba Mirum » répartis à la
périphérie, l’orchestre étant au centre !).
Enfin, il ne faut pas oublier qu’une salle de spectacle est destinée à des êtres
humains, et, en tant que telle, elle doit garder des dimensions humaines. Outre les
défauts acoustiques susmentionnés, il est très frustrant, pour le spectateur
comme pour l’artiste, d’être très éloignés l’un de l’autre. La communication est
rendue difficile, voire impossible car la boucle « rétroaction » artiste → public →
artiste, est pratiquement rompue. Un renfort électroacoustique (amplification,
lignes à retard, égaliseurs…) peut compenser partiellement ces inconvénients ; il
doit être très soigneusement mis au point pour ne pas introduire d’autres distor-
sions plus graves encore affectant la spatialisation, le timbre, la balance orches-
trale… Cette remarque ne concerne pas les œuvres spécialement créées pour être
diffusées.
Le professeur Lothar Cremer indique un volume maximal de 25 000 m3 à ne pas
dépasser. Pour une jauge maximale de 2 400 places, cela fait un peu plus de 10 m3
par auditeur (cas de la Salle Pleyel, du Palais des Festivals à Cannes…).
Réciproquement, une salle trop petite risque de « saturer » acoustiquement lors
de l’exécution d’œuvres de grande dynamique ; les « forte » de ces dernières
produiraient des niveaux de pression acoustique trop élevés, gênant pour les
auditeurs, comme pour les musiciens eux-mêmes.
Chapitre 3 – Acoustique architecturale 153

F Comment obtenir le RT60 optimal ?


Quand l’usage et le volume de la salle sont définis, le RT60 optimal est déterminé
par les abaques qui donnent une fourchette de valeurs pratiques pour la bande de
fréquence médium (figure 3.26). La valeur réelle et l’allure de la courbe RT60 = f
(fréquence), seront laissées à l’appréciation de l’acousticien en accord avec les
utilisateurs potentiels (musiciens, chef d’orchestre, producteur…).
Partant de la valeur RT60 à obtenir et du volume, les formules donnant le temps
de réverbération (Sabine, Millington, Eyring, Pujolle) permettent de calculer
théoriquement le nombre d’unités d’absorption que doit contenir la salle dans
chaque bande de fréquence.
Ensuite, le choix des matériaux constitutifs se fera, à partir de leurs caractéris-
tiques d’absorption acoustique et de leur compatibilité avec tous les autres impé-
ratifs : sécurité, décoration, ergonomie, prix, etc. Les matériaux étant choisis, leur
coefficient d’absorption α = f (fréquence) – quand il est possible de le connaître
pratiquement – permettra d’en déterminer les surfaces à utiliser. Un certain
nombre d’échanges de propositions se fait alors entre l’architecte, le décorateur et
l’acousticien, à cette phase de l’étude.

F Forme adéquate. Modes propres


À l’origine, le premier souci a été de procurer la meilleure visibilité pour tous les
spectateurs, puis ensuite le meilleur confort acoustique. Sans encore parler de
« propagation », la recherche d’une répartition équitable des niveaux sonores a
conduit à utiliser certaines formes qui donnaient satisfaction. De là est née
l’acoustique géométrique des théâtres antiques. La forme circulaire (360°) a été
initialement utilisée, car elle permet de disposer le maximum de spectateurs de
façon équidistante. Cette forme résout bien le problème de visibilité, à condition
que le spectacle présente le même intérêt sous tous les angles. Plusieurs rangs
concentriques nécessitent une surélévation, d’où l’emploi de gradins. Cependant,
il faut remarquer que les sources sonores ne sont pas omnidirectionnelles (voir
© Dunod – Toute reproduction non autorisée est un délit.

chapitre 2), ni la perception des auditeurs d’ailleurs (cône de vigilance).


Un orateur s’adressant au public doit être vu – et surtout entendu – de l’avant, ou
tout au moins avec un angle pas trop grand, d’où la suppression de l’espace arrière
et l’adoption de formes semi-circulaires (amphithéâtre à 180°).
D’autre part, le souci d’assurer la meilleure propagation, donc le meilleur « arro-
sage » de tous les auditeurs, y compris les plus éloignés, a conduit à chercher le
moyen de renforcer le son direct. Le sol d’abord (plan devant la scène), puis le mur
derrière les sources sonores, et enfin le plafond et les murs latéraux, ont été utilisés
(figure 3.33).
154 Le livre des techniques du son

Orange, le théâtre antique.

L’évolution des théâtres antiques en plein air, jusqu’à nos salles modernes,
s’est faite par étapes : salles fermées en fer à cheval dites « à l’italienne », puis
salles rectangulaires (parallélépipédiques). Toujours dans le souci de loger le
maximum de spectateurs, des plans superposés appelés balcons ont été
construits.
La tendance actuelle est de supprimer ces derniers au profit d’une disposition
étagée dite en « Weinberg » (littéralement : vignoble en coteaux). On utilise cette
appellation par analogie avec les vignobles en terrasses étagées de la vallée du
Rhin : des groupes de sièges sont surélevés et décalés en hauteur les uns par
rapport aux autres (exemples : Palais des Congrès de Strasbourg, de Lille, Phil-
harmonie de Berlin, Salle Acropolis de Nice…).
En effet, l’espace sous un balcon constitue un espace semi-fermé couplé avec l’es-
pace principal dans lequel la propagation et la distribution s’effectuent souvent
mal, les caractéristiques acoustiques de ces deux espaces étant différentes. Les
devants de balcons forment aussi un obstacle qui est une gêne acoustique, source
de réflexions ou d’échos.
Chapitre 3 – Acoustique architecturale 155

Figure 3.33 — Construction graphique


des premières réflexions dans une salle de concert.

Les « Weinberg » résolvent le problème de la visibilité et de la propagation (onde


directe), ainsi que le nombre de spectateurs et offrent en plus l’avantage d’aug-
menter la diffusion de la salle par leurs irrégularités et créent des réflexions utiles
près des auditeurs (early sound à l’arrivée). Tous ces aménagements ne doivent
cependant pas créer de défauts acoustiques, en particulier d’échos gênants (émer-
gence supérieure à 10 dB), de focalisations (surfaces concaves réfléchissantes), et
d’une façon générale d’hétérogénéités.
L’étude de la géométrie de la salle est importante lorsque l’on souhaite un
RT60  optimal élevé. En effet, il est toujours possible d’annihiler l’importance
d’une surface réfléchissante génératrice d’un écho nuisible en la rendant
­absorbante. Mais dans ce cas, on hypothèque la valeur finale du RT60. Il se
peut alors que le traitement de la – ou des – surface gênante conduise à un RT
inférieur  à la valeur requise. Il faut alors repenser l’étude de la forme ou
du volume.
Cette opération est très délicate lorsqu’il faut « éclaircir » une salle existante
(travaux en 1982 à la Salle Pleyel à Paris). Il existe alors une valeur limitée
pour le RT60 qui ne peut être dépassée (le cas extrême est la chambre de réver-
bération naturelle dans laquelle il n’y a aucun absorbant. L’étude de la géomé-
trie  est  prépondérante : aucune surface parallèle, emploi de diffuseurs, de
© Dunod – Toute reproduction non autorisée est un délit.

piliers…).
Construites pour la plupart au xixe siècle, les salles rectangulaires (exemple :
Musikverein de Vienne) deviennent progressivement évasées, trapézoïdales, en
secteur (portion du cercle initial) dites encore en « fan-shape » (éventail), pale de
ventilateur, et plus récemment en trapèze, à pans coupés (exemple : Palais des
Congrès de Lille, Strasbourg, Acropolis de Nice).
Les salles rectangulaires et trapézoïdales présentent respectivement des avan-
tages et des inconvénients : les premières risquent d’être génératrices d’échos
mais ont une meilleure répartition sonore [3].
156 Le livre des techniques du son

✧✧ Modes propres
Tout local possède des fréquences propres, et on sait que leur répartition est
importante, surtout aux fréquences basses. Dans ce registre, on recherchera à
éviter les intervalles importants et les accumulations (résonances fortes), afin
que l’audition ne soit pas perturbée.
Pour cela, en plus de ce qui a été dit précédemment concernant la géométrie, il
convient de choisir convenablement les dimensions de la salle (largeur, longueur,
hauteur), et leurs rapports (travaux de Bolt, Pujolle), si la salle est parallélépipé-
dique ou se rapproche de cette forme.

F Disposition et répartition des matériaux : la polarisation


Lorsque certaines parois sont utilisées pour renforcer le son direct, il faut être
prudent afin d’éviter les échos indésirables. Théoriquement, on proscrira les
différences de marche supérieures au pouvoir séparateur de l’oreille. Le sol,
le  mur  du fond, les murs latéraux, le plafond ou réflecteurs peuvent intro-
duire  certains échos capables de gêner les auditeurs. De la même façon,
­l’environnement  de la scène ne doit pas être générateur d’échos susceptibles
de  perturber les interprètes : il en résulterait une diminution de l’intelligibi-
lité  ainsi  qu’une gêne sensible de l’émission de la parole, ou de l’exécution
­musicale,  due à la s­uperposition  non synchrone de l’écho et du son direct
(figure 3.33).
On remarquera cependant que certains musiciens, notamment ceux du
quatuor, apprécient un léger écho à la limite de dédoublement. Cela leur procure
une  sorte  d’amplification « confortable » (échos plafond/sol ou entre parois
­latérales).
Par contre, les réflexions en provenance du fond de la salle (retour) gêneraient
considérablement le musicien ou l’orateur qui entendrait une source secondaire
décalée dans le temps. L’auditeur percevrait, lui, une source fictive en provenance
de l’arrière de la salle générée par le mur du fond, une partie du plafond ou encore
certaines surfaces arrières des murs latéraux, constituant ainsi des sources
discrètes en provenance de l’arrière. Donc l’emplacement, la surface, la distance
relative sources/parois seront définis très précisément lors de l’étude, sur épures
puis sur maquettes.
Chapitre 3 – Acoustique architecturale 157

Philharmonie de Berlin : vue intérieure de la salle, plan et coupe.


On remarquera les diffuseurs et les « Weinberg ».

✧✧ La zone d’émission
Une salle de concert se compose schématiquement de deux volumes : l’un conte-
nant l’émetteur, l’autre le récepteur. Le premier doit renforcer les sources sonores
© Dunod – Toute reproduction non autorisée est un délit.

et diriger l’énergie vers la zone de réception. Ce premier volume n’est donc pas
absorbant, bien au contraire, il est réfléchissant.
D’autre part, cette zone d’émission est diffusante afin de faciliter l’intégration des
différentes sources dans le cas usuel de sources multiples (orchestre, chœurs grand
orgue…). L’intégration est la fusion harmonieuse et homogène de tous les sons,
tout en respectant leur intensité et position relatives, et ce, à toutes les fréquences.
S’il s’agit de théâtres, on évitera au contraire l’intégration des sources, et on
recherchera plutôt à préserver le caractère analytique. Ceci permet le repérage
spatial de différentes sources et le rendu de leurs mouvements.
158 Le livre des techniques du son

a b

Espaces diffusants et réfléchissants autour de la scène :


a) Genève : Auditorium Ernest Ansermet. b) Lyon : Auditorium Maurice Ravel.
Éléments diffusants au plafond au-dessus de la scène.

Les matériaux constitutifs seront durs (bois, staff, pierre, etc.) et de forme diffu-
sante (pointes de diamant, redans, dents de scie, réflecteurs hyperboliques, poly-
cylindres) surtout pour les salles de concert.
En plus de son rôle de réflecteur, cette zone d’émission produit l’EDT requis, les
premières réflexions utiles autant à l’auditoire qu’aux musiciens. Une conque est
parfois disposée à cet effet. Elle fait l’objet d’une étude particulièrement soignée sur
maquette puis de réglages en grandeur réelle (écoute de la balance orchestrale en diffé-
rents points de la salle). On inclut également les praticables dans cette mise au point.

✧✧ La zone de réception
Le second volume contient le public et doit être acoustiquement neutre, on dit
aussi « mat ». Il sera principalement constitué de matériaux absorbants (parois,
fauteuils…).
Le passage d’une zone à l’autre se fait en général progressivement avec une densité
de plus en plus forte de matériaux absorbants au fur et à mesure que l’on se déplace
de la scène vers le fond.
Il est possible de faire une analogie avec l’optique : les sources sonores sont dispo-
sées dans une zone « claire » de la même façon qu’une ampoule est placée dans la
calotte réfléchissante d’un phare. Cette zone projette les sons vers le public qui doit
être dans la zone mate à l’image de l’ampoule renforcée qui éclaire la route dans
l’obscurité. Cette disposition des matériaux acoustiques dans une salle s­ ’appelle
Chapitre 3 – Acoustique architecturale 159

la  polarisation. L’ensemble des deux zones doit contenir le nombre d’unités
­d’absorptions nécessaires à l’obtention du RT60 optimal défini, public compris.
On essaie, quand cela est possible, de choisir des sièges qui conservent à peu près
le même pouvoir absorbant qu’il soit vide ou occupé, de façon à ce que la salle ne
change pas sensiblement de couleur avec ou sans public (ceci est très utile pour les
enregistrements).

F Couplage scène-salle (émission-réception)


Une salle de concert composée de deux volumes, dont le passage de l’un à l’autre
se fait progressivement, est le cas idéal ; on le trouve maintenant dans les audito-
riums modernes. Malheureusement, ce n’est pas toujours le cas dans les salles
plus anciennes. Certaines salles « à l’italienne » possèdent un cadre de scène trop
étroit qui constitue un étranglement et altère considérablement la transmission
d’un espace à l’autre. C’est aussi souvent le cas des fosses d’orchestre dans les
théâtres lyriques où l’orchestre ne « sort » pas ou imparfaitement. (Wagner avait
été sensible à cet état de fait lors de l’établissement des plans de Bayreuth.)
La propagation est affectée par une répartition temporelle hétérogène de la pres-
sion acoustique : le volume « clair » perturbe le volume « mat » ; les acteurs ou
musiciens sont alors baignés dans une ambiance réverbérante qui ne commu-
nique que peu avec l’auditoire et le résultat est médiocre.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.34 — Modifications de la salle Pleyel.


a) 1927 Recherche de la meilleure propagation. Profil d’origine Gustave Lyon.
b) 1961 On remarquera le mauvais couplage scène-salle.
c) 1981 Profil (Abraham Meltzer) qui respecte la propagation et permet les réglages.
160 Le livre des techniques du son

Salle Pleyel (1981).


Vue de la conque d’orchestre.
Noter la nature des sièges en matériau réfléchissant.

Dans une église ou cathédrale, une hétérogénéité peut exister entre la croisée de
transept et la nef, ou entre le chœur et la nef, si des obstacles tels que piliers,
voûtes, jubé… diminuent le couplage entre ces deux volumes. Dans tous les cas,
la décroissance du son n’est plus linéaire et on observe deux segments de pentes
différentes (figure 3.35).

Figure 3.35 — Locaux couplés : allure de la réverbération.


Chapitre 3 – Acoustique architecturale 161

Remarque : dans certains cas, les parois de la zone mate sont inexistantes, donc
d’absorption maximale (100 %) par définition. C’est le cas des pavillons de
musique, kiosques et conques en plein air, lorsqu’ils ne sont pas ceinturés d’habi-
tations ou de plantations (exemple : le Hollywood Bowl à Los Angeles).

F Adaptation au lieu
Pour augmenter l’intelligibilité ou bien améliorer l’esthétique dans un local trop
réverbérant, on va rechercher un RT apparent (figure 3.36) le plus court possible
(ce qui revient à moins exciter la salle) :
• soit en réduisant la distance source-auditeur (place de la chaire, des H.P.,
rôle du jubé…),
• soit en utilisant des sources de niveau plus faible mais en multipliant alors
leur nombre (cas des haut-parleurs de « sonorisation » dans les églises,
gymnases…),
• soit enfin, en renforçant l’onde directe et en la dirigeant vers les auditeurs
au moyen de réflecteurs adaptés (abat-son au-dessus des chaires autrefois,
choix de H.P. directifs…).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.36 — Durée de réverbération apparente.

Au contraire, si l’espace est trop mat (acoustique sèche), nous disposerons des
réflecteurs autour des sources en direction de l’auditoire. Ceci a pour effet d’aider
les orateurs ou musiciens et améliore la propagation du son (voir « La zone de
réception »).
162 Le livre des techniques du son

Remarquer les éléments diffusants


(pointes de « diamant » et fresque décorative)
ainsi que les réflecteurs de la zone d’émission.
Auditorium 104 de la Maison de Radio France.

Il est aussi possible d’aménager les locaux sans polarisation, c’est-à-dire non
étudiés en vue de concerts, ou de représentations théâtrales. Pour ce faire, il faut
disposer des réflecteurs mobiles autour des sources sonores (ex : panneaux de
Chapitre 3 – Acoustique architecturale 163

contre-plaqué) et traiter la zone occupée par l’auditoire (ex : moquette, rideaux


absorbants, choix de sièges absorbants, etc.).
C’est ce qui se pratique lors des festivals d’été dans certaines églises, halles,
granges, salles de sport… Il s’agit alors de conjuguer les différents impératifs :
RT60 optimal, bonne polarisation, absence d’échos gênants, etc.
En conclusion, on voit que l’élaboration d’une salle, d’un local d’écoute, va
­nécessiter de faire la synthèse de toutes les qualités requises. La grande diffi-
culté consiste à les faire coexister, car certaines d’entre elles sont antagonistes,
comme par exemple la recherche du RT60 optimal et la suppression d’échos
gênants, ou le renfort de l’énergie (1res réflexions) et les décalages temporels
à éviter…
D’autre part, il faut également accorder cette synthèse acoustique avec tous les
autres impératifs : règles de construction dans le bâtiment, décoration, sécurité,
budget, goûts des futurs utilisateurs…
Le projet d’acoustique va donc évoluer au cours d’un certain nombre d’échanges
de documents en provenance des différents corps d’état, qui essaient de s’imbri-
quer harmonieusement avec un minimum de compromis.

F Acoustique variable
Pour utiliser une salle de plusieurs façons (musique symphonique, variétés,
conférences, spectacles sonorisés, théâtre, enregistrement sans public, etc.), il est
nécessaire de modifier les paramètres décrits précédemment, afin d’obtenir dans
chaque cas la meilleure adaptation. C’est une opération très difficile à mettre en
œuvre si l’on est soucieux de la qualité.
En effet, si l’on veut modifier la valeur du RT60, il faudra le faire à toutes les
fréquences et, en modulant convenablement l’allure du diagramme RT60 = f
(fréquence), si nécessaire (voir § 3.2.1 « Durée de réverbération optimale »).
© Dunod – Toute reproduction non autorisée est un délit.

✧✧ Variation du RT60
Pour agir sur la valeur du RT60, on peut modifier le volume V (tout en respectant
les proportions, les dimensions relatives, modes propres…) ou l’absorption
αS des parois (changement de la surface S ou changement de matériau ce qui
revient à changer α). Si l’on désire moduler l’allure du diagramme
RT760 = f (fréquence), il faudra combiner les actions sur V et αS. Ceci semble
simple sur le plan théorique, mais la réalisation implique d’importants moyens
de mise en œuvre : dispositifs mécaniques, scénographiques, surtout si l’on
désire une v­ ariation importante du RT60 (exemple de l’espace de projection de
l’IRCAM, figure 3.37a).
164 Le livre des techniques du son

Figure 3.37 — Acoustique variable : variation de la durée de réverbération.


a) Mécanique par modification du volume V et de la nature des parois aS.
b) Électroacoustique (MCR).

En effet, il est relativement aisé d’introduire des unités d’absorption dans les
registres haut-médium et aigu (rideaux de velours, moquettes, matériaux absor-
bants sur panneaux mobiles légers, sièges, etc.).
(Exemple : pour les enregistrements de disques, il est possible de modifier la
majorité des sièges du parterre de la salle Pleyel. En repliant les dossiers, on
occulte une partie absorbante, qui se trouve ainsi remplacée par des surfaces
lisses [bois vernis], de forme diffusante. Le diagramme du RT60 à vide subit ainsi
une translation de 0,25 s dans le registre médium-aigu.)
Mais pratiquement, il est beaucoup plus difficile d’ajouter ou d’ôter des absor-
beurs de fréquences graves ou bas-médium (résonateurs, diaphragmes, obstacles
diffusants, etc.). De la même façon, la modification du volume d’un local (plafond,
murs mobiles), entraîne des travaux importants et coûteux (exemple : espace de
projection de l’IRCAM, Palais des Congrès de Belgrade).

✧✧ Variations de l’EDT
Cela revient à modifier les emplacements, ou la nature des surfaces génératrices
des premières réflexions. Pratiquement, c’est la conque d’orchestre qui est modu-
lable, ou de simples réflecteurs qui sont mobiles (en translation, et angulaire-
ment). Exemples : Nouvelle Salle Pleyel, Palais des Congrès de Strasbourg, Salle
Polyvalente de Gennevilliers.

✧✧ Transformations importantes
Il peut être demandé une très grande diversité d’usages, telle que la transforma-
tion d’un grand studio d’enregistrement musical en salle publique de variétés
Chapitre 3 – Acoustique architecturale 165

(exemple : Studio 106 de la Maison de Radio France – figure 3.38) ou encore la


transformation d’une salle « polyvalente » omnisports en salle de concert
symphonique (exemple : Mairie de Gennevilliers).
Dans ce cas, c’est toute la philosophie de la salle qui change : la polarisation, la
mise en place (ou la suppression) d’éléments diffusants, la répartition des maté-
riaux, la forme, etc. Plus encore que pour une simple variation du RT60, ces trans-
formations demandent de lourds dispositifs mécaniques.

Figure 3.38 — Studio 106 de la Maison de Radio France.

✧✧ Variations du RT60 et de l’EDT par procédé électroacoustique : MCR


Il est possible de modifier le RT60 et l’EDT d’une salle sans en changer le volume,
ni la nature des parois, mais en employant un procédé électroacoustique
appelé  Multi channel reverberation (MCR). Le principe consiste à capter les
ondes ­incidentes par des micros puis à les amplifier, et ensuite à les restituer par
des haut-parleurs placés sur les parois (figure 3.39). Donc, tout se passe comme
Énergie incidente
si  le  rendement des parois se trouvait augmenté. Ceci est
­théorique. Énergie réfléchie

Pratiquement, plusieurs difficultés apparaissent :


• la coexistence d’un micro et d’un HP dans un même local est une source
© Dunod – Toute reproduction non autorisée est un délit.

d’accrochage (effet Larsen). Il conviendra de choisir judicieusement les


emplacements relatifs de ces éléments, et de limiter le gain de l’amplifica-
tion ;
• le système électroacoustique ne doit pas trop augmenter le niveau de bruit
de fond acoustique de la salle. Cette contrainte limitera également le gain
des voies, ainsi que leur nombre ;
• dans une salle, l’intégralité des parois ou éléments constitutifs agit sur
la  réverbération. Or, il n’est pas envisageable de placer des micros sur
toutes les surfaces. Il faudra donc choisir des zones bien représentatives
166 Le livre des techniques du son

des caractéristiques de la salle. Ceci sera d’autant plus facile que la


salle  sera  homogène. Le problème est le même pour les HP, d’autant
qu’il ne doit pas y avoir des sources ponctuelles localisables par les audi-
teurs. (­Pratiquement : 80 à 100 voies, pour une salle de 20 000 m3, les
micros  étant  suspendus au plafond, et les HP bafflés dans des parois
­latérales.)  ;
• les parois « naturelles » étant sélectives, il faudra rendre également l’ampli-
fication sélective ;
• enfin, dans son état d’origine, la salle devra posséder toutes les qualités
acoustiques requises, l’assistance électroacoustique doit uniquement
translater le diagramme RT60 = f (fréquence) et renforcer – le cas échéant
– les premières réflexions.

Figure 3.39 — Principe du MCR (Multi channel reverberation).

Compte tenu de ces contraintes et précautions, qui demandent une mise au point
minutieuse, le procédé permet de doubler le RT60 d’une salle, ce qui aug­
mente déjà considérablement son éventail d’utilisations (voir figure 3.37b). Il est
dommage qu’il ne soit pas possible d’augmenter davantage le RT pour les salles de
concert qui possèdent un grand orgue.
Réalisations : Auditoriums Hans Rosbaud de la SWF à Baden-Baden, P.O.C.
Philips à Eindhoven (voir figure 3.37 au centre), Palais des Festivals à Cannes,
Palais des Congrès de Berlin, nombreuses salles dans les pays scandinaves…
Chapitre 3 – Acoustique architecturale 167

3.2.3 Critères d’appréciation d’une salle d’écoute


F Juger une salle : écoutes, mesures
Lorsque l’on pénètre pour la première fois dans un local destiné à l’écoute, que ce
soit une salle de concert, un théâtre, un cinéma… que l’on soit professionnel du
son, musicien, ou simplement auditeur averti, il est possible d’avoir une vague
idée des propriétés acoustiques, des qualités et des défauts de la salle en question.
Dans un premier temps, les dimensions, le volume, la nature des parois, la géomé-
trie de l’ensemble donneront un ordre de grandeur de la durée de réverbération.
Mieux qu’une appréciation visuelle, un bruit (claquement de mains, choc, clic)
complétera utilement cette première impression et permettra de déceler certains
défauts évidents (échos francs, focalisations…).
Ensuite, l’examen de la nature du sol, des sièges, de l’importance de la zone
réservée à l’auditoire permet d’évaluer grossièrement la « sensibilité à la charge »,
c’est-à-dire la réduction du RT60 à vide lors de la présence du public. On sait que
plus un local est clair plus il est « sensible à la charge » : entre une église vide et
pleine, il peut y avoir réduction de moitié du RT60. Les orgues sont harmonisées
en fonction de l’acoustique de l’église pleine [28]. Un enregistrement se déroule
souvent en l’absence du public, certaines précautions s’imposent alors. À ­l’inverse,
une salle de cinéma bien étudiée n’a pratiquement aucun changement de RT60
vide ou pleine.
La répartition des matériaux apparaît visuellement et nous permet de juger de la
polarisation, c’est-à-dire d’évaluer le couplage zone d’émission-zone de réception.
Pour connaître mieux le comportement de la salle, il sera nécessaire d’y écouter
une répétition dans les conditions normales (formation complète, pleines voix,
avec public, système de diffusion éventuel…).
Les écoutes devront s’effectuer en plusieurs points de la salle, afin d’en apprécier
l’homogénéité et cela pour plusieurs dispositions des sources sonores.
C’est à partir de ce moment que les jugements peuvent différer, suivant que l’on
© Dunod – Toute reproduction non autorisée est un délit.

soit musicien, chef d’orchestre, ingénieur du son, auditeur, ou encore… acous-


ticien ! Les meilleures conditions pour réaliser une prise de son ne sont pas
exactement celles qui sont optimales pour l’exécution musicale ou pour l’audi-
toire. Il en est de même lors d’une diffusion avec sonorisation puissante où les
critères sont encore bien différents. Suivant le genre musical ou dramatique, les
critères de jugement devront être adaptés, cela aidera d’autant la marche à
suivre pour la bonne réalisation du spectacle et éventuellement de l’enregistre-
ment. D’autres sensations subjectives peuvent influencer ce jugement. En effet,
tout l’environnement intervient et une jolie salle agréable, bien décorée, avec
quelques imperfections sur le plan acoustique, sera préférée à une autre,
168 Le livre des techniques du son

parfaite acoustiquement, mais d’aspect visuel plus rébarbatif. Tout ceci reste
bien entendu relatif et il ne faut pas croire qu’une belle moquette dispense
d’une étude acoustique soignée !

F Mesures et interprétations
Le rôle des mesures est « d’objectiver le subjectif », ce n’est pas une moindre diffi-
culté. Les mesures traditionnelles in-situ (qualitatives et quantitatives) vont
permettre une approche objective et réaliste des qualités d’une salle. On peut
donc mesurer la durée de réverbération, les premières réflexions (EDT), le niveau
de bruit de fond, le niveau sonore, le STI (Speech transmission index), effectuer
des échogrammes…
Toutes ces mesures s’effectuent en fonction de la fréquence et en plusieurs points
de la salle. Nous en déduirons l’allure des diagrammes en fonction de la
fréquence, l’allure des décroissances (linéaires, courbes, en deux pentes, avec
échos émergents). Si l’on peut dire à coup sûr que de mauvais résultats aux
mesures seront le reflet d’une mauvaise salle, l’inverse n’est pas forcément vrai.
Certaines salles satisfaisant aux critères énoncés sont loin de faire l’unanimité.
Remarquons enfin que la majorité des mesures ne peuvent s’effectuer qu’à vide.
Il convient donc d’extrapoler l’influence de la présence du public (charge). Quel-
quefois, grâce à la complaisance d’un chef d’orchestre, et moyennant une
annonce pour le public présent, on enregistre un accord comprenant le tutti de
l’orchestre, instruments amortis (en particulier les timbales). Il est ensuite
possible d’analyser cet enregistrement en laboratoire et d’obtenir ainsi le
diagramme du RT60 = f (fréquence) salle pleine. Pour mémoire, sachons qu’il
existe également des méthodes d’intercorrélation qui permettent d’obtenir ce
résultat sans perturber l’audition (impulsions simultanées de niveau 20 dB en
dessous du niveau sonore), mais ce procédé demande un très important maté-
riel de dépouillement.
Bien que techniquement très élaborée, les mesures traditionnelles restent encore
incomplètes, en ce sens qu’elles ne tiennent pas compte de tous les critères
­d’appréciation subjective. Parmi d’autres, les acousticiens Beranek, Schroeder,
Jordan, se sont penchés sur ces problèmes. En particulier, ils ont mis en évidence
­l’importance  :
• des réflexions latérales et verticales (avantages et inconvénients),
• de l’intervalle de temps entre l’arrivée du son direct et de la première
réflexion,
• des signaux binauraux et de la direction des réflexions,
• de la sensation spatiale de la salle.
Chapitre 3 – Acoustique architecturale 169

C’est à partir de ces données qu’ils ont essayé de définir des critères d’appréciation
subjective tels que : la « plénitude », l’« intimité », la « sonie » et la « clarté ».
Mais ces critères ne tenaient pas compte du « facteur directionnel ».
West (1966), Marshall (1968), Barron (1971), Keet (1968), Kuhl (1978), ont
avancé dans ce sens. La sensation spatiale dépend de la « sonie » du son et du degré
de cohérence (ou coefficient de corrélation) des signaux sonores perçus par l’audi-
tion binaurale. Les travaux de Schroeder, Gottlob, Sibrasse, Audo, Damasse ont
permis de résumer les relations entre les phénomènes subjectifs et objectifs
comme suit :

Sensation spatiale
(domaine subjectif)
Coefficients de
Réflexions latérales
corrélation
(domaine architectural)
(domaine physique)

À partir de ces travaux, Xu Yaying (1981) propose des tests permettant la corréla-
tion entre l’appréciation subjective et les paramètres objectifs des salles de
concert. Ces tests utilisent les sons réfléchis, des impulsions de bruits et des
signaux musicaux.
Deux critères sont utilisés pour les tests d’appréciation subjective. Ce sont :
• la « préférence », laquelle implique les notions de sensation spatiale, d’am-
biance et de plénitude ;
• la « clarté », c’est-à-dire la clarté du rythme musical et l’intelligibilité des
divers timbres d’une source musicale. Il faut noter que ces deux critères
sont parfois contradictoires.
© Dunod – Toute reproduction non autorisée est un délit.

Les paramètres devant être évalués lors des tests de données objectives ne se
limitent pas à la fonction d’inter-corrélation binaurale, mais comprennent égale-
ment d’autres paramètres nécessaires aux analyses comparatives. Les paramètres
à mesure sont donc les suivants :
170 Le livre des techniques du son

✧✧ La fonction d’inter-corrélation binaurale


Elle est exprimée pour le cas général par la formule :

1 τ
τ→∞ T ∫o
Φ lr (τ) = lim fl (t ) ⋅ fr (t )(t + τ)dt

où fl (t) et fr (t) désignent les signaux de pression sonore perçus par les micro-
phones placés des deux côtés de la tête artificielle. τ désigne le temps de retarde-
ment entre les deux signaux. La valeur absolue de τ est comprise ici entre 0 et
1 ms. Il n’est pas nécessaire de prendre en considération des valeurs supérieures
pour ce paramètre, compte tenu du fait que le décalage du temps d’arrivée des
signaux entre les deux oreilles ne dépasse pas 0,75 ms.
Les calculs effectués par le corrélateur digital utilisé pour les mesures s’expriment
par la formule suivante :

1 N −τ
Φ ab (τ) = ∑ Ai Bi + τ
N − τ i =l
La valeur que nous devons finalement obtenir est celle de la fonction normalisée
d’inter-corrélation binaurale (normalized binaural cross-correlation) ou autre-
ment dit le coefficient de corrélation (ou degré de cohérence), il se définit par la
formule :

Φ lr (τ)
Φ lr (τ) =
Φ ll (0)Φ rr (0)

où Φl l(0) et Φrr (0) désignent les fonctions d’auto-corrélation de chacun des


microphones de la tête artificielle lorsque τ = 0, la valeur absolue de Φlr(τ) étant
toujours inférieure à 1.

✧✧ Le facteur de dissemblance (DF)


Il s’agit d’un critère récemment proposé par Schroeder et qu’il m’a demandé de
tester lors de mon séjour à Göttingen. Il se définit par la formule :

(Pl − Pr )2
DF =
(Pl + Pr )2

où Pl et Pr désignent les signaux de pression sonore des deux microphones de la


tête artificielle, la source sonore étant un bruit stationnaire. Ce facteur DF a une
signification similaire à celle du coefficient de corrélation, avec l’avantage par
Chapitre 3 – Acoustique architecturale 171

rapport à ce dernier de pouvoir être mesuré à l’aide de circuits simples et de ne pas


nécessiter l’utilisation d’un corrélateur digital. Nous pouvons constater par une
simple déduction que lorsque les valeurs de Pl et Pr ont un même ordre de gran-
deur, nous avons :

1 − ϕlr 1 − DF
DF  ou autrement dit ϕlr 
1 + ϕlr 1 + DF

La formule définissant DF nous montre que lorsque nous avons Pl = Pr , nous
obtenons une droite horizontale sur l’écran de l’oscilloscope indiquant la fonction
Y = f (x), dans laquelle x et Y correspondent respectivement à (Pl + Pr )2 et
(Pl – Pr )2. Cette droite a une pente de 45° lorsque le rapport de Y sur x tend vers 1.
L’image que nous voyons, en fait, a l’allure d’une ellipse, ce qui nous pose le
problème de savoir comment déterminer avec précision la pente de la droite qui
y correspond. Cela nécessitera une amélioration ultérieure des méthodes de tests
des travaux prévus au stade actuel, lesquels ne constituent, de toute façon, qu’une
première approche.
J’ai, par ailleurs, effectué des essais à Göttingen avec Bennett Smith, permettant
d’obtenir une courbe DF fonction de τ, en donnant à ce dernier paramètre qui
correspond au temps de retardement entre Pl et Pr , plusieurs valeurs variant de 0
à 1 ms, grâce à une ligne de retard. Il a été intéressant de constater que la courbe
DF(τ) est similaire à la courbe ϕlr(τ).

✧✧ L’efficacité latérale (LE)


Ce critère a été introduit récemment par Jordan pour rendre compte de l’impor-
tance de l’énergie latérale par rapport à l’énergie totale, concernant les premières
réflexions. Ce critère est défini par la formule :

∫ 80 ms
25 ms E (t )dt
LE =
∫ 80
0
ms
E 0 (t )dt
© Dunod – Toute reproduction non autorisée est un délit.

où E∞(t) représente l’énergie de réflexion latérale captée par un microphone de


courbe en 8, et E 0(t) l’énergie totale captée par un microphone omnidirectionnel,
les sources sonores émettant ici des bruits par impulsions. J’utiliserai deux micro-
phones qui capteront simultanément les réflexions provenant de ces bruits, et les
informations seront ensuite traitées par l’ordinateur qui effectuera les intégra-
tions ainsi que d’autres calculs.
Selon Jordan, il existe une relation entre LE et ϕlr , soit LE  I − ϕlr qui implique
que ces deux valeurs sont interdépendantes. Les tests permettront de vérifier
cette hypothèse.
172 Le livre des techniques du son

✧✧ La clarté (C)
Reichardt en a donné la définition suivante en tant que critère monaural :

∫ 80 ms
E 0 (t )dt
C = 10 log 0
∫ ∞80ms E 0 (t )dt
Un microphone omnidirectionnel reçoit des signaux émis par une source
de  bruits par impulsions et transmet ces informations à un ordinateur qui
calcule  la valeur de C. Cette opération a pour but de vérifier les relations
établies par certains auteurs entre ce dernier paramètre et les paramètres déjà
mentionnés.
E. Leipp a proposé, en 1984, une méthode nouvelle réaliste pour tester l’acous-
tique d’un lieu d’écoute. Cette méthode, à ce jour éprouvée, prend en compte
l’avis  des usagers et les propriétés de l’oreille humaine. Elle part de quelques
mesures « sur le terrain » (émission et enregistrement de courtes salves de bruit
rose) qui seront ensuite analysées en laboratoire et permettront d’établir quatre
diagrammes de base :
• la densité spectrale. Ce diagramme permet de visualiser les altérations
de  « coloration » (timbre) aux divers points d’écoute, d’en déduire
l’isotropie  du lieu, le confort d’écoute et le bruit de fond. Ceci permet
de  préciser ­l’adéquation ou l’inadéquation du lieu à tel ou tel type de
message sonore ;
• les traînages (durée de réverbération apparente). Ces diagrammes
traduisent « l’écho » ou le « halo » des musiciens. Ils objectivent donc bien
l’information esthétique du message ;
• le pouvoir séparateur. Il indique combien de sons élémentaires (syllabes,
notes), on peut séparer nettement dans le message. Il objective ainsi la
« netteté » et l’intelligibilité de la parole. Celle-ci se mesure objectivement
en faisant écouter à des auditeurs choisis des phonèmes (logatomes). On
peut en déduire le « pourcentage d’articulation ». Plus récemment a été
mise au point la mesure du Speech Transmission Index (STI). La durée de
réverbération optimale est celle qui permet d’obtenir le meilleur « pour-
centage d’articulation » ou le STI le plus élevé (figure 3.40) ;
• l’inertie. Le diagramme d’inertie indique le nombre de sons par seconde
qui sont perceptibles sans altération des attaques. Il traduit la « mollesse »
ou la « vivacité » du lieu.
En plus de ces diagrammes, les échos francs gênants musicalement (émergence
≥ 10 dB) seront facilement dépistés en enregistrant un coup de claquoir.
Chapitre 3 – Acoustique architecturale 173

Figure 3.40 — a) L’intelligibilité croît pour atteindre un maximum


au RT60 optimal, puis décroît ensuite, à cause de l’excès de réverbération.
La durée de réverbération optimale dépend du volume du local et de son utilisation
(l’intelligibilité dépendra alors du débit de la parole : informations, théâtre, prêche… ;
comme la netteté dépendra de l’instrument, du style musical, du tempo…).
b) Le STI, comme l’intelligibilité dépend également des premières réflexions
(early sound ou encore EDT). Il est d’autant plus élevé que l’EDT est court.
Le STI est légèrement meilleur aux fréquences basses quand l’EDT est très court.
En revanche, il est plus faible quand l’EDT est très long.

3.3 Isolement - Isolation

3.3.1 Isolement aux bruits aériens


F Propagation aérienne - Propagation solidienne et isolement
Le son se propage dans l’air et dans la matière. Le cheminement du son d’un local
A à un local B, résulte en général toujours de ces deux modes de propagation :
aérienne et solidienne.
© Dunod – Toute reproduction non autorisée est un délit.

Regardons la figure 3.41 : une source rayonne dans le local A. Les ondes sonores
se propagent dans l’air, viennent frapper les murs du local et les ébranlent. Cet
ébranlement va se propager à l’intérieur de ces murs qui vont à leur tour ébranler
le milieu gazeux, l’air, du local B donc donner naissance à des ondes sonores qui
atteignent le récepteur.
Pour parler d’isolement (défini au chapitre suivant), il faut qu’il y ait propagation
aérienne à l’émission et propagation aérienne à la réception, même s’il y a propaga-
tion solidienne entre les deux. Dans le cas contraire (figure 3.42), nous entrons
dans le domaine des bruits de chocs étudiés plus loin.
174 Le livre des techniques du son

Figure 3.41 — Propagation d’un bruit aérien d’une salle à une autre.

Figure 3.42 — Propagation d’un bruit solidien d’une salle à une autre.

F Définition de l’isolement
Soit deux lieux A et B séparés physiquement par une cloison, un obstacle… (voir
figure 3.43), supposons qu’une source sonore rayonne dans le local A : si LA et LB
sont les niveaux de pressions acoustiques moyens dans A et B, on appellera
« isolement acoustique brut » la différence D = LA – LB exprimée en dB pour une
fréquence donnée.
Chapitre 3 – Acoustique architecturale 175

Attention : isolement et isolation sont souvent confondus. Le mot « isolation »


englobe tous les moyens mis en œuvre pour isoler. Le mot « isolement » repré-
sente l’état de ce qui est isolé : c’est le résultat de l’isolation.
Exemple : l’isolation entre deux locaux est faite d’un mur en béton de 15 cm
d’épaisseur : l’isolement brut en résultant est de 40 dB à 1 000 Hz.

F Principe de la mesure d’isolement brut


Il est décrit de façon pratique sur la figure 3.43 : le bruit aérien est produit par un
ou plusieurs haut-parleurs disposés de telle sorte que le champ acoustique soit
aussi diffus et isotrope que possible. Le bruit émis dans le premier local doit avoir
un niveau tel que le niveau de bruit perçu dans le second local dépasse d’au moins
10 dB le niveau de bruit de fond. Le signal d’émission est produit par un bruit rose.
On place un microphone omnidirectionnel dans chaque local connecté à un
analyseur 1/3 d’octave qui donnera dans chaque bande 1/3 d’octave le niveau de
pression acoustique moyen. Ces appareils répondent aux normes et les bandes
1/3 d’octave sont : 50, 63, 80, 100, 125, 160, 200, 250, 315, 400, 500, 630, 800,
1 000, 1 250, 1 600, 2 000, 2 500, 3 150, 4 000, 5 000, 6 300, 8 000, 10 000 Hz. Il
suffit ensuite de faire la différence dans chaque bande 1/3 d’octave entre les
niveaux mesurés dans les deux pièces.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.43 — Principe de la mesure d’isolement.

On répète ces mesures en plaçant le microphone en trois positions différentes,


éloigné d’au moins un mètre de toute paroi ; puis, on fait la moyenne des trois
résultats.
176 Le livre des techniques du son

Attention : les niveaux mesurés ne dépendent en principe pas de la position du


micro dans la pièce. Si l’on fait la même mesure, mais en choisissant de façon très
précise une position A dans le premier local et une position B dans le second, la
valeur D = LA – LB sera appelée affaiblissement.

F Autres définitions

✧✧ L’isolement acoustique normalisé au bruit aérien


Il apparaît intuitif que les niveaux de pression acoustique mesurés dans le local de
réception dépendent de la réverbération (voir ce chapitre) de celui-ci. Si le local
est très sonore, c’est-à-dire si sa durée de réverbération est longue, le bruit
transmis dans ce local sera « renforcé » par la réverbération. L’acousticien a donc
été amené à retrancher du niveau mesuré dans le local de réception un terme
T
correctif égal à 10 log où T est la durée de réverbération du second local et
0, 5
0,5 une durée de réverbération de référence pour les locaux d’habitation (il est
possible de choisir une valeur de la durée de réverbération de référence autre que
0,5 s, selon la destination du local). On a donc :

T
L′2 = L2 − 10 log
0, 5
d’où :

T
Dn = L1 − L2 + 10 log
0, 5
Dn est l’isolement acoustique normalisé au bruit aérien pour une fréquence
donnée.

✧✧ L’indice d’affaiblissement acoustique


Il définit la capacité isolante d’une paroi. On le mesure en laboratoire entre deux
salles réverbérantes. Pour les mêmes raisons que précédemment, un terme
correctif est introduit, on a :

S
R = L1 − L2 + 10log
A
où S est la surface de la paroi essayée et A l’aire d’absorption équivalente du local
de réception.
Chapitre 3 – Acoustique architecturale 177

✧✧ Isolement acoustique normalisé au bruit aérien exprimé en dB(A), DnAT


L’isolement acoustique normalisé exprimé en dB(A), DnAT , permet de caractériser
par un seul chiffre la capacité isolante d’une paroi. Toutefois, pour être représen-
tatif de l’état de ce qui est isolé, il est important de disposer de l’isolement dans les
6 bandes d’octaves de 125 à 4 000 Hz. Attention : l’isolement acoustique norma-
lisé au bruit aérien en dB(A) n’est pas égal à la différence des niveaux L1 et L2 en
dB(A). Exemple : Soit une paroi caractérisée par l’isolement acoustique norma-
lisé au bruit aérien suivant, dans les 6 bandes d’octaves de 125 à 4 000 Hz :

Bande d’octave 125 250 500 1 000 2 000 4 000 Hz

Dn 35 25 36 40 44 48 dB

On peut voir immédiatement que cette paroi comporte une faiblesse dans la
bande d’octave 250 Hz. On considère un niveau d’émission théorique de 80 dB par
bande d’octave :

Bande d’octave 125 250 500 1 000 2 000 4 000 A

Lp émission théorique 80 80 80 80 80 80 86,2

Le niveau global de pression acoustique de l’émission théorique, exprimé en


dB(A), est de 86,2 dB(A). On exprime maintenant le niveau de réception théo-
rique, égal à la différence, dans chaque bande d’octave, entre le niveau théorique
d’émission et l’isolement de la paroi :

Bande d’octave 125 250 500 1 000 2 000 4 000 A

Lp réception théorique 45 55 44 40 36 32 48,8

Le niveau global de pression acoustique de la réception théorique, exprimé en


dB(A), est de 48,8 dB(A). L’isolement acoustique normalisé exprimé en dB(A),
DnAT , est la différence entre le niveau global de pression acoustique de l’émission
théorique et niveau global de pression acoustique de la réception théorique,
© Dunod – Toute reproduction non autorisée est un délit.

exprimés en dB(A), soit, dans notre exemple :


DnAT = 86,2 – 48,8 = 37,4 dB(A).
NB : le calcul du niveau global en dB(A) (décibel pondéré A) se fait de la manière
suivante :
Lp 125 – 4 000 Hz (A) = 10 log (10 ((Lp125 Hz − Pond.A125 Hz)/10)) +
10 ((Lp250 Hz − Pond.A250 Hz)/10)) + 10 ((Lp500 Hz − Pond.A500 Hz)/10)) +
10 ((Lp1 000 Hz − Pond.A1 000 Hz)/10)) + 10 ((Lp2 000 Hz − Pond.A2 000 Hz)/10)) +
10 ((Lp4 000 Hz − Pond.A4 000 Hz)/10)))
178 Le livre des techniques du son

Le spectre de pondération A par bande d’octave entre 125 et 4 000 Hz est le


suivant :

Bande d’octave 125 250 500 1 000 2 000 4 000

Pondération A 16 8,5 3 0 –1 –1

Depuis 1999, de nouveaux indices européens sont utilisés pour définir les notions
précédentes ; ils résultent non plus d’un calcul, mais de la comparaison de la
courbe des valeurs de l’isolement entre 125 Hz et 2 kHz à des courbes de réfé-
rence. Ainsi :
• L’isolement acoustique standardisé pondéré, noté DnT,A, a remplacé l’isole-
ment acoustique normalisé DnAT (rose) calculé par rapport à un spectre de
bruit rose à l’émission. Il est exprimé en dB et non en dB(A) rose. On a en
général la relation : DnT,A = DnAT – 1.
• L’isolement acoustique standardisé pondéré au bruit de l’espace extérieur,
noté DnT,A,tr, a remplacé l’isolement acoustique normalisé DnAT(route) calculé
par rapport à un spectre de bruit route à l’émission. Il est exprimé en dB et
non en dB(A) route. On a en général la relation : DnT,A,tr = DnAT(route).
• L’indice d’affaiblissement acoustique pondéré Rw (C ; Ctr ) a remplacé
­l’indice d’affaiblissement acoustique R mesuré en laboratoire ; l’indice
d’affaiblissement acoustique pondéré par rapport à un spectre de bruit
rose est  noté RA et égal à Rw + C ; l’indice d’affaiblissement acoustique
pondéré par rapport à un spectre de bruit route est noté RA,tr et égal à
Rw + Ctr. On a en général les relations suivantes : RA,tr = Rroute et RA = Rrose – 1.
Attention : beaucoup de fabricants ignorants ou peu scrupuleux donne l’indice
Rw sans préciser les termes C et Ctr , ce qui peut conduire à bien des erreurs ou
désillusions ; en effet, ces termes sont en général négatifs et peuvent donc conduire
à des indices RA ou RA,tr inférieurs de plusieurs dB à la valeur du Rw.
Voir également l’équivalent pour les bruits d’impact.

3.3.2 Loi de masse - Loi des fréquences


F Loi de masse
Considérons une paroi en parpaings pleins de 10 cm d’épaisseur, séparant
deux locaux. Une telle paroi a une masse surfacique de 270 kg/m2. Mesurons
­l’isolement brut apporté par cette paroi à 1 000 Hz : on aura D = 44 dB. Rempla-
çons maintenant cette paroi par une autre de même nature mais deux fois plus
épaisse, donc deux fois plus lourde. Une telle paroi aura une masse surfacique de
540 kg/m2. Mesurons l’isolement brut apporté par cette nouvelle paroi de 20 cm,
Chapitre 3 – Acoustique architecturale 179

toujours à 1 000 Hz. On trouve D = 50 dB. Nous avons gagné 6 dB d’isolement en


doublant la masse de la paroi. Nous pourrions répéter plusieurs fois cette expé-
rience avec des parois de natures diverses, à d’autres fréquences, nous arriverions
toujours à la même conclusion : le fait de doubler la masse d’une paroi revient à
augmenter l’isolement de 6 dB environ. Cela signifie à première vue que pour une
fréquence donnée, l’isolement acoustique est proportionnel au logarithme de sa
masse : c’est ce qu’exprime la loi de masse (figure 3.44).

Figure 3.44 — a) Courbe très théorique de la loi de masse.


b) Courbe très théorique de la loi des fréquences.

F Seconde expérience : loi des fréquences


Considérons à nouveau la paroi en parpaings pleins de 10 cm d’épaisseur sépa-
rant deux locaux. Mesurons encore l’isolement brut de cette paroi, mais cette fois
à différentes fréquences. Nous obtenons les valeurs suivantes :

Hz 250 500 1 000 2 000 4 000

D 36 40 46 51 57
© Dunod – Toute reproduction non autorisée est un délit.

À la vue de ces résultats, nous constatons que l’isolement acoustique pour une
masse surfacique donnée croît de 6 dB environ lorsque la fréquence est doublée.
Cette expérience réalisée avec d’autres parois de nature différente aboutirait au
même résultat : l’isolement acoustique d’une paroi de masse donnée est propor-
tionnel au logarithme de la fréquence : c’est ce qu’exprime la loi des fréquences
(figure 3.44b).

F Formulation théorique des lois de masse/fréquence


Ces deux lois que nous venons de dégager empiriquement, peuvent l’être par le
calcul en assimilant par exemple la paroi à un piston vibrant.
180 Le livre des techniques du son

✧✧ Transmission d’une onde sonore à travers une paroi


Pour la simplicité, nous considérons une onde d’incidence normale à la paroi. Sur
la figure 3.45, l’onde sonore incidente donne naissance à une onde sonore réfléchie
par la paroi du même côté, et aussi à une onde sonore t rayonnée par la paroi de
l’autre côté. Le calcul nous permet de définir le rapport des amplitudes de l’onde
transmise et de l’onde incidente, donc d’exprimer le rapport de l’énergie transmise
à l’énergie incidente, appelé coefficient de transmission et noté τ.
On a :

1
τ= 2
m f 
1+  s 
 ρ oC o 
ms étant la masse surfacique de la paroi en kg/m2, f la fréquence de l’onde
­incidente et ρ0 c0 la résistivité acoustique de l’air.
Il est important de noter immédiatement que ce coefficient de transmission est
inversement proportionnel aux carrés de la masse de la paroi et de la fréquence
de l’onde.

Figure 3.45 — Transmission d’une onde sonore à travers une paroi.

✧✧ Indice d’affaiblissement acoustique d’une paroi


L’indice d’affaiblissement acoustique d’une paroi va exprimer en dB la différence
1
entre l’énergie incidente et l’énergie transmise ; c’est donc le rapport qui nous

intéresse. Ce rapport R exprimé en dB est tel que :
Chapitre 3 – Acoustique architecturale 181

1
R =10 log dB
τ
  m f 2 
R = 10 log 1 +  s   dB
  ρoCo  
Cette formulation de l’indice R d’une paroi est connue sous l’appellation « loi de
masse/fréquence ».
Pour une utilisation pratique, cette loi peut s’écrire : R = 20log( f × ms ) – 47 dB.
Son domaine de validité est limité par ms > 150 kg/m2. Pour les masses surfa-
ciques inférieures à 150 kg/m2, seule la mesure en laboratoire donnera l’indice R.
Le logarithme de la fréquence par la masse surfacique nous montre bien que le
fait de doubler (diviser) la masse ou la fréquence entraîne un accroissement (une
diminution) de l’isolement de 6 dB environ. Doublons la masse par exemple,
il vient :
R′ = 20 log( f × 2 ms) − 47 dB
R′ = 20  log 2 − 20  log( f × ms) − 47 dB
R′ = R + 20  log 2  R + 6 dB

F Comportement d’une paroi simple homogène dans la réalité


En pratique, une paroi simple ne se comporte pas aussi simplement que l’expri-
ment les lois de masse/fréquence.

✧✧ Effet de l’élasticité et de l’amortissement de la paroi


Toute paroi possède une certaine élasticité et un certain amortissement
(comme  un ressort). Toute paroi possède donc une fréquence propre en
général assez basse, pour laquelle son indice d’isolement présente un minima
(figure 3.46).
© Dunod – Toute reproduction non autorisée est un délit.

En dessous de la fréquence propre, l’indice d’isolement de la paroi se comporte à


l’inverse de la loi de masse, il diminue de 6 dB par octave. À la fréquence propre,
l’indice d’isolement est fonction de l’amortissement : on a donc intérêt à ce que
celui-ci soit élevé. Au-delà de la fréquence propre, l’indice d’isolement suit la loi
de masse et croît de 6 dB par octave.

✧✧ Fréquence de coïncidence - Fréquence critique


Si nous prolongeons la figure vers la droite, vers les fréquences élevées, nous
voyons apparaître une autre anomalie, un autre minima (figure 3.46).
182 Le livre des techniques du son

Figure 3.46 — Variation de l’indice d’isolement


d’une paroi en fonction de la fréquence.
Il est déterminé dans chaque région de :
1) la raideur, 2) la résonance, 3) la masse, 4) l’effet de coïncidence.

Ce minima apparaît à une fréquence appelée fréquence critique. Analysons ce


phénomène (figure 3.47) : lorsqu’une onde incidente, faisant un angle θ avec la
normale vient frapper une paroi, il naît dans la paroi une onde de flexion due à
l’élasticité de la paroi. Si, sous l’action de l’onde incidente, une petite partie de la
paroi se déplace, celle-ci va communiquer ce petit déplacement à la partie
adjacente avec un petit retard et ainsi de suite.
Cette onde de flexion se propage avec une célérité cF  , fonction de la fréquence et
du milieu constitutif. On a donc une superposition de deux phénomènes : de
l’onde incidente transmise et de l’onde de flexion. Lorsque la projection de la
longueur d’onde de flexion sur l’axe d’incidence est égale à la longueur d’onde
incidente, il va y avoir « coïncidence » des deux phénomènes ; les deux ondes vont
se renforcer mutuellement et donc diminuer l’isolement de la paroi à cette
fréquence appelée fréquence de coïncidence.
λi
Le phénomène apparaît lorsque = sin θ ; lorsque l’onde incidente est rasante,
λF
c’est-à-dire lorsque θ = 90°, λi = λF , donc fi = fF . Cette fréquence de coïncidence
particulière est appelée fréquence critique. Comme sin θ ≤ 1, cette fréquence
critique est la plus basse des fréquences de coïncidence.
Chapitre 3 – Acoustique architecturale 183

Le tableau ci-dessous donne la fréquence critique de quelques matériaux :

Matériau Épaisseur f

mur de brique 220 mm 120 Hz


béton 180 mm 103 Hz
brique 110 mm 240 Hz
plâtre 2 mm 7 600 Hz
feuille de plâtre 10 mm 4 200 Hz
acier 1 mm 12 000 Hz
contre-plaqué 3 mm 7 000 Hz
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.47 — Phénomène de coïncidence - Fréquence critique.


184 Le livre des techniques du son

La formule donnant la fréquence critique est la suivante :

c 2 1 12ρ
fc = × ×
2π d E
où c est la célérité du son dans l’air en m/s, d l’épaisseur de la paroi en mètre, ρ la
masse spécifique du matériau utilisé en kg/m3, E le module d’Young du matériau
utilisé. Cette expression mathématique nous montre que :
• plus le matériau est dense, plus la fréquence critique est élevée ;
• pour un même matériau :
– doubler l’épaisseur de la paroi divise sa fréquence critique par 2,
– diviser par 2 l’épaisseur de la paroi double sa fréquence critique ;
• moins l’élasticité du matériau est grande (c’est-à-dire E petit), plus la
fréquence critique est élevée. Ainsi, pour le plomb, matériau peu élastique
par excellence (ne pas confondre avec peu déformable), la fréquence
critique est en dehors du domaine audible.

✧✧ Influence de l’angle d’incidence de l’onde incidente


Nous avons déjà fait intervenir l’angle d’incidence pour les fréquences de
­coïncidence. Mais, nous avons déjà bien précisé que la formule exprimant la
loi de masse était donnée pour une incidence normale. En fait, si l’onde inci-
dente n’est pas normale à la paroi, l’isolement de celle-ci est inférieur de plusieurs
dB à ­l’isolement donné par la loi de masse. Dans la réalité, on suppose qu’une
paroi est frappée par des ondes venant d’un champ diffus (venant de toutes les
directions à la fois) en sachant que les ondes d’incidences rasantes sont moins
sollicitées.
En pratique, on estimera que l’isolement d’une paroi est inférieur de 5 à 6 dB à
celui donné par la loi de masse.

✧✧ Cas de la séparation d’un local en deux parties par une paroi simple
Supposons que l’on veuille séparer un local en deux parties, il sera inutile de
construire une paroi ayant un isolement moyen supérieur à 50 dB. En effet, le
bruit dans le premier local transmis par propagation solidienne et rayonné par les
murs latéraux dans le second local serait supérieur au bruit transmis à travers la
cloison. À moins, bien entendu, de réaliser un doublage flottant des murs du
premier local.
Chapitre 3 – Acoustique architecturale 185

F Les défauts et limites de la paroi simple homogène

✧✧ La porosité
Bien que n’étant pas à proprement parler un défaut dû au principe même de la
paroi simple, force nous est de constater que la plupart des matériaux couram-
ment utilisés en maçonnerie sont poreux : parpaings, briques, blocs de béton
alvéolaires, etc.
C’est pourquoi l’application d’un enduit (plâtre, ciment) sur les deux faces d’une
paroi construite avec ces matériaux augmente l’isolement de 5 à 10 dB suivant les
fréquences, et permet d’atteindre à peu de choses près l’isolement prévu par la loi
de masse.

✧✧ La masse
Nous savons qu’une paroi de parpaings pleins de 15 cm donne un isolement
­d’environ 40 dB à 500 Hz.
Supposons que nous voulions obtenir 48 dB à 500 Hz ; d’après la loi de masse, il
faudrait pratiquement quadrupler la masse de cette paroi, c’est-à-dire construire
un mur de 60 cm d’épaisseur, ce qui n’est guère réaliste alors qu’un isolement de
48 dB à 500 Hz est insuffisant pour isoler un studio d’enregistrement par exemple.

✧✧ La fréquence de résonance et la fréquence critique


Nous avons vu qu’à ces deux fréquences, l’isolement était inférieur à celui prévu
par la loi de masse ; seule l’augmentation de l’amortissement de la paroi permet de
diminuer ce défaut d’isolement.
Or, on peut jouer sur celui-ci soit en modifiant l’homogénéité de la paroi (en
collant dessus un textile chargé en plomb par exemple) soit en modifiant le
couplage de la paroi, sa périphérie avec les autres murs (figures 3.48a, 3.48b
et 3.48c).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.48 — Découpage d’une paroi en son périmètre.


186 Le livre des techniques du son

3.3.3 Paroi composite, paroi multiple


Les limites et défauts de la paroi simple peuvent être combattus de quatre façons :
• le doublage de la paroi par un système « masse-ressort »,
• la paroi simple composite,
• la double paroi,
• tout système panaché des trois précédents.

F Doublage de la paroi par un système « masse-ressort »

✧✧ Doublage par panneau de type Vertibel ou Calibel


Une plaque de plâtre de 1 à 2 cm d’épaisseur, est collée, en usine, sur un matelas de
laine de verre dense de 4 à 9 cm d’épaisseur. Ce complexe (figure 3.49) est à
nouveau collé sur la paroi, soit d’un côté, soit des deux côtés suivant l’efficacité
recherchée.

Figure 3.49 — Doublage d’une paroi par un système masse-ressort ;


circuit mécanique équivalent.

✧✧ Doublage par tassoflottants et panneaux bois de particules


Des tasseaux de bois collés en usine sur un matelas de fibres végétales sont fixés
sur la paroi, à entraxe de 60 cm environ, par l’intermédiaire d’un matelas de fibres
Chapitre 3 – Acoustique architecturale 187

minérales : les tasseaux ont ainsi une liberté de mouvement très grande par
rapport à la paroi ; l’espace entre chaque tasseau est garni de laine de verre ou de
laine de roche, et des panneaux de particules (d’aggloméré) de 3 à 4 cm d’épais-
seur sont cloués sur ces tasseaux. Cette technique, de mise en œuvre assez longue,
est surtout utilisée lorsque l’on ne dispose que de peu d’épaisseur pour l’isolation
(figure 3.50).

Figure 3.50 — Doublage d’une paroi par le système masse-ressort


avec utilisation du « Tassoflottement ».

Il existe maintenant des systèmes simples et rapides de mise en œuvre composés


d’une ossature métallique indépendante de la paroi doublée et de plaques de plâtre
vissées en couches croisées sur cette ossature, la laine minérale étant maintenue
© Dunod – Toute reproduction non autorisée est un délit.

entre les montants de l’ossature. Ces systèmes, parfaitement au point, permettent


également de réaliser des plafonds de grande portée sans fixation à l’existant et d’ef-
fectuer ainsi facilement des doublages sur le principe de la « boîte dans la boîte ».

F La paroi simple composite

✧✧ Définition
Comme son nom l’indique, c’est une paroi composée de couches successives de
matériaux différents. Pour cette raison, elle est rarement réalisée en matériaux de
maçonnerie lourde.
188 Le livre des techniques du son

✧✧ Ses avantages sur la paroi simple


À masse surfacique égale, son isolement est supérieur à celui d’une paroi simple. En
effet, lorsqu’une onde acoustique se propage d’un milieu 1 vers un milieu 2, elle donne
naissance, à la limite des deux milieux à une onde réfléchie et à une onde transmise.
Le passage d’une onde d’un milieu dans un autre s’accompagne toujours d’une
perte d’énergie, sauf dans les cas où les deux milieux ont la même résistivité
acoustique (quand il y a adaptation d’impédance !).
On voit tout de suite le parti à tirer de cette propriété : on a intérêt à multiplier les
changements de milieux.
En raison des couches de matériaux différents, les défauts d’isolement de la paroi
simple homogène dus au mode propre et à l’élasticité sont réduits dans de grandes
proportions : la figure 3.51 donne un exemple de paroi composite couramment
utilisée dans la construction des studios : il suffit d’intercaler entre l’isorel mou et la
plaque de plâtre une feuille de plomb de 15/10e ou 20/10e d’épaisseur pour éliminer
la perte d’isolement due aux fréquences critiques qui d’ailleurs ne coïncident pas.

Figure 3.51 — Paroi hétérogène. Exemple de réalisation


couramment utilisée en studio.
Chapitre 3 – Acoustique architecturale 189

Pour une masse surfacique d’environ 100 kg/m2, une telle paroi donne un isole-
ment au moins égal à celui d’une paroi de parpaings pleins de 15 cm d’épaisseur
(masse surfacique 400 kg/m2). Cette « légèreté » de la paroi composite est intéres-
sante lorsque les planchers existants n’autorisent pas de surcharges importantes.
F La paroi double
✧✧ Principe
Lorsque l’isolement d’une paroi simple n’est pas suffisant, on peut l’augmenter
en  construisant une deuxième paroi à une certaine distance de la première
(le doublage par un système masse-ressort n’est en fait qu’un cas particulier de la
paroi double).
Considérons l’exemple de la figure 3.52 :

Figure 3.52 — Principe de la paroi double.


© Dunod – Toute reproduction non autorisée est un délit.

La paroi no 1 a un isolement de 40 dB à 500 Hz, et la paroi no 2 un isolement de


30 dB à 500 Hz. On pourrait s’attendre à ce que l’isolement de l’ensemble à 500 Hz
soit de 30 + 40 = 70 dB.
Ce serait le cas si les deux parois étaient très éloignées l’une de l’autre, c’est-à-dire
séparées d’une distance au moins égale à la longueur d’onde de la plus basse
fréquence transmise.
Malheureusement, il existe toujours un couplage liaison entre les deux parois, dû
à leur mode de fixation en périphérie et à l’élasticité de la lame d’air prisonnière
entre les deux murs.
190 Le livre des techniques du son

Voici comment se comporte une paroi double :


Aux basses fréquences, les deux parois se comportent pratiquement comme s’il n’y en
avait qu’une seule, de masse égale à la somme des masses de chaque paroi. Là se situe
en général la fréquence de résonance du système, fonction des masses, des parois et de
leur espacement. Cette fréquence peut être calculée par la formule suivante :

1 1 1 
fo = 840  + 
d  m1s m2s 

où d est la distance (en cm) séparant les deux parois m1s et m2s ,, leurs masses
surfaciques respectives.
À cette fréquence apparaît (comme pour les parois simples) une baisse sensible
de l’isolement.
Au-delà de cette fréquence l’isolement croît plus rapidement que celui d’une
paroi de masse équivalente, jusqu’à présenter un autre minima qui correspond à
la plus basse fréquence de résonance de la cavité entre les deux parois.
On élimine ce défaut en collant contre une des deux parois (de préférence celle
située du côté le moins bruyant), une couche de laine de verre ou de roche de
quelques centimètres d’épaisseur (figure 3.52).
Cette couche de laine de verre ou de roche ne doit pas toucher les deux parois ni
être tassée entre celles-ci ; elle irait alors à l’encontre de l’effet recherché, en créant
un couplage entre les deux parois.

✧✧ Règles pratiques
• les deux parois ne doivent pas avoir la même fréquence de résonance ni la
même fréquence critique pour ne pas ajouter leurs propres défauts d’isole-
ment ; aussi, si elles sont constituées du même matériau, elles ne devront
pas avoir la même épaisseur ;
• on recherchera à diminuer l’élasticité et à augmenter l’amortissement de
chaque paroi en soignant particulièrement, comme dans le cas d’une paroi
simple, la technique de maintien en périphérie ;
• la distance séparant les deux parois est au moins égale à 10 cm, et la cavité
est amortie par un matériau absorbant ;
• il n’est, bien sûr, toléré aucun « pont phonique » c’est-à-dire liaisons méca-
niques évidentes (ciment, clou, etc.) entre les deux parois.
Le calcul de l’isolement d’une double paroi est assez complexe surtout en raison
de la multiplicité des facteurs souvent mal définis (encastrement, etc.).
Chapitre 3 – Acoustique architecturale 191

Quand les quatre règles énoncées ci-dessus sont parfaitement respectées, l’isole-
ment d’une paroi double peut être estimé par la formule empirique suivante :

R = R1 + 0,5R2
avec R1 isolement de la paroi 1 > R2 isolement de la paroi 2.

✧✧ Parois multiples
Pour atteindre des isolements élevés (par exemple 70 dB à 500 Hz), on peut aller
jusqu’à tripler la paroi.
Les principes restent les mêmes que pour la paroi double.

3.3.4 Portes et baies vitrées - Parois hétérogènes


F Portes
Une porte se comporte comme une paroi simple, bien que son isolement calculé
par la loi de masse soit toujours supérieur à celui obtenu en pratique.
On cherchera toujours à ce que la porte ait la même masse surfacique que la paroi
dans laquelle elle est scellée. Mais, dans le cas de parois lourdes, cela conduit à des
portes peu faciles à mettre en place et à manœuvrer : on préfère alors remplacer
cette porte par deux portes de masse totale équivalente, séparées par un sas
(figure 3.53a) dont l’efficacité est très augmentée par la pose de revêtements
absorbants dans celui-ci.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.53 — (a) Principe d’un sas isolant sur une paroi simple.
(b) Principe d’un sas isolant sur une paroi double.
192 Le livre des techniques du son

Dans le cas de parois multiples, il faudra bien sûr disposer autant de portes que de
parois.
Mais pour des raisons évidentes de commodité, il n’est pas question de faire un sas
par paroi ; on ne peut alors qu’augmenter le poids de chaque porte et augmenter
à l’endroit du passage l’espacement entre les murs pour que les deux portes soient
aussi éloignées que possible (figure 3.53b). L’étanchéité à l’air en périphérie de la
porte devra être parfaite.

F Baies vitrées
Les baies se comportent aussi comme des parois simples.
En raison de leur faible épaisseur (entre 8 et 20 mm) leur fréquence critique se
situe dans la région où l’oreille est la plus sensible : la fréquence critique d’une
vitre de 10 mm est de 1 500 Hz environ.
Les améliorations que l’on peut apporter le sont éventuellement au niveau
de  la  fixation de la glace à sa périphérie : on aura intérêt à la maintenir par
­l’intermédiaire de joints caoutchouc assez mous, (diminution de l’élasticité,
augmentation de l’amortissement), qui assurerait également l’étanchéité.
Comme pour les portes, au regard de la loi de masse, les baies vitrées sont une
faiblesse pour l’isolement d’une paroi, qui est souvent plus lourde.
On sera donc amené à doubler les glaces sur une même paroi et à rencontrer
les mêmes inconvénients que pour les parois doubles, dus au système masse-­
ressort-masse ainsi constitué. Dans ce cas, il n’est bien sûr pas question d’inter-
caler une laine de verre dans la cavité mais on peut en garnir les tableaux de baie.
Dans le cas de parois multiples, il faudra bien sûr mettre une baie vitrée au moins
par paroi, chacun des bâtis étant propre à chaque paroi. Les épaisseurs seront
différentes.
Afin de diminuer les effets dus aux résonances de la cavité d’air on incline une
vitre sur deux ce qui évite aussi les réflexions visuelles multiples qui existeraient
en cas de parallélisme.
Pour diminuer les effets dus à l’élasticité (effet « ressort » de l’air prisonnier entre
les deux vitres d’une même paroi), on est amené à faire communiquer la cavité de
l’air et l’intérieur du local par pose de plusieurs conduits de très faible section
(Ø ≈ 4 mm), qui permettent une décompression. Ces conduits ne nuisent pas à
l’isolement de la paroi.
Chapitre 3 – Acoustique architecturale 193

F Parois hétérogènes

✧✧ Définition
Ce sont celles dont une partie de la surface est constituée d’un autre matériau (ne
pas confondre avec les parois composite) ; par exemple une paroi maçonnée dans
laquelle existe une baie vitrée.

✧✧ Calcul de l’indice d’affaiblissement acoustique d’une paroi hétérogène


Nous avons défini au § 3.3.2 « Transmission d’une onde sonore » le coefficient de
transmission τ d’une paroi. Rappelons que :

1
R =10 log (loi de masse/fréquence)
τ
1
avec τ = 2
 f × ms 
1+  
 ρ oC o 

dans le cas d’une paroi hétérogène, le coefficient de transmission moyen sera


égal à :
S1τ1 + S2 τ2 +  + Sn τn
τmoy =
S1 + S2 +  + Sn

où S1… Sn sont les surfaces des parties de la paroi composée des matériaux de
coefficient de transmission τ1… τn.
1
On a donc Rmoy = 10 log .
τmoy

3.3.5 Isolation et bruits d’impacts


© Dunod – Toute reproduction non autorisée est un délit.

F Niveau de pression acoustique brut du bruit de choc

✧✧ Définition
Le mot isolement ne peut s’employer pour caractériser la capacité d’une paroi à
transmettre un bruit de choc.
Nous avons vu (§ 3.3.1) que le mot isolement impliquait qu’il y ait au départ une
transmission aérienne. Or, dans le cas d’un bruit de choc, la propagation du bruit
est d’abord solidienne et ensuite aérienne.
194 Le livre des techniques du son

La figure 3.54 décrit le cas le plus courant :

Figure 3.54 — Principe de mesure du niveau transmis d’un bruit de choc.

Les locaux 1 et 2 sont séparés par un plancher. Dans le local 1, un marteau frappe
le plancher ; ce plancher va rayonner dans le local 2 en donnant naissance à une
onde sonore de niveau L2. Ce niveau L2 est représentatif de la capacité du plan-
cher à transmettre le choc.
Mais, si l’on veut comparer deux planchers, il faudra bien que le choc soit le même :
c’est pourquoi l’acousticien a été amené à construire une machine à choc norma-
lisée, qui produira des chocs identiques sur tous les planchers : elle est constituée
de cinq marteaux pesant 500 g chacun, tombant l’un après l’autre d’une hauteur
de 4 cm et frappant le sol à la cadence de 10 coups par seconde.
On appelle niveau de pression acoustique brut du bruit de choc, le niveau L2,
mesuré dans le local de réception, par un micro omnidirectionnel, placé à un
mètre au moins de toute paroi. Ce niveau est mesuré pour les bandes 1/3 d’octave
normalisées.
Chapitre 3 – Acoustique architecturale 195

Pour résumer :
La valeur du niveau de pression acoustique brut du bruit de choc est le niveau
perçu dans le local de réception ; on ne tient pas compte du niveau L1 produit par
le choc dans le local d’émission, au contraire de l’isolement, qui représente la
différence entre deux niveaux.
Plus le niveau de pression acoustique brut transmis du bruit de choc est élevé,
plus mauvaise est l’isolation aux bruits de choc du plancher.

✧✧ Niveau de pression acoustique normalisé du bruit de choc (LN)


Comme pour l’isolement, on peut tenir compte de la durée de réverbération du
local de réception : une durée de réverbération assez longue augmentera le niveau
L2 du local de réception : il faut donc retrancher cet excédent de niveau dû à la
T
réverbération exprimé par le terme correctif 10 log , où T est la durée de
0, 5
réverbération du local 2 de réception, et 0,5 la durée de réverbération moyen
d’un local d’habitation.
T
On a donc pour une fréquence donnée : LN = LBrut − 10 log dB . Le niveau de
0, 5
pression acoustique normalisé du bruit de choc peut aussi être exprimé en dB(A),
il s’appelle alors LnAt.
Depuis 1999, de nouveaux indices européens sont utilisés pour définir les notions
précédentes ; ils résultent non plus d’un calcul, mais de la comparaison de la
courbe des valeurs du spectre du bruit de choc entre 125 Hz et 2 kHz à des courbes
de référence. Ainsi :
• Le niveau de pression acoustique pondéré du bruit de choc standardisé,
noté L´nT,w, a remplacé le niveau de pression acoustique normalisé du bruit
de choc noté LnAT. Il est exprimé en dB et non en dB(A) rose. Il n’existe pas
de correspondance entre la valeur du L´nT,w et celle du LnAT, mais sur des
dalles de béton avec des revêtements de sol usuels, on a généralement la
© Dunod – Toute reproduction non autorisée est un délit.

relation approximative suivante : L´nT,w = LnAT – 7.


• L’indice de réduction du bruit de choc pondéré noté ∆Lw, qui caractérise
l’efficacité d’un revêtement de sol et se mesure en laboratoire, a remplacé
l’indice d’efficacité au bruit de choc noté ∆L ; il est exprimé en dB et non
plus en dB(A).

F Isolation des planchers aux bruits de choc

✧✧ Principes
Deux méthodes sont utilisées :
196 Le livre des techniques du son

• disposer sur le plancher du local d’émission un deuxième plancher lourd


(dalle flottante en béton) ou léger (solives + panneau de bois), désolidarisé
du premier par un matériau résilient (figure 3.55a) ;
• doubler le plancher en construisant dans le local de réception un plafond à
une certaine distance du plancher, ce plafond peut être suspendu au plan-
cher par l’intermédiaire d’un matériau élastique (figure 3.55b) et le vide
entre plancher et plafond, peut recevoir une certaine épaisseur de maté-
riau absorbant.
On aboutit dans les deux cas à un système masse-ressort ou ressort-masse.
Dans le cas d’une isolation basée sur le principe de la « boîte dans la boîte », les
doublages latéraux, qui portent eux-mêmes le faux-plafond, peuvent reposer sur
la dalle flottante ; on dispose ainsi d’un doublage acoustique entièrement dissocié
par rapport à l’existant sur les six faces.

Figure 3.55 — a) Principe de plancher ou dalle flottante.


b) Principe de plafond suspendu élastiquement.

Notons que dans les deux cas, l’isolement du plancher se trouve ainsi renforcé par
l’isolation aux bruits de choc réalisée.
Signalons aussi que dalle flottante et plancher flottant peuvent être utilisés pour
réduire les transmissions par propagation solidienne, non pas entre deux locaux
superposés, comme dans le cas de la figure 3.55a, mais aussi entre deux locaux
adjacents (figure 3.56).
Chapitre 3 – Acoustique architecturale 197

Figure 3.56 — Réduction de la transmission solidienne


entre deux locaux adjacents par une dalle flottante.

3.3.6 Ventilation/climatisation et isolation


Les systèmes de ventilation peuvent être à l’origine de trois nuisances :
• les bruits émis par l’appareillage (ventilateur, compresseur, etc.),
• les bruits émis par l’écoulement de l’air,
• la faiblesse que constitue la traversée de l’isolation par une gaine.

F Choix de l’appareillage
Il devra être le plus silencieux possible et situé dans un local désolidarisé du
studio. Les ventilateurs de soufflage et d’extraction devront être centrifuges et
tourner à basse vitesse (< 1 000 tr/min).
Toutes les parties tournantes ou vibrantes devront être désolidarisées de la
© Dunod – Toute reproduction non autorisée est un délit.

­structure du bâtiment, si ce n’est déjà pas réalisé par le fabricant au niveau du


châssis de l’appareil, auquel cas celui-ci doit être réalisé au contraire solidaire de
la ­structure.

F Choix des gaines de ventilation

✧✧ Absorption interne
Les gaines véhiculent certaines fréquences du spectre de bruit du ventilateur.
Pour absorber celles-ci, on dispose en sortie du ventilateur un « piège à son ».
Celui-ci, dûment calculé en fonction du niveau de bruit et des fréquences à
198 Le livre des techniques du son

absorber, est en général constitué de panneaux absorbants qui divisent la gaine


en plusieurs conduits, augmentant ainsi la surface d’absorption (figure 3.57).
D’autre part, les gaines doivent être reliées au groupe ventilateur, par des
manchettes souples de raccordement qui évitent la transmission des vibrations
du groupe à la gaine.

Figure 3.57 — Principe d’un piège à sas à baffle absorbant linéaire.

Quand cela est possible, les parois internes des gaines seront habillées par un
matelas de laine minérale (traité en surface pour éviter le détachement de parti-
cules) collé sur une mince feuille d’aluminium. Ce matelas assure une isolation
thermique et absorbe plus ou moins les bruits véhiculés par celle-ci.

✧✧ Calcul des gaines


Sans entrer dans les calculs d’aérolisme, sachez que le débit D d’air d’une gaine est
relié à sa section (S) par la formule :

D = S × V
où V est la vitesse de l’air dans la gaine.
Afin d’éviter tout bruit d’écoulement exagéré, on détermine S de telle sorte que V
ne dépasse jamais 2 ou 4 m/s au maximum.

✧✧ Choix des bouches de soufflage ou d’extraction


On choisira des bouches silencieuses ; là aussi, les fabricants donnent toutes les
informations voulues. Afin d’éviter le bruit, on veillera à ne jamais dépasser une
vitesse de soufflage en sortie de bouche supérieure à 1 ou 2 m/s.
Chapitre 3 – Acoustique architecturale 199

F Traversée de l’isolation par les gaines de ventilation


Comme nous l’avons déjà dit, la traversée de l’isolation par les gaines de ventila-
tion provoque une faiblesse dans l’isolement.
Cette faiblesse peut être combattue :
• en évitant de traverser l’isolation ou du moins de le faire plusieurs fois,
• en disposant à la traversée de la paroi un « piège à son » présentant un
affaiblissement égal à celui de la paroi.

3.3.7 Bruit de fond dans une salle


Le bruit de fond dans une salle est le niveau de pression acoustique régnant dans
cette salle, tout système inhérent au local étant en marche (climatisation, éclai-
rage, etc.).
Il dépend donc de l’environnement extérieur de la salle, de son isolation et des
bruits parasites inhérents au local.
Une série de courbes normalisées a été élaborée par l’ISO (International standard
organisation) ; ce sont les courbes NR (Noise rating curves) qui sont données à
la figure 3.58. Elles servent de référence pour définir un certain niveau de bruit
de fond.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 3.58 — Courbes ISO NR. La courbe NR 15 représente le bruit de fond


à ne pas dépasser dans un studio d’enregistrement.
200 Le livre des techniques du son

Elles tiennent compte des propriétés de l’oreille qui privilégie les hautes fréquences
par rapport aux basses fréquences.
Par exemple, le bruit de fond d’un bon studio de prise de son ne doit pas dépasser
la courbe NR 15.

3.4 Bibliographie
[1] V.O. Knudsen et C.M. Harris, Projet acoustique en architecture (1949). Traduit et
adapté par R. Cadiergues et A. Moles, Dunod (1957).
[2] R. Lamoral, Problèmes d’acoustique des salles et des studios. Coll. CNET, Chiron
(1967).
[3] R. Lamoral, Acoustique et architecture. Masson (1975).
[4] E. Leipp, Acoustique et musique (fac-similé de la 4e édition de 1984), Presses des
Mines, Paris (2011).
[5] J. Pujolle, Lexique – Guide d’acoustique architecturale. Coll. COMAPI, Eyrolles
(1971).
 .-H. Parkin et H.-R. Humphreys, Acoustics Noise and buildings. Faber (1958).
[6] P
[7] J .-J. Matras, Acoustique et électro-acoustique. Eyrolles (1967).
 . Meisser, La pratique de l’acoustique dans le bâtiment. CATED-Eyrolles (1971).
[8] M
 rüel et Kjaer. Architectural Acoustics (1978).
[9] B
[10] INA Radio France, L’homme d’aujourd’hui dans la société sonore (1978).
[11] A.-C. Raes, Isolation sonore et acoustique architecturale. Chiron (1964).
[12] J. Pujolle, La pratique de l’isolation acoustique des bâtiments. Le Moniteur
(1978).
[13] L. Cremer et H.-A. Müller, Principles and applications of room acoustics. Applied
Science publishers (1982).
[14] BBC Engineering, Guide to acoustic practice (1980).
[15] V.-L. Jordan, Acousticals Design of Concert halls and theaters. Applied Science
publishers (1980).
[16] R. Mackenzie, Auditorium acoustics. Applied Science publishers (1975).
[17] H. Kuttruf, Room acoustics. Applied Science publishers (1979).
[18] M. Meisser, La correction acoustique des locaux. CATED (1983).
[19] M. Forsyth, Buildings for music. The MIT Press (1983).
[20] Bolt, Beranek and Newman Inc., Reverberation Time Data for some North
American concerts hall, unoccupied (1980).
Chapitre 3 – Acoustique architecturale 201

[21] Xu Yaying, Corrélations entre l’appréciation subjective et les paramètres objec-
tifs des salles de concert. IRCAM (1981).
[22] R. Lehmann, L’acoustique des bâtiments. PUF (1968).
[23] L. Chrétien, Éléments d’acoustique. Chiron (1960).
[24] E. Zwicker et R. Feldtkeller, Psycho-acoustique. CNET ENST, Masson (1981).
[25] Conférences des Journées d’Études du Festival du Son (1968 à 1979).
[26] G. Charrière-Grillon et L. Fabri-Canti, Le gothique et la musique à partir de
l’exemple ­dionysien.
[27] M.-R. Schroeder, Progress in Architectural Acoustics and artificial reverbera-
tion : Concert Hall – Acoustics and Number Theory. JAES (avril 1984).
[28] O. Alain, M.-C. Alain et H. Schack, L’intégrale de l’œuvre d’orgue de J.-S. Bach.
Costallat.
[29] P. d’Antonio et J.-H. Konnert, The reflexion phase grating diffusion : design
­theory and ­application. JAES (avril 1984).
[30] A. Fischetti, Initiation à l’acoustique, cours et exercices. Coll. « Sup Sciences »,
Belin (2004).
[31] L. Hamayon, Comprendre simplement l’acoustique des bâtiments. Le Moniteur
(2008). En couverture, deux réalisations de l’Architecture-studio et du bureau
d’étude Éric Vivié.
[32] L. Hamayon, Réussir l’acoustique des bâtiments. Le Moniteur (2006).
Chapitre 4

La perception auditive

M’Paya Kitantou
Docteur en acoustique. Ancien responsable d’actions
de formation à l’Institut national de l’audiovisuel (INA)

4.1 Les propriétés de l’ouïe

4.1.1 Le champ auditif


L’être humain, dans son environnement naturel, est baigné dans un champ acous-
tique. Les événements d’origine acoustique s’imposent à lui sans qu’il lui soit
possible de les éviter : on ne peut « fermer » les oreilles comme on ferme les yeux.
En ce qui concerne la perception des sons, une incertitude apparaît, celle qui est
due à la variabilité inter et intra-individuelle. Toutes les lois définissant les rela-
tions psychologiques entre grandeurs physiques et sensations sont des lois statis-
tiques et les limites de validité apparaissent dès que l’incertitude devient plus
grande que le phénomène à mesurer.
On mesurera donc de façon générale sur une oreille qualifiée de « moyenne »
et on gardera présente à l’esprit l’importance des facteurs psychologiques (cogni-
tifs, culturels, sociologiques…) dans l’interprétation des signaux perçus. Les
composantes du « stimulus » (son qui atteint le récepteur auditif) sont appelées
204 Le livre des techniques du son

g­ randeurs d’excitation. Les stimulus perçus provoquent les sensations. Néan-


moins, toutes les vibrations ne procurent pas une sensation auditive.

F La bande passante de l’oreille


C’est ainsi que les vibrations périodiques d’une fréquence inférieure à 20 Hz appe-
lées « infrasons » ne donnent pas lieu à une sensation auditive pour l’homme. Les
variations de pressions de l’ordre du hertz (1 cycle par seconde) ne procurent pas
une sensation auditive (mais plutôt tactile). Ce n’est qu’autour de 20 Hz qu’appa-
raît la sensation de hauteur. Le passage à la perception de la hauteur n’est pas fixe
et peut être différent d’un individu à l’autre.
D’autre part, les vibrations périodiques d’une fréquence supérieure à 20 000 Hz
ne produisent très souvent plus de sensation auditive. Ces vibrations ne
­constituent pas le fondamental d’un son musical mais peuvent faire partie des
composantes de fréquences élevées. Les fréquences supérieures à 20 kHz, sont
appelées ultrasons et permettent à certains animaux de capter des informations
­directionnelles, les oreilles (ou l’organe équivalent) se comportant alors comme
des sonars.

F Le seuil d’audibilité
La sensibilité de l’oreille n’est pas égale sur toute sa bande passante et la zone des
fréquences moyennes comprises entre 2 000 et 3 000 Hz est favorisée de façon
naturelle (voir § 4.3.1). Le seuil d’audibilité pour une fréquence donnée est son
plus petit niveau sonore perceptible. Il est de 0 dB SPL pour un son pur de 1 000 Hz,
mais de 40 dB SPL pour un son pur de 50 Hz, soit donc une valeur de pression
100 fois plus grande que celle qui est nécessaire pour le son de 1 000 Hz. En mesu-
rant ainsi les seuils d’audibilité pour toutes les fréquences produisant une sensa-
tion auditive et en reliant les différents points obtenus on détermine une courbe
statistique représentant la courbe du seuil d’audibilité de « l’oreille moyenne »
humaine. Il est à noter que pour les fréquences médiums, l’oreille est capable de
percevoir des niveaux très faibles inférieurs à 0 dB SPL, juste un peu au-dessus du
bruit engendré par l’agitation des molécules d’air.

F Le seuil de douleur
Un son très fort provoque plutôt une sensation désagréable et même parfois
douloureuse. Cela signifie que nous ne pourrons entendre un son dont le niveau
global est supérieur à 130 dB SPL, sans risque grave de détérioration de notre
système auditif (voir § 4.3.3).
La valeur de 130 dB n’est qu’une valeur statistique, des écarts de quelques décibels
pouvant en effet exister d’un individu à un autre. L’aire délimitée par le seuil
Chapitre 4 – La perception auditive 205

d­ ’audibilité et le seuil de douleur porte le nom de champ auditif et le domaine de


la parole en est au centre (figure 4.1).

Figure 4.1 — Le champ auditif d’un être humain est la zone comprise
entre le seuil de perception (limite inférieure) et le seuil de douleur (limite supérieure).

Il est à noter que les énergies mises en jeu pour atteindre le seuil de douleur et le
seuil d’audibilité sont dans un rapport de l’ordre de un à dix mille milliards dans
les fréquences médiums.
Dans la vie quotidienne, il est plus utile de détecter une information qualitative
ou relative qu’une information quantitative ou absolue. L’oreille, à l’instar des
autres organes des sens, est plus performante pour détecter une différence entre
deux grandeurs (analyse différentielle) que pour en évaluer les niveaux absolus
(mesure).

4.1.2 Fréquence et intensité


© Dunod – Toute reproduction non autorisée est un délit.

F La perception différentielle des intensités


L’oreille est plutôt sensible à des écarts d’intensité qu’à leur valeur : pour juger si
un son est plus fort qu’un autre, il faut en augmenter le niveau suffisamment pour
dépasser un seuil appelé seuil de perception différentielle. Pour percevoir un
accroissement à l’écoute d’un son fort, il faudra une augmentation d’intensité plus
importante que pour un son faible.
Des expériences sur le toucher nous montrent que si l’on soupèse un poids de
100 g (I), il est nécessaire de l’augmenter de 5 g (∆I) pour qu’il paraisse plus
206 Le livre des techniques du son

lourd. Ensuite un poids de 200 g devra être augmenté de 10 g et celui de 500 g


de  25 g  pour donner la même sensation. On constate que le rapport
∆I 5 10 25
= = = est constant.
I 100 200 500
Il faut donc augmenter le stimulus de 5 % pour provoquer une sensation de
poids accrue.
F La loi de Fechner
La loi de Fechner s’applique à l’ensemble des organes des sens et affirme que l’aug-
mentation relative de la sensation est proportionnelle au logarithme de la gran-
deur excitatrice.
Autrement dit : « La sensation varie comme le logarithme de l’excitation ». C’est
pour tenir compte de cette loi que l’on utilise les décibels.
L’intensité de la sensation s’élève par échelons successifs. À chaque échelon
correspond une certaine augmentation de l’excitation égale au seuil différentiel
I ∆I
d’intensité soit ∆S = K . Ce ∆S varie donc en fonction de l’intensité
I I
­considérée comme référence. Les potentiomètres de contrôle d’écoute sont
conçus de telle façon que leur atténuation passe de 0 à moins l’infini (– ∞) par une
décroissance « exponentielle ». En effet, si l’on veut obtenir une variation
« linéaire » de la sensation sonore proportionnelle au déplacement « rectiligne »
du curseur, il faut que le potentiomètre provoque une variation de l’excitation qui
soit l’inverse de la variation de la sensation. Les fonctions exponentielles et loga-
rithmiques sont bien inverses l’une de l’autre (figure 4.2).

Figure 4.2 — Les fonctions exponentielle et logarithme sont inverses.


La sensation variant comme le logarithme de l’excitation, les potentiomètres
doivent reproduire une décroissance exponentielle.

La variation de la sensation serait, d’après Fechner, la même lorsqu’on passe d’un


violon à dix violons ou de 10 à 100 violons ou encore de 100 à 1 000 violons
puisque le rapport est toujours de 10.
Chapitre 4 – La perception auditive 207

L’estimation de ce gain peut alors être exprimée sous forme d’un rapport loga-
rithmique :
∆I ∆I 100 10 1
Soit S = k log . Il vient pour notre exemple : = = = et :
1 I I 1000 100 10
S  k log exprimé en Bels. Nous choisirons k égal à 10 afin d’exprimer S en
10 1
décibels, soit : S = 10 log = 10 × (−1) = −10dB.
10
Nous aurons augmenté de 10 dB la sensation en passant de 1 à 10 violons jouant
tous à la même intensité.
Ceci conduira à prendre une nouvelle unité de niveau sonore traduisant la percep-
tion subjective : le phone. Ainsi, pour un son pur, le niveau sonore perçu exprimé
en phones est, par définition, le même que celui d’un son pur de 1 000 Hz, exprimé
en dB, donnant la même sensation sonore. Pour un son complexe, l’évaluation
subjective dépend de l’intégration de chaque composante et peut donner lieu à des
« distorsions perceptives » importantes. Cette perception intégrée est modulée par
de nombreux facteurs : champ libre, champ diffus, largeur de bandes…
Par ailleurs, le fait que l’oreille ne réagisse pas de façon identique dans tout le
spectre ne peut nous permettre de généraliser.
Aussi, a-t-il fallu tenir compte de la réponse en fréquence de l’oreille et établir des
courbes de niveaux par paliers successifs sur l’ensemble de la gamme audible.

F Sonie et courbes isosoniques


La sensation de même force sonore nous permet de décrire de façon plus précise
le comportement de l’oreille en fréquence lorsque l’on modifie l’intensité du son.
Nous réaliserons pour ce faire, des courbes d’égale sensation sonore. C’est ainsi
que Fletcher et Munson ont élaboré de façon statistique sur des individus
normaux les courbes isosoniques (figure 4.3) qui ont ensuite été précisées par
Robinson et Dadson.
© Dunod – Toute reproduction non autorisée est un délit.

Un son pur de 1 000 Hz sert de référence et le niveau de 0 dB de la courbe isoso-


nique correspond au 0 dB SPL (soit une variation de pression de 2 × 10–5 pascals).
Chaque courbe isosonique correspond à l’intensité pour laquelle toutes les
fréquences de la gamme audible provoquent une sensation de niveau (appelée
sonie) égale à celle du niveau du son de référence de 1 000 Hz.
Cette mesure est effectuée de 0 à 130 dB SPL par bonds de 10 dB. On notera que la
sonie croît de façon pratiquement logarithmique à toutes les fréquences, ce qui
explique que l’échelle des décibels est bien adaptée à la sensation de niveau.
208 Le livre des techniques du son

Figure 4.3 — Courbes de niveaux d’isosonie.

On remarquera aussi sur le diagramme (figure 4.3) que les courbes supérieures


sont beaucoup moins incurvées que les courbes inférieures. Cela signifie que la
sonie d’un son faible varie beaucoup avec la fréquence alors qu’elle varie peu pour
un son fort. C’est pourquoi, on ne peut pas juger la sonie d’un son à un niveau
différent de son intensité naturelle.
On en déduit que la réponse en fréquence de l’oreille est très différente entre une
écoute à fort niveau et une écoute à faible niveau. C’est pour cette raison que les
constructeurs de chaînes haute-fidélité prévoyaient un filtre appelé « correcteur
physiologique » ou « contour d’intensité » (loudness). Lors d’une écoute à faible
niveau, ce filtre permet d’amplifier les composantes graves et aiguës du spectre
pour compenser le creux des courbes isosoniques. Lors des mesures de bruit (voir
chapitre 1), il est courant d’utiliser un système de pondération tenant compte des
courbes isosoniques aux différents niveaux.
Ces sont les courbes de pondération A, B et C (figure 4.4) basées sur les courbes
isosoniques.
La courbe A (correspondant à la courbe de 40 phones du réseau de Fletcher) est
utilisée pour mesurer des niveaux de bruit compris entre 0 et 55 dB.
La courbe B (correspondant à la courbe de 70 phones du réseau de Fletcher) est
utilisée pour mesurer des niveaux de bruit compris entre 55 et 85 dB.
La courbe C (correspondant à la courbe 100 phones du réseau de Fletcher) est
utilisée pour évaluer des niveaux de bruit compris entre 85 et 130 dB.
Chapitre 4 – La perception auditive 209

Le niveau en pondération A (on écrit alors dB(A) ou dB-A) permet de réaliser une
bonne corrélation entre les nombreux critères d’évaluation subjectifs possibles
existants. Aussi, la plupart des mesures de bruit sont-elles faites presque unique-
ment en dB(A).
Pour l’évaluation du bruit de survol d’un avion, on a longtemps utilisé une pondé-
ration D au lieu de A, en raison de la nature particulière de ce type de bruit.

Figure 4.4 — Courbes de pondération (ou réponses des filtres) A B C D


du sonomètre Brüel et Kjaer.

Toutefois les décibels pondérés dans leur ensemble ne sont plus utilisés depuis
l’année 2000, année de l’harmonisation des normes acoustiques dans l’Union
européenne. L’unité de niveau acoustique adoptée pour toute situation de mesure
est le décibel (dB). En France, néanmoins, le dB(A) reste employé pour la mesure
des niveaux de bruit de fond d’un lieu et du bruit de climatisation.

F L’audiogramme tonal
Afin de déceler les pertes d’audition ou les lacunes tonales chez un être humain,
© Dunod – Toute reproduction non autorisée est un délit.

on procède à un test de sensibilité en vue d’établir un audiogramme tonal.


Les conditions de mesures sont très simples : l’auditeur écoute au casque un son
sinusoïdal de fréquence donnée dont on fait varier le niveau. Chaque fois qu’il
perçoit un son, l’auditeur appuie sur un bouton. L’opérateur peut ainsi déterminer
le seuil d’audibilité pour chaque fréquence. Il relève alors la courbe pour chaque
oreille et la compare ensuite à la courbe nominale de Fletcher et Munson. Le
graphique obtenu (figure 4.5) fait état des pertes de sensibilité par rapport au seuil
normalisé de l’audition.
210 Le livre des techniques du son

Figure 4.5 — Audiogramme tonal des deux oreilles (OD + OG) d’une personne
et montrant leur déficience marquée à la fréquence entre 4 et 6 kHz.

L’audiogramme tonal, n’étant réalisé qu’avec des sons purs, reste souvent insuffi-
sant. Des tests d’intelligibilité de la parole et de la perception par conduction
osseuse complètent cette étude.

4.1.3 La perception de la hauteur et de la durée


F La perception différentielle en fréquence
L’oreille est sensible aux variations en fréquence d’un phénomène acoustique.
Il  a  été possible de déterminer la plus petite différence de fréquence ∆f qui
permette de distinguer la hauteur de deux sons : l’un étant plus grave ou plus aigu
que l’autre.
Le plus petit intervalle perceptible ∆f dépend de la fréquence. Ce n’est pas l’écart
que l’on juge mais le rapport entre cet intervalle et la fréquence de référence f,
f
autrement dit . Appelé seuil de perception différentiel relatif en fréquence, ce
f
rapport est pratiquement constant pour les fréquences moyennes et sa valeur est
d’environ 3/1 000e soit 3 Hz à 1 000 Hz et 6 Hz à 2 000 Hz, etc.
La courbe de sensibilité aux différences de hauteur (figure 4.6) nous montre que
le seuil différentiel relatif est plus élevé pour les sons graves et pour les sons aigus.
La zone moyenne de l’oreille couvrant le domaine de la parole (500 à 4 000 Hz) est
plus sélective dans le domaine fréquentiel.
Chapitre 4 – La perception auditive 211

Figure 4.6 — Variations de ∆f/f avec la fréquence.

F L’appréciation des hauteurs


La perception de la hauteur est un phénomène psychologique et désigne une
qualité de son perçu.
La sensation de hauteur varie :

✧✧ Avec la fréquence
La hauteur est une grandeur liée à la fréquence mais il y a lieu de faire la distinc-
tion entre : la fréquence qui est la grandeur physique caractérisant le stimulus et
la hauteur subjective qui caractérise la sensation.
La hauteur subjective ou hauteur perçue n’est pas une fonction linéaire de la
fréquence. L’oreille comprime l’échelle des fréquences et l’octave de 1 000 Hz ne
correspond pas à 2 000 Hz mais à 2 100 Hz. Comme on l’a fait pour la sonie en
introduisant une échelle qui traduit la perception relative de deux sons de niveaux
© Dunod – Toute reproduction non autorisée est un délit.

différents, on définit une échelle traduisant la perception relative de deux sons de


hauteurs différentes : on obtient ainsi l’échelle de tonie. L’unité de tonie est le mel,
unité de hauteur subjective : 1 000 mels correspondent à la hauteur d’un son pur
de 1 000 Hz dont le niveau d’isosonie est de 40 phones. Les conséquences de la
non-linéarité de l’échelle de tonie sont nombreuses (sons complexes, filtrés…) et
entraînent des distorsions importantes dans la perception des sons musicaux.

✧✧ Avec le niveau sonore


Quand l’intensité d’un son pur croît, la sensation de hauteur varie : elle croît pour
les fréquences élevées et décroît pour les fréquences basses. Les diminutions
212 Le livre des techniques du son

ont  pu atteindre ± 8 % de la fréquence et peuvent avoir pour conséquence la


p­ erception de jeu « faux » si le musicien qui joue une note tenue crescendo ne
compense pas la hauteur de la note.

✧✧ Avec la durée du signal


Les sons brefs (de durée inférieure à 1 seconde) ne sont pas perçus de la même
façon que les sons permanents. Un son pur de 1 000 Hz durant 0,02 s est perçu
comme un son de fréquence inférieure. Ce phénomène est dû à la variation de la
constante de temps de l’oreille.
L’oreille peut aussi « octavier » facilement, c’est-à-dire confondre une hauteur
avec son octave supérieure, ceci par manque d’informations en harmoniques. Un
son musical périodique est formé de nombreuses composantes harmoniques
(voir chapitre 2). Le fondamental n’est que la première harmonique du son et
donne la hauteur du son.
Il peut arriver que le fondamental soit faible ou inexistant mais la répartition
des harmoniques supérieures nous redonne une sensation de hauteur. Pour s’en
persuader, il suffit d’écouter la retransmission d’un concert de musique
­symphonique sur un petit transistor. Le haut-parleur de faible dimension est
incapable de reproduire les fréquences basses du spectre. Nous percevons
­néanmoins les hauteurs du jeu des contrebasses. Cette qualité de l’oreille est
mise  en  relief dans la théorie des résidus et son étude est particulièrement
complexe.

✧✧ Avec le timbre
La présence d’un formant dans un spectre peut modifier la sensation de hauteur
d’une note. Un formant aigu peut faire apparaître une note plus haute. De ce
phénomène, ont été tirés les sons « paradoxaux » étudiés par J.-C. Risset [22].

F Les intervalles musicaux


La hauteur d’un son périodique, correspondant le plus souvent à la fréquence du
fondamental, porte le nom d’une note dans le solfège traditionnel : on parlera
alors du La3 du diapason pour un son de hauteur 440 Hz. L’intervalle entre les
deux hauteurs ne se mesure pas par la différence des fréquences (f1 – f2) mais par
f
le rapport de celles-ci 2 .
f1
Les intervalles de la série harmonique donnent des rapports mathématiques
simples.
Il suffit pour le vérifier d’analyser un Do2 et sa série d’harmoniques :
Chapitre 4 – La perception auditive 213

1er harmonique
2e H 3e H 4e H 5e H 6e H 7e H 8e H 9e H 10e H
fondamental

Do2 Do3 Sol3 Do4 Mi4 Sol4 Si b4 Do5 Ré5 Mi5

Nous vérifierons que l’octave, intervalle simple entre Do2, Do3, Do4 et Do5
correspond à un doublement de la fréquence (1e H, 2e H, 4e H et 8e H).
L’intervalle défini par le 2e et le 3e harmonique soit Do3-Sol3 correspond à une
quinte (rapport de 3/2).
Entre le 8e et le 9e harmonique, Do5 et Ré5, existe un intervalle de seconde majeure
(rapport de 9/8). Les autres intervalles théoriques sont donnés par le tableau 4.1
et ont servi de base pour l’établissement des différentes gammes dont le système
tempéré.
Tableau 4.1 — Les intervalles théoriques déterminés par les harmoniques d’un Do.

Notes Nom de l’intervalle Rapport naturel

Do – Ré Seconde majeure 9/8


Do – Mi Tierce majeure 5/4
Do – Fa Quarte juste 4/3
Do – Sol Quinte juste 3/2
Do – La Sixte majeure 5/3
Do – Si Septième majeure 15/8
Do – Do Octave juste 2

Dans la gamme tempérée, l’octave a été divisée en 12 demi-tons égaux. Une suite
géométrique de raison α régit la répartition des demi-tons consécutifs f0, f1, f2…
et f12 l’octave. Ils seront liés par la relation f1 = α f0 et f2 = α f1, soit f2 = α2 f0 et ainsi
de suite… f12 = α12 f0.
f α12 f 0
Sachant d’autre part que 12 , il vient alors = 2 et α12 = 2 donc
f0 f0
α = 2 = 1, 059 .
12
© Dunod – Toute reproduction non autorisée est un délit.

Pour obtenir la note du demi-ton supérieur, il suffira de multiplier par α = 1,059.


Avec La3 = 440 Hz, La # 3 = 466 Hz, Si3 = 494 Hz, Do4 = 523 Hz.
La perception différentielle de l’oreille dans le domaine des fréquences est beau-
coup plus fine que le demi-ton. Certaines musiques orientales utilisent des inter-
valles plus petits.
Ce type de calcul valable dans les fréquences médiums du spectre ne l’est plus
pour les notes graves et pour les notes aiguës. C’est pour cette raison que les
­accordeurs de pianos ont toujours refusé d’utiliser les accordeurs électroniques.
214 Le livre des techniques du son

En effet, lorsqu’un piano est bien accordé, on remarque que les notes graves sont
un quart de ton plus bas qu’en théorie et les notes aiguës plus hautes de la même
quantité. Il s’agit cette fois du mécanisme de la perception des spectres inharmo-
niques du piano. Les accordeurs ont raison de se fier à leur oreille plutôt que de
faire des calculs de fréquence [15], en utilisant entre autres le phénomène de
battements.

F La perception de la durée
La perception subjective du temps est une grandeur très difficile à évaluer.
Contrairement à celle de la fréquence (oreille absolue), l’évolution de la durée
d’un phénomène est sujette à une grande variabilité. Elle dépend de nombreux
facteurs psychologiques (état d’éveil, conditions d’écoute, habitude…).
Le facteur temps joue un rôle primordial dans sa relation avec les autres variables :
fréquence, niveau, espace… qu’il affecte de façon significative.

4.2 Les caractéristiques de l’audition

4.2.1 L’écoute naturelle


La perception auditive chez l’être humain est à l’origine une faculté instinctive de
prévention contre les dangers naturels. L’ouïe joue alors un rôle d’alerte souvent
plus efficace que la vue et le toucher. Constamment en éveil, le jour comme la nuit,
cette fonction naturelle a pour rôle principal de transmettre au cerveau les sons
perçus pour interprétation.

F L’effet de masque
Dans les conditions générales d’environnement, les sons ne se produisent jamais
de façon isolée et ne sont pas constitués de sons purs mais plutôt complexes. Ces
sons complexes simultanés interagissent pour donner lieu à une perception
globale qui peut être très différente de celle de chaque son pris isolément.
Nous avons déjà tous constaté la gêne qu’il y avait à percevoir correctement un
son en présence d’un autre son ou d’un bruit continu. La vie de tous les jours nous
en offre de multiples exemples : une conversation relativement aisée dans une
voiture ou un train à l’arrêt devient en effet pénible à poursuivre lorsqu’ils
démarrent. Cela oblige les interlocuteurs à élever le ton en rendant au besoin la
voix plus aiguë pour continuer à se comprendre. Tout se passe comme si l’oreille
devenait atteinte d’une surdité partielle vis-à-vis du son qui l’intéresse quand elle
se trouve ainsi exposée en même temps à d’autres sons ou bruits. Lorsque le
Chapitre 4 – La perception auditive 215

niveau de ces derniers augmente, la conversation devient de moins en moins


intelligible.
C’est ce phénomène, traduisant de façon générale la disparition des sons faibles
en présence des sons forts qu’on appelle l’effet de masque. Par convention le son
faible est appelé son masqué et désigné par « m », et le son fort est appelé son
masquant que l’on désigne par « M ». L’effet de masque est interprété comme un
déplacement du seuil de l’audition provoqué par le son le plus fort et dépend de
l’écart de fréquence et de niveau entre les deux sons.

Figure 4.7 — Masquage d’un son utile par un bruit.

Physiquement, l’addition de sons purs de mêmes niveaux se traduit par un


© Dunod – Toute reproduction non autorisée est un délit.

accroissement variable selon la cohérence des signaux. L’addition de sons


complexes obéit à la loi d’additivité non-linéaire et donne un maximum de + 3 dB.
Subjectivement, il y a modification du seuil de perception d’un son m (masqué)
lorsqu’il est écouté en présence d’un son M (masquant). Les autres propriétés
perceptives observées avec des sons purs sont également modifiées par la présence
de sons masquants.
L’étude du phénomène de masquage a été abordée de deux façons : d’une part
avec des sons purs en faisant varier la fréquence et le niveau, d’autre part avec des
bandes de bruit en jouant sur la largeur de la bande et le niveau global [13].
216 Le livre des techniques du son

Figure 4.8 — Effet de masque d’un son pur de 1 200 Hz sur des sons purs
de fréquences de 20 Hz à 4 000 Hz (d’après Vegel et Lane).
En ordonnée : ∆Ls = relèvement du seuil du son masqué en présence du son masquant,
c’est-à-dire le niveau dont il faut augmenter le niveau du son masqué pour qu’il ait
la même intensité subjective que s’il n’y avait pas de masque (seuil d’audibilité).
En abscisse : fs = fréquence des sons masqués.

L’expérience des sons purs consiste à choisir la fréquence d’un son masquant
(1 200 Hz dans le cas de la figure 4.8) et à vérifier quel doit être le niveau minimum
des autres fréquences afin qu’elles ne soient pas masquées à l’écoute. On s’inté-
resse pour cela à la quantité appelée relèvement du seuil d’audibilité du son
masqué en présence d’un son masquant, noté ∆Ls et déterminé selon le prin-
cipe suivant :
On fait entendre à un auditeur placé dans un local silencieux un son de fréquence
quelconque f1 et on détermine le niveau de son seuil d’audibilité que l’on note
Ls1 (Ls pour le niveau du signal). On introduit ensuite dans le champ acous-
tique précédent un deuxième son – son masquant – émis à un niveau assez
élevé, entraînant ainsi pour l’auditeur la disparition du premier son. On cherche
à nouveau à rendre ce premier son perceptible en augmentant son niveau. Ce
qui se produit pour une certaine valeur que l’on note Ls2. La quantité obtenue
par la différence des deux niveaux donne le relèvement du seuil cherché :
∆Ls = Ls2 – Ls1.
Chapitre 4 – La perception auditive 217

✧✧ Masquage par des sons purs


Quand le masque M est constitué d’un son pur, les principaux résultats
observés sont :
• masquage maximum pour les fréquences voisines (fm # fM),
• masquage important pour fm > fM,
• peu d’effet sur les fréquences inférieures à fM,
• des battements pour fm  nfM (n entier).
L’apparition de battements pour n > 1 montre que l’oreille réagit aux multiples
entiers d’une fréquence pure. Cette sensibilité aux harmoniques subjectives est
due aux propriétés de non-linéarité de l’oreille. Les conséquences sont nombreuses
et peuvent être illustrées par les cas suivants :
• apparition d’harmoniques subjectives d’un son pur,
• addition d’un fondamental inexistant physiquement (fondamental
subjectif),
• interaction de deux sons purs pour générer des sons de sommation
­subjectifs : sons additifs, ou soustractifs de fréquence mf1 ± nf2.
Les modèles de distorsions non-linéaires de l’ouïe rendent bien compte de la
­création des sons de combinaisons.
Sur la figure 4.8, on remarque que les fréquences graves ne sont pratiquement pas
gênées ou masquées ; il n’en est pas de même des fréquences aiguës qui doivent
avoir, pour ne pas être masquées, des niveaux presque équivalents à ceux du son
masquant. D’autres remarques se dégagent de l’étude du phénomène de masque :
• l’effet de masque est d’autant plus important que le niveau du son masquant
est intense ;
• l’effet de masque n’a pas lieu quand le son masquant a sensiblement le
même niveau que celui du son masqué ; il augmente au fur et à mesure que
© Dunod – Toute reproduction non autorisée est un délit.

le niveau du son masqué diminue.

✧✧ Masquage par bruit blanc


Afin d’éviter la création de sons de combinaisons, on préfère étudier l’effet d’un
son masquant de bande large. L’effet de masquage d’un bruit blanc sur des sons
purs compris entre 100 et 8 000 Hz donne des courbes sensiblement parallèles et
est à peu près proportionnel au niveau du son masquant.
L’effet de masque d’un bruit blanc varie avec la largeur de la bande de bruit.
Pour  des masques à bande étroite, on obtient des courbes de masquage
218 Le livre des techniques du son

ayant  un  maximum très prononcé au voisinage de la fréquence centrale de


la bande.
L’effet de masque s’accompagne, dans de nombreux cas, par des modifications de
timbre. Le preneur de son s’en rend compte dans la pratique de son métier : une
disposition un peu hasardeuse de certains instruments peut influencer le résultat.
Un instrument peut « mal sonner » lorsqu’il est à proximité d’un autre. Les
orchestrateurs tiennent compte de ce point [10], [21], [26], [29].
Le masquage peut également être consécutif à un bruit. Il est dû dans ce cas à un
effet de perte temporaire ou déplacement du seuil d’audition en raison de la
fatigue auditive (voir § 4.3.3).

✧✧ Application de l’effet de masque acoustique. Réduction de débit binaire


Le phénomène d’effet de masque acoustique est utilisé dans le codage dit codage
psychoacoustique dans le but de réduire, de manière considérable, le volume des
données sonores à stocker ou à transmettre. Le principe consistant à ne trans-
mettre que ce que nous entendons (ou données pertinentes) et à supprimer ce
que nous n’entendons pas, la restitution (reconstruction) du message sonore
donnant cependant un son proche de l’original.
Il faut toutefois savoir que les données volontairement écartées par le logiciel
de  codage ne peuvent plus être retrouvées par la suite. Un signal ayant fait
l’objet d’une réduction de débit est définitivement transformé (voir annexe A2,
tome 2).

F Localisation spatiale
Avant même de reconnaître la nature exacte d’un danger, l’oreille doit localiser la
source sonore dans l’espace, c’est-à-dire évaluer la direction et la distance.
Le concept de localisation par analyse différentielle des signaux parvenant aux
deux oreilles est récent. Jusqu’à la seconde moitié du xixe siècle, on pensait que le
fait d’avoir deux oreilles permettait un accroissement des capacités auditives.
Lord Rayleigh, en 1877 et 1907, puis Von Békésy en 1930 ont montré que la diffé-
rence de temps ∆t (entre les deux oreilles) ainsi que la différence d’intensité ∆I
permettent la localisation d’une source sonore.

✧✧ Modèle de Woodsworth (1962)


Ce modèle permet d’évaluer par le calcul la « différence de marche » des trajets
sonores entre les deux oreilles.
La localisation d’une source sonore située sur la gauche de l’auditeur engendre
des ondes acoustiques qui arrivent d’abord à l’oreille gauche puis contournent la
Chapitre 4 – La perception auditive 219

tête pour arriver ensuite à l’oreille droite. Du fait de ce trajet supplémentaire,


l’onde acoustique perçue par l’oreille droite en sera retardée et légèrement atté-
nuée. Si l’on assimile la tête à une sphère de rayon R = 8,75 cm, on peut estimer les
deux trajets. En effet, si la source et le plan de symétrie forment un angle θ, alors
la différence des trajets appelée ∆l est fonction de cet angle.
Ce trajet supplémentaire est la somme de l’arc Rθ et de la droite R sinθ :

∆l = Rθ + R sinθ
∆l
et le retard avec lequel le son parvient à la seconde oreille est tel que ∆t = ,
R c
où c est la célérité du son dans l’air. Soit : ∆t = (θ + sin θ) .
c
Lorsque la source forme un angle de 45°, avec le plan de symétrie :

2
θ = 45° = 0, 785 radian, sin θ = = 0, 707
2
0, 0875
et ∆t = (0, 785 + 0, 707) = 380 µs
340
Le son arrive alors avec un retard de 380 µs à l’oreille la plus éloignée
(∆t max = 670 µs). Nous pourrons parler d’un déphasage entre les deux oreilles
puisque le retard ∆t correspond à une longueur d’onde d’environ 0,13 m. Ce
phénomène de déphasage est plus sensible pour les fréquences basses jusqu’à
environ 800 Hz. Ensuite, pour les fréquences aiguës, la diffraction de la tête joue
un rôle dans la propagation ; par contre l’effet de phase est négligeable.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 4.9 — Principe de la perception latérale d’une source sonore.

✧✧ Localisation monaurale
Il est possible, en écoute monaurale, de percevoir des différences entre les signaux
provenant d’une même source placée à des endroits différents. Le pavillon joue
220 Le livre des techniques du son

dans ce cas un rôle essentiel en créant des retards par réflexions sur ses cavités,
retards qui sont différents selon l’angle d’incidence. La combinaison du son direct
et des sons retardés crée des brèches dans le spectre comme un filtrage, fonction
de la position de la source. L’oreille peut ainsi s’orienter après un certain appren-
tissage et reconnaître la direction d’un signal familier à large bande. Les réflexions
sur les épaules participent également à ce phénomène. De même, les mouve-
ments de la tête accroissent la précision du repérage par des variations d’intensité
et de spectre.

✧✧ Localisation binaurale
L’oreille est sensible à la différence des pressions arrivant sur chacune d’elles et la
précision de la localisation dépend essentiellement du pouvoir séparateur spatial
de l’audition. Ce pouvoir séparateur est déterminé par l’angle audible minimum
nécessaire pour que l’oreille décèle une différence de position de la source. Cet
angle minimum croît avec l’azimut α et présente des incertitudes dans les
π
fréquences médium dues aux ambiguïtés de position (α= ± θ) et aux ambi-
guïtés de phase (à 2π près). 2

En règle générale, on admet que la localisation des basses fréquences est due à la
différence de temps tandis que la localisation des hautes fréquences est due à la
différence d’intensité. La transition entre les deux s’effectue aux alentours de
1 500-1 600 Hz. On parle aussi de ∆ϕ la différence de phase qui est une consé-
quence de ∆t et ne joue un rôle que pour les ondes périodiques. La différence de
spectre n’est en définitive qu’une conséquence des effets combinés de ∆I et ∆t.
En fonction de la distance de l’auditeur par rapport à la source sonore, le contenu
fréquentiel de celle-ci varie (voir chapitre 1). En effet la propagation du son dans
l’air (atmosphère ou dans un local), n’est pas homogène et les fréquences médiums
et aiguës sont absorbées relativement plus facilement que les fréquences basses.
Ce sont ainsi le contenu fréquentiel du message sonore reçu d’une part et d’autre
part l’importance et l’espacement dans le temps des réflexions qui informent l’au-
diteur sur son éloignement par rapport à la source sonore.
Dans les conditions naturelles d’écoute, ∆I et ∆t participent simultanément à la
localisation et il existe une relation entre les deux qui déterminent la cohérence
spatiale de l’image sonore.

✧✧ Effet « Cocktail Party »


Ce terme illustre la capacité d’un auditeur à détecter une information utile dans
un environnement très bruyant. Il s’agit en fait essentiellement d’une identifica-
tion du signal de forme connue (parole par exemple), plutôt que de discrimina-
tion spatiale. Ce phénomène se manifeste dans des conditions naturelles d’écoute
Chapitre 4 – La perception auditive 221

(foule, concert, théâtre), alors qu’il ne peut se manifester en écoute via un système
de restitution sonore (enceintes, casque).

F Effet de précédence (effet Haas)


Dans les conditions habituelles de champ diffus, l’oreille est soumise à un grand
nombre d’ondes arrivant sous toutes les incidences et se trouve en présence
d’un  maximum d’ambiguïté. Cependant la localisation reste présente grâce à
une  propriété fondamentale : la loi du premier front ou effet Haas (effet de
­précédence).
Cet effet de « blocage » de l’audition a été mis en évidence pour la première fois
par Helmut Haas à l’aide d’une source ponctuelle et de sa reproduction par un
haut-parleur : un orateur s’adresse à un auditoire et sa voix est simultanément
reproduite par un haut-parleur placé à ses côtés. En éloignant progressivement le
haut-parleur, l’attention de l’auditoire n’est pas perturbée tant que le décalage
temporel entre l’orateur et le haut-parleur reste inférieur à 50 ms et cela même
lorsque le niveau du haut-parleur est supérieur de 10 dB à celui de l’orateur.

Figure 4.10 — Courbe significative de l’effet de précédence.


Le niveau du son retardé peut être de 10 dB supérieur au son direct.
© Dunod – Toute reproduction non autorisée est un délit.

Dans un local, le temps qui sépare l’arrivée de l’onde directe de la première série
de réflexions s’appelle temps de délai initial (ti ). Pour toutes les valeurs de ti
comprises entre 600 µs et 50 ms, l’oreille localise le son du côté de l’incidence de
l’onde directe quelle que soit la direction d’arrivée des ondes incidentes. Cette loi
du premier front d’onde permet à l’auditeur de juger correctement la position de
la source malgré l’incohérence des réflexions successives. Pour les valeurs de
ti < 600 µs, l’oreille effectue une localisation de sommation. Au-delà de 50 ms,
valeur moyenne du temps d’intégration de l’oreille humaine, la fusion ne se
produit plus et l’oreille perçoit un écho.
222 Le livre des techniques du son

Ce phénomène est utilisé pour renforcer une sonorisation en approchant des


haut-parleurs du public et en retardant dans les mêmes proportions le signal
secondaire afin de respecter le principe d’antériorité [2].
Cette loi présente une certaine importance dans la perception de la qualité des
salles de concert et la recherche d’effets spéciaux.

F Localisation du son dans une salle


La localisation spatiale est une caractéristique importante de la qualité acous-
tique d’une salle, et un certain nombre de critères objectifs lui sont associés
(clarté, temps central binaural, efficacité latérale, IAAC Interaural cross-­
correlation [voir § 3.2.3], etc.). Les caractéristiques de la salle vont en effet
modeler la position apparente de la source (distance apparente et azimut), ainsi
que ses dimensions, sa définition, sa stabilité…
La distance apparente croît avec la durée de réverbération et l’absorption sélective
des fréquences aiguës. L’azimut est repéré avec une plus ou moins grande préci-
sion selon :
• le spectre de la source et la présence de fréquences graves ou aiguës,
• la présence ou l’absence de transitoires,
• le rapport des énergies dues à l’onde directe et aux ondes réverbérées,
• la valeur du délai initial, en fonction des matériaux de la salle et de son
architecture.
Ainsi, la localisation sera facilitée pour les sons à large bande présentant des
attaques marquées à des composantes de fréquences élevées. La salle jouera un
rôle sur la distance apparente et la stabilité de position de la source en fonction de
l’équilibre entre onde directe et ondes réverbérées.
L’onde directe étant déterminante pour la première localisation, (effet de précé-
dence), les ondes réverbérées modulent la distance apparente. Selon le degré de
coïncidence entre l’image donnée par le champ direct et les images virtuelles dues
aux réflexions, la précision est donnée par l’atténuation ou le renforcement de la
sensation de localisation.

4.2.2 Les différentes étapes de la reconnaissance du timbre


F La sensation auditive
Plusieurs étapes sont nécessaires pour qu’un événement sonore arrive à provo-
quer une sensation auditive : réception de l’information, interprétation du
message, sensation (figure 4.11).
Chapitre 4 – La perception auditive 223

Figure 4.11 — Schéma type pour l’élaboration d’une sensation


à partir d’un événement sonore.

On ne peut parler de perception d’un son que dans la mesure où l’organe senso-
riel, le tympan en l’occurrence, est atteint.
Les informations auditives sont ensuite véhiculées vers le cerveau au même titre
que les informations issues des autres sens : vue, toucher, goût, odorat. Dans
l’ordre de perception des sens, il n’existe par réellement de priorité. D’autre part, la
vitesse de la lumière étant un million de fois supérieure à la vitesse (ou célérité)
du son, certains phénomènes sont vus avant d’être entendus. Le retard de bruit du
tonnerre après l’éclair nous permet par exemple d’évaluer la proximité de l’orage.
Les paramètres physiques d’une vibration acoustique (voir chapitre 1) sont fonc-
tion des variations de la pression en amplitude, en fréquence et en phase, mais il
n’existe pas de relations simples entre ces grandeurs physiques et la sensation.
L’étude des différents paramètres du son peut nous permettre cependant une
première analyse du phénomène auditif.

F Les composantes du timbre


© Dunod – Toute reproduction non autorisée est un délit.

Après la sonie (ou force sonore) et la hauteur, le timbre est la troisième qualité
subjective d’un son. Comme il est dit dans le chapitre 2, cette quantité psychoa-
coustique qu’est le timbre peut être attribuée à certaines structures physiques du
son. Celles-ci se ramènent classiquement au spectre du son, c’est-à-dire à
­l’ensemble constitué par le fondamental et la série des partiels ou harmoniques.
Le timbre est la sensation élaborée par le cerveau en réponse à cette analyse spec-
trale. Parler de timbre n’a ainsi de sens que dans le cas de sons complexes et ce mot
est principalement employé pour des sources sonores musicales. Une flûte et une
clarinette sonnent différemment tout en émettant la même note, c’est-à-dire
jouant à la même hauteur.
224 Le livre des techniques du son

Mais allier le timbre uniquement à la notion de fréquence fondamentale et série


d’harmoniques ne suffit pas. Il faut tenir également compte de l’instant précédant
le régime établi (ou stationnaire) du son, c’est-à-dire les transitoires d’attaque. Il
est en effet difficile à qui que ce soit de pouvoir faire la distinction entre une clari-
nette et une flûte à partir d’enregistrements dont on aura amputé artificiellement
les attaques.
Chaque son demande un certain temps avant que l’on puisse en qualifier le timbre.
Il n’y a pas de valeur unique, mais il est courant de dire que l’ouïe a besoin d’au
moins 50 ms avant de reconnaître les différents éléments qui caractérisent le
timbre d’un son.
L’oreille se comporte ainsi comme une fenêtre temporelle se déplaçant au cours
du temps en scrutant l’évolution temporelle à la manière d’une fenêtre d’observa-
tion d’un appareil de mesure.
Certains facteurs dus notamment à l’environnement physique provoquent des
colorations du timbre. Nous n’avons pas la même perception du timbre du même
instrument en des lieux différents. Il suffit pour s’en convaincre d’essayer plusieurs
places d’une salle de concert lors d’une répétition d’orchestre (balcon, fosse
­d’orchestre, pigeonnier).
C’est la réverbération accompagnant l’extinction du son qui affecte ainsi la percep-
tion de la musique par le biais de multiples réflexions et de leur répartition dans
l’espace. Toutes ces modifications ne nous empêchent pas cependant de recon-
naître le timbre de tel ou tel instrument ou de telle ou telle voix. En effet, le cerveau
intègre ces différents paramètres et s’aide de la mémoire auditive pour décider de
l’origine du son. Les qualités acoustiques du local influenceront notamment le
confort d’écoute et dans le meilleur des cas, elles seront même indispensables à
l’élaboration des timbres recherchés (cas de l’orgue où le couplage de la salle et de
l’instrument est spécifiquement étudié) [20].

4.2.3 L’écoute et la prise de son


Il est devenu aujourd’hui courant d’écouter et d’apprécier une musique, une pièce
dramatique et, a fortiori, un film ou une émission télévisée… par l’intermédiaire
d’un système de reproduction électroacoustique. Cependant, même dans ce cas,
le dernier maillon avant interprétation reste l’oreille et le système de perception
binauriculaire.

F L’écoute par reproduction électroacoustique


L’importance de la qualité du matériel d’écoute ainsi que celle du local d’écoute et
de son acoustique spécifique ne sont nullement négligeables. Mais à chaque cas
Chapitre 4 – La perception auditive 225

particulier, nous avons préféré les généralités et considérons que l’ensemble des
remarques suivantes reste valable dans la plupart des cas.

✧✧ La monophonie à un haut-parleur
C’est le cas de figure le plus simple et largement utilisé aux débuts du cinéma et de
la télévision et encore aujourd’hui sur les postes de radio mais aussi les téléphones
mobiles… Le haut-parleur ou plutôt l’enceinte acoustique devient l’unique source
sonore. La notion de directionnalité des éléments reproduits disparaît au profit
de la seule direction : enceinte acoustique → auditeur. La notion de profondeur
et de distances relatives des sources est conservée. Elles s’étagent derrière
­l’enceinte unique et sont d’autant plus « naturelles » que le niveau d’écoute se
rapproche du niveau d’exécution réel.
Cependant, l’oreille est souvent capable de ne pas juger seulement d’après ce
niveau absolu et reste sensible aux niveaux relatifs des différentes sources et de
leurs variations de timbre et de volume. À l’intérieur d’une certaine limite, l’oreille
accepte une translation ou une compression de la dynamique originale à condi-
tion que celle-ci ne soit pas décelable.

✧✧ La monophonie à deux haut-parleurs


Lorsqu’un message sonore monophonique est reproduit simultanément sur deux
enceintes acoustiques, il y a formation d’une image virtuelle au centre. Si nous
introduisons artificiellement une différence d’intensités ∆I ou une différence de
temps ∆t entre les deux enceintes acoustiques, l’image virtuelle se déplace vers
l’enceinte dont l’intensité est supérieure ou vers celle qui n’est pas retardée.
D’autre part, la reproduction monophonique à deux haut-parleurs introduit un
défaut supplémentaire en créant des lobes interférentiels dans la zone d’écoute
entre les messages des deux enceintes acoustiques. Ce phénomène, facilement
décelable avec des sons purs, n’est pas aussi sensible dans le cas d’un message
complexe (parole ou musique). Le signal évolue sans arrêt et les places des
maxima et des minima changent en fonction de la fréquence.
© Dunod – Toute reproduction non autorisée est un délit.

✧✧ L’écoute au casque
Moyen très usité en milieu professionnel et en utilisation domestique, le casque
ne peut néanmoins avoir la prétention de reproduire la réalité puisque l’image
sonore se situe au-dessus de la tête quelle que soit la position du corps. Deux
hypothèses peuvent être avancées pour expliquer ce phénomène :
• L’hypothèse couramment admise selon laquelle les oreilles sont considé-
rées comme les seuls capteurs de données sonores, et où la localisa-
tion serait facilitée par certains mouvements de la tête. Dans le cas de
226 Le livre des techniques du son

l’écoute au casque, ce dernier suit les mouvements de la tête, donc son


déplacement par rapport à l’image sonore est nul. S’il n’y a plus corrélation
entre le déplacement de la source et le mouvement de la tête, le cerveau
n’est plus capable de localiser correctement et situe l’image sonore sur
un arc de cercle allant d’une oreille à l’autre en passant par le sommet
de ­l’occiput.
• L’hypothèse plus récente où les oreilles restent les capteurs fondamentaux
du son au niveau des timbres et des hauteurs mais ne seraient plus seules
en cause pour en déterminer la géométrie, notamment pour la distinction
« avant-arrière ». Les vibrations captées par le front et la nuque entre autres
apporteraient des informations complémentaires au cerveau pour son
travail de « localisation spatiale ». En cas de déficience des oreilles, ces
informations complémentaires ne peuvent à elles seules assurer l’audi-
tion : leurs données ne sont que spatio-temporelles et ne renseignent que
sur les directions et distances relatives. Dans le cas de l’écoute au casque,
les données sonores sont introduites directement et exclusivement dans
les conduits auditifs. Les « capteurs secondaires » ne sont absolument
pas  excités. Le cerveau manque d’informations pour faire son travail
spatial et il situe l’image entre la nuque et le front en arc de cercle au-dessus
de ­l’occiput.

✧✧ La reproduction stéréophonique
Une reproduction stéréophonique s’obtient à l’aide de deux enceintes acoustiques
constituant, avec la place de l’auditeur, les sommets d’un triangle équilatéral
(figure 4.12). Les deux enceintes se comportent alors comme deux sources
sonores placées dans ce qu’il est convenu d’appeler « le cône de vigilance de
l’oreille » [4]. Ainsi, les vibrations acoustiques arrivent aux oreilles droite et
gauche de l’auditeur dans les conditions similaires à celles de notre perception
naturelle binaurale. L’oreille droite percevra d’abord le signal de l’enceinte de
droite, puis celui de l’enceinte de gauche avec un certain retard et une légère atté-
nuation [5]. La zone d’écoute stéréophonique n’augmente pas avec l’écartement
des enceintes : dans une salle de spectacle (ou en plein air), cette zone est réduite
à quelques mètres de part et d’autre de l’axe médian. Si les deux signaux sont
complètement différents, le cerveau en déduira la présence de deux sources
distinctes et les localisera dans les deux axes formés par l’auditeur et chacune des
deux enceintes acoustiques (respectivement AG et AD sur la figure 4.12). Lorsque
les deux signaux sont corrélés, les sources semblent alors provenir de la zone
délimitée par les deux enceintes acoustiques. C’est le cas pour des signaux mono-
phoniques dirigés artificiellement mais aussi des signaux stéréophoniques pour
lesquels la corrélation existe dès la prise de son.
Chapitre 4 – La perception auditive 227

Figure 4.12 — Conditions idéales de reproduction de signaux stéréophoniques.


Les enceintes acoustiques et l’auditeur sont au somme d’un triangle équilatéral.

✧✧ La reproduction sonore en multicanaux


La reproduction stéréophonique s’avère insatisfaisante car la localisation des
sources est principalement limitée dans l’espace compris entre les deux haut-
parleurs. Afin de nous rapprocher de la réalité sonore, dans un milieu fermé
en l’occurrence, il est apparu sur le marché depuis une vingtaine d’années – au
cinéma d’abord et dans le domaine multimédia (DVD) – des systèmes de
­reproduction du son en multicanaux permettant une localisation de la source
en  ­n’importe quel point, ou presque, de l’espace : gauche, droite, haut, bas,
proche, éloigné. Le système de diffusion « 5.1 » fait intervenir cinq enceintes
large bande, trois à l’avant (gauche, centre, droite) et deux à l’arrière (surround
gauche et surround droite), ainsi qu’un caisson de renfort de fréquences
graves pour les effets spéciaux. Ce dispositif est le plus souvent utilisé pour la
diffusion de bandes sonores complexes dont la spatialisation est rendue lors
du mixage.
La famille s’est agrandie avec l’apparition des systèmes de restitution 6.1, 7.1 et
© Dunod – Toute reproduction non autorisée est un délit.

9.1 où le premier chiffre indique le nombre d’enceintes acoustiques et le second


(1 en l’occurrence) celui du caisson de renfort de fréquences graves.
La venue récente du système de diffusion Dolby ATMOS, considéré par quelques
professionnels du son comme révolutionnaire, ajoute un supplément de « réalité
sonore » aux oreilles de l’auditeur ravissant ainsi les inconditionnels de la repro-
duction du son surround.
Technologiquement parlant l’intérêt du système ATMOS est indéniable
dans  la  mesure où il est compatible avec tous les formats de diffusion
­commerciaux.
228 Le livre des techniques du son

F Les différentes façons d’écouter


Nous savons tous que pour « ouïr », il suffit de ne pas être sourd ; que « écouter »
c’est déjà s’intéresser à la source sonore tandis que « tendre l’oreille » montre la
volonté de « comprendre » le message sonore.
Les différents niveaux d’interprétation demandent un travail différent de la part
du cerveau. L’utilisation de la mémoire auditive permet de reconnaître une source
sonore et éventuellement de l’analyser par comparaison.
Pour « comprendre » un message sonore, il faut en plus avoir les clefs du langage.
On peut très bien entendre le chinois mais ne pas le comprendre. Cet aspect
sémantique peut se généraliser à l’étude globale des sons et bien entendu de la
musique [23].
Les conclusions d’une pareille étude nous prouvent qu’un même événement
sonore peut être interprété différemment suivant la culture et la personnalité de
l’auditeur. Dans le cas de la prise de son, nous dégagerons trois types d’écoute :
l’écoute technique, esthétique et spécialisée (ou musicale).

✧✧ L’écoute technique (écoute des défauts)


Elle peut intervenir à tous les stades de l’élaboration d’un produit audio, dès
­l’enregistrement jusqu’à la reproduction. Le technicien doit se servir de ses oreilles
pour « mesurer » l’importance du bruit de fond dans une salle ou sur un plateau.
C’est aussi lui qui doit juger si l’acoustique du lieu ne présente pas des défauts
majeurs : flutter echo, vibration de parois, effet de focalisation…
L’écoute technique doit aussi assurer que les distorsions introduites par le maté-
riel électroacoustique restent dans des proportions acceptables (des normes très
strictes sont prévues à ce sujet).
Les défauts introduits par copie, montage, duplication, pressage… font aussi
l’objet d’une écoute technique afin de vérifier la qualité technique du produit final
car c’est ce dernier que l’auditeur écoutera.

✧✧ L’écoute qualitative (ou esthétique)


En regardant la photographie d’un paysage, on peut reconnaître les lieux ; appré-
cier les différents plans visuels, la perspective… et dans le cas d’une photo
abstraite, on appréciera les formes, les couleurs…
Le contraste dans une image photographique, l’éclairage ponctuel sont autant
d’éléments esthétiques qui font la valeur d’un cliché.
On pourrait extrapoler en disant que « la couleur c’est un peu le timbre des sons ».
Le travail de zoom qu’opère l’œil lors de l’analyse d’une image peut aussi être
Chapitre 4 – La perception auditive 229

réalisé par l’oreille lors de l’écoute sélective. Avec un peu d’entraînement, le


preneur de son peut aller écouter un détail puis revenir à une écoute de l’ensemble.
C’est aussi lors d’une écoute esthétique que sont jugés les raccords musicaux entre
les différentes parties d’une même œuvre [19].

✧✧ L’écoute spécialisée ou musicale


Par opposition à une écoute dite « banale », on peut parler d’écoute « spécialisée »
[23]. À l’écoute de la même œuvre, une oreille entraînée pourra juger de la qualité
de l’écriture, de l’arrangement ou encore de l’interprétation. Dans le cas d’une
interprétation musicale, le musicien écoutera de préférence la justesse des notes,
la qualité de l’instrument et la valeur de l’interprète.
À la lecture de la partition, il pourra d’une part juger les erreurs d’interprétation,
et d’autre part, être sensible aux nuances dans le phrasé musical. Les mêmes
remarques peuvent s’appliquer à la lecture d’un texte où l’intonation et le timbre
de la voix font partie de l’interprétation. Un phénomène culturel guide notre
choix et certaines langues ou certaines musiques peuvent nous paraître obscures
parce que nous en ignorons la signification.

4.3 Le système auditif humain

4.3.1 La structure de l’oreille


Le système auditif que l’on appelle aussi l’oreille se compose de trois parties :
l’oreille externe, l’oreille moyenne et l’oreille interne (figure 4.13).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 4.13 — Structure du système auditif chez l’homme.


230 Le livre des techniques du son

F L’oreille externe
Elle est constituée du pavillon et du conduit auditif (ou méat). Le pavillon à la
manière d’un cornet acoustique canalise les ondes sonores venues de l’extérieur
vers le conduit auditif. Il joue aussi un rôle non négligeable dans l’orientation
spatiale (localisation des sources sonores) comme l’a montré Wayne Batteau en
1967. Le pavillon se comporterait également comme un système coupe-vent.
Le conduit auditif est un canal d’environ 27 mm de long et 8 mm de diamètre. Il
protège les éléments relativement fragiles de l’oreille moyenne contre la pous-
sière, les insectes, etc. Le duvet de poils fins recouvrant notamment l’entrée de ce
conduit répond à cette nécessité.
Il joue également un rôle d’amplificateur de pression acoustique. En effet, par un
phénomène de résonance du conduit, il en résulte un léger renforcement de
fréquences entre 2 000 Hz et 5 000 Hz avec un maximum se situant autour de
3 700 Hz (figure 4.14).

Figure 4.14 — Résonance du conduit auditif d’après Wiener et Ross.

L’ensemble pavillon-conduit auditif se comporterait ainsi comme l’ensemble


bonnette anti-vent - microphone directionnel.

F L’oreille moyenne
Enfermée dans une cavité osseuse (ou caisse du tympan) la protégeant, l’oreille
moyenne est constituée du tympan, de la chaîne des osselets et de la trompe
d’Eustache. Tous ces éléments baignent dans un fluide qui est l’air.
Le tympan, mince membrane élastique, transmet mécaniquement les vibrations
acoustiques provenant de l’oreille externe à la chaîne des osselets. Celle-ci est
formée de trois petits os : le marteau solidaire du tympan, l’enclume et l’étrier.
Leur rôle est de transmettre les vibrations du tympan à la fenêtre ovale, « entrée »
de l’oreille interne. Reliés souplement à la cavité osseuse par des muscles et des
ligaments, les osselets participent aux fonctions de protection physique du
système.
Chapitre 4 – La perception auditive 231

La trompe d’Eustache, tube de 35 mm de long reliant la caisse du tympan à l’ar-


rière gorge (pharynx) assure le rôle d’égaliseur de la pression atmosphérique sur
les deux faces du tympan. Cette égalisation de pression se fait par déglutition ou
par bâillement, fonctions favorisant l’ouverture du « clapet » fermant normale-
ment l’orifice de la trompe (phénomène rencontré lors des randonnées en altitude
et les voyages en avion).

F L’oreille interne
Appelée aussi labyrinthe en raison de sa forme complexe, l’oreille interne, cavité
osseuse (os du rocher), remplie de divers liquides est constituée de deux parties
communiquant entre elles : le vestibule et la cochlée (ou limaçon).
Le vestibule (figure 4.15) contient les organes de l’équilibre, parmi eux, les
canaux semi-circulaires, au nombre de trois, formés de demi-cercles disposés
dans trois plans perpendiculaires, c’est-à-dire suivant les trois directions de
­l’espace. Ils ne jouent aucun rôle particulier dans la perception auditive propre-
ment dite mais aident à la localisation des sons en renseignant le cerveau sur la
position de la tête.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 4.15 — Représentation simplifiée du vestibule.

La cochlée est l’organe proprement dit de l’audition. C’est dans cette spirale
d’une  longueur de 30 mm et faisant deux tours et demi autour d’un cône
osseux (la columelle) que sont perçues les vibrations sonores transmises par la
fenêtre ovale.
232 Le livre des techniques du son

Une coupe longitudinale de la cochlée (figure 4.16) fait apparaître trois canaux ou


rampes : les rampes extérieures (vestibulaire et tympanique) contenant un fluide
très peu compressible appelé périlymphe et la rampe centrale (canal cochléaire)
emplie d’un autre fluide, l’endolymphe.

Figure 4.16 — Coupe longitudinale de la cochlée une fois déroulée.

Cette dernière rampe est limitée par deux membranes, la membrane de Reissner
au-dessus et la membrane basilaire au-dessous, qui se rejoignent à l’apex ou
extrémité de la cochlée.
La fenêtre ronde à l’extrémité de la rampe tympanique compense la pression
appliquée à la fenêtre ovale par l’étrier et évite une compression dangereuse. Il
existe un petit orifice (l’hélicotrême) à l’apex par lequel les deux rampes exté-
rieures communiquent. Il est à noter que les deux fenêtres (ovale et ronde) ne se
trouvent pas dans le même plan. Le contraire aurait pour conséquence des effets
d’interférences aériennes au niveau de l’oreille moyenne et perturberait de ce fait
l’audition.
Les mouvements de la périlymphe provoquent des déformations dans la rampe
cochléaire. À l’intérieur de celle-ci, l’organe de Corti qui contient une multitude
de cellules cillées (figure 4.17) sensibles, détecte ces mouvements par l’intermé-
diaire de la membrane tectoriale.
La membrane basilaire, support de l’organe de Corti, provoque par l’intermé-
diaire de la membrane tectoriale une excitation des cils et une déformation
de  leurs pointes. Il en résulte une modification de l’état électrochimique de
chaque  cellule ciliée qui provoque à son tour une stimulation des fibres du
nerf auditif connectées à la base de chacune de ces cellules. Ces signaux nerveux
sont  ensuite  transmis à l’aire auditive du cerveau pour interprétation du
stimulus.
Chapitre 4 – La perception auditive 233
© Dunod – Toute reproduction non autorisée est un délit.

Figure 4.17 — L’organe de Corti contient une multitude de cellules ciliées


et détecte les mouvements de la membrane tectoriale.
234 Le livre des techniques du son

4.3.2 Mécanisme de l’audition


F Principe général de fonctionnement
En résumé ! Les vibrations sonores captées par l’oreille externe sous forme de
variations de pressions parviennent au tympan. Elles sont alors transformées en
vibrations mécaniques et transmises sous cette forme par les osselets au fluide de
la cochlée, à travers la fenêtre ovale. L’organe de Corti et la membrane basilaire
dont il est solidaire se trouvent ainsi affectés simultanément par ces vibrations
mécaniques. Ce sont les cellules ciliées de l’organe de Corti qui jouent le rôle de
transducteurs, transformant cette énergie mécanique en énergie électrique.
Les filins nerveux issus de ces cellules ciliées émettent alors une suite d’impul-
sions élémentaires avec une cadence proportionnelle à l’excitation.
Quand on examine le mouvement d’ensemble de la membrane basilaire, sous l’ac-
tion de vibrations sonores sinusoïdales, on constate des maxima d’amplitude
dans des zones particulières correspondant aux différentes fréquences pures
considérées successivement (figure 4.18).

Figure 4.18 — Amplitude de la membrane basilaire à la suite d’une vibration


sonore sinusoïdale (on remarque que l’amplitude croît lentement,
atteint un maximum et décroît rapidement à partir d’un certain point).

On constate en outre que le déplacement maximal se situe près de l’extrémité


apicale de la cochlée pour une excitation par des fréquences basses alors qu’elle se
rapproche de la base pour une excitation due aux fréquences élevées (figure 4.19).

Figure 4.19 — Quatre fréquences sinusoïdales


pures évoluent ainsi dans la membrane basilaire.
Chapitre 4 – La perception auditive 235

Dans le cas de sons complexes, la membrane basilaire est soumise à des maxima
en différents points se déplaçant dans le temps [25].
La membrane basilaire opérerait en quelque sorte une analyse fréquentielle
(ou décomposition spectrale) du son.

F Les différentes fonctions de la chaîne auditive


Lors du passage des vibrations sonores d’un milieu à un autre (air → solide →
liquide) et afin d’éviter d’importantes pertes d’énergie, l’oreille réalise d’une part
une adaptation d’impédance et d’autre part une protection vis-à-vis de trop fortes
amplitudes de vibrations.
Ainsi, le couple pavillon-canal auditif se comporte comme un résonateur aux
fréquences moyennes et permet l’adaptation d’impédance acoustique entre le
milieu ambiant et le tympan. De plus, le rapport des surfaces (de l’ordre de 20), du
tympan (60 mm2) et de la fenêtre ovale (3 mm2) compense largement la désadap-
tation air-liquide.
Par des mouvements de flexion, le tympan amplifie la vibration acoustique.
Enfin, la chaîne des osselets suspendus au milieu de la caisse du tympan grâce à
un système souple de muscles et de ligaments (figure 4.20) constitue un système
protecteur capable de réduire l’amplitude transmise à partir d’un seuil de l’ordre
de 85 dB [24].
© Dunod – Toute reproduction non autorisée est un délit.

Figure 4.20 — Caisse du tympan vue d’en haut d’après Gellé montrant
les différents muscles permettant de maintenir
les osselets au milieu de cette caisse.
236 Le livre des techniques du son

F La transmission nerveuse
Grâce aux expériences de Wever [27], on sait que toute oscillation dans le fluide
de la cochlée produit une impulsion électrique qui est ensuite transmise au
cerveau le long de la fibre nerveuse. La particularité de ces impulsions est d’avoir
la même intensité et la même durée quel que le soit le niveau du son (fort ou
faible) et quelle que soit la fréquence (aiguë ou grave).
Le signal est codé au niveau des cellules ciliées, transmis par les fibres nerveuses
et décodé par le cerveau. Cette transmission de type numérique fait l’objet de
multiples théories de l’audition que l’on rencontre dans la littérature acous-
tique [17], [8], [9].
Néanmoins il est apparu que les informations sont d’origine fréquentielle et
temporelle. Or, nous savons que la fréquence n’est que l’inverse d’une durée. Une
corrélation entre les différentes informations nous permet de faire une analyse
précise de tout ce qui évolue dans le temps.

F Le rôle du cerveau
Les informations acoustiques communiquées transmises au cerveau seront, à
l’instar des informations sensorielles d’autres natures, décodées dans les centres
correspondants, les aires auditives en l’occurrence. C’est là que le traitement des
informations reçues se fera par comparaison aux connaissances acquises dans
notre environnement et stockées dans des « mémoires ». Nous pouvons ainsi
reconnaître rapidement le signe acoustique véhiculé et réagir par rapport au
message qu’il nous apporte.
Nous résumons dans un tableau récapitulatif (figure 4.21) les principales caracté-
ristiques physiologiques de l’audition humaine. Il nous permet de faire le point
sur le rôle physiologique de chaque partie de l’oreille [6], [7].

4.3.3 Les déficiences du système auditif


Le fonctionnement du système auditif qui vient d’être décrit est celui d’un indi-
vidu pourvu d’une audition normale. Il existe malheureusement de nombreux
facteurs venant entraver ce fonctionnement, notamment les surdités (hypoacou-
sies) – diminutions partielles ou totales de l’audition – dont les deux principales
causes sont le vieillissement ou presbyacousie (60 % des cas de surdités) et les
traumatismes sonores.
On classe les surdités en trois catégories : surdités de transmission, surdités de
perception, surdités mixtes.
© Dunod – Toute reproduction non autorisée est un délit.
Chapitre 4 – La perception auditive

Figure 4.21 — Tableau récapitulatif des principales caractéristiques physiologiques de l’audition humaine.
237
238 Le livre des techniques du son

F Les surdités de transmission


Elles affectent l’oreille externe et l’oreille moyenne, et ont comme principales
origines une obturation du conduit auditif, une lésion du tympan (perforation)
ou de la chaîne des osselets, un blocage de l’étrier dans la fenêtre ovale (otospon-
giose ou otosclérose). Le traitement de ces surdités est relativement aisé, notam-
ment par prise de certains médicaments (gouttes et antibiotiques pour des otites,
etc.), certains cas délicats nécessitant en revanche une intervention chirurgicale :
greffe tympanique (myringoplastie) pour un éclatement de tympan, reconstruc-
tion des osselets (ossiculoplastie) en cas de rupture de ces derniers, remplace-
ment de l’étrier par une prothèse pour soigner une otospongiose.
Il existe, sur le marché des prothèses auditives, un choix assez large d’appareils
miniaturisés informatisés qui apportent parfois un confort acoustique appré-
ciable aux malentendants affectés par des surdités de transmission (voir
enquêtes [31]).

F Les surdités de perception


Elles résultent d’une lésion de l’oreille interne : vestibule, organe de Corti (fonc-
tionnement défectueux des cellules ciliées et même absence de cellules), nerf
auditif.
Ce type de surdités est plus difficile à soigner. Dans le cas des surdités neurosen-
sorielles (ayant pour siège l’organe de Corti), des résultats intéressants sont
obtenus par l’utilisation d’implant cochléaire, une cochlée artificielle informa-
tisée stimulant directement des neurones cochléaires ; l’oreille externe, l’oreille
moyenne et l’oreille interne se trouvant ainsi court-circuitées, l’implant cochléaire
faisant office de cochlée.

F Les surdités mixtes


Elles associent les surdités de transmission et les surdités de perception.
On classe dans cette catégorie la presbyacousie (surdité due au vieillissement) qui
se manifeste par une baisse progressive de l’acuité auditive aux fréquences aiguës
(figure 4.22), conséquence de la perte de la mobilité du tympan et celle des osse-
lets, et de la destruction des cellules ciliées. Les résultats contenus dans la figure
sont bien entendu statistiques, et il existe donc de fortes variations d’un individu
à un autre dans une même catégorie d’âge.
Chapitre 4 – La perception auditive 239

Figure 4.22 — Perte d’audition avec l’âge (presbyacousie) de l’oreille,


statistique moyenne, les pertes sont faibles jusqu’à 1 kHz
mais plus importantes dans les fréquences supérieures.

F La fatigue auditive
Chacun de nous a déjà eu l’occasion de constater qu’il devenait légèrement sourd
aux sons environnants après avoir entendu un son intense. Cette baisse de la
sensibilité auditive est la fatigue auditive. Pouvant être très importante, elle dispa-
raît en un temps variant de quelques secondes à plusieurs heures.
La fatigue auditive due aux sons purs est faible et brève jusqu’à la fréquence de
800 Hz environ. Au-delà elle est plus importante et reste du même ordre de gran-
deur pour toutes les fréquences.
Il est montré que la fatigue auditive a son siège dans l’oreille (oreille moyenne et
oreille interne particulièrement) et non dans le nerf auditif ni dans le cerveau.
Résultant d’une longue exposition à un bruit de niveau élevé, elle se traduit par
une élévation du seuil d’audibilité. La récupération de l’oreille peut même néces-
siter 24 heures comme le montre la figure 4.23.
© Dunod – Toute reproduction non autorisée est un délit.

En abscisses : fréquences des sons tests. La récupération est plus rapide dans les
graves que dans les aiguës.
Comme on peut s’y attendre, la fatigue auditive s’accompagne d’une modification
de perception du timbre.
Une écoute prolongée à fort niveau (casque, sonorisation puissante, etc.) peut
créer des lésions irréversibles.
240 Le livre des techniques du son

Figure 4.23 — Influence du temps de récupération


sur la fatigue auditive (d’après Mr R. L). En ordonnées :
variation du seuil d’audition de la fréquence
du son test considéré ∆L′s = Ls1 − Ls2
− avec Ls1 = seuil d’audition avant le son de fatigue,
– avec Ls2 = seuil d’audition après le son de fatigue.

Le preneur de son professionnel se trouve donc concerné par ce problème. Il ne


semble pas souhaitable en tout cas pour lui de réaliser deux prises de son
­successives d’une grande formation musicale ou même surtout d’un groupe rock
sans observer un repos « auditif » d’au moins douze heures. La garantie d’un
travail propre est à ce prix. Il y va aussi du respect de l’auditeur… averti il
est vrai [3].

4.3.4 Exposimétrie bruit. Protections auditives


F L’exposimétrie
L’exposition au bruit, phénomène de société très préoccupant en raison de ses
conséquences néfastes sur l’audition, surtout avec les bruits de forte puissance,
est considérée comme un problème de santé publique. Beaucoup de pays ont été
amenés à légiférer, et cela depuis de nombreuses années. En France, les plus
récentes dispositions réglementaires datent du 19 juillet 2006 avec le décret
n° 2006-892, transposition de la directive européenne 2003/10/CE. Il oblige les
employeurs à mettre à la disposition des travailleurs des protections auditives
individuelles à partir d’un niveau sonore de 80 dBA (ou 135 dB de crête en instan-
tané) et à une mise en œuvre des mesures de réduction de l’exposition au bruit des
travailleurs à partir de 85 dBA (ou 137 dB de crête). La valeur limite d’exposition
Chapitre 4 – La perception auditive 241

des travailleurs au bruit étant fixée à 87 dBA (ou 140 dB de crête). Il est à noter
que la réduction de la nuisance sonore à la source est toujours la meilleure solu-
tion mais malheureusement pas toujours réalisable. Par exemple dans le cas
d’une sonorisation de puissance, les techniciens et les artistes sur scène sont
exposés à des niveaux sonores importants et doivent utiliser des artifices pour
se protéger…
Dans certains secteurs de l’industrie rappelons qu’il existe depuis longtemps,
pour des salariés travaillant en ambiance bruyante, des sonomètres destinés à
mesurer individuellement leur exposition au bruit pendant une période de
temps, en vue de se conformer aux dispositions réglementaires précitées. Ces
appareils de mesure, appelés dosimètre de bruit ou exposimètre, peuvent même
être portés directement par la personne. L’appareil est en liaison infrarouge avec
un système d’analyse.
Dans le cas de la réglementation relative aux établissements diffusant à titre habi-
tuel de la musique amplifiée, le Code du travail, le Code de l’environnement ou
encore celui de la santé et même du tourisme sont concernés par les problèmes de
bruit. Ils cherchent à augmenter la protection de l’audition du public en modifiant
les mauvaises habitudes prises par le passé… La gestion des niveaux est d’ailleurs
encadrée par une législation spécifique incluse dans le décret n° 98-1143 (voir
§ 4.5.1, tome 3).

F Les protections auditives


Le côté préventif des éventuels dégâts du système auditif s’obtient par l’utilisation
des protections auditives dont le marché abonde. Il existe deux types de modèles,
les protections « standards » que l’on peut trouver en pharmacie et les « sur-­
mesure » réalisées par les audioprothésistes. La qualité de celles-ci est d’autant
meilleure qu’elles sont faites sur mesure par moulage du conduit auditif de l’utili-
sateur. À ne pas confondre avec les petits bouchons de couleur qui sont certes
pratiques mais beaucoup moins efficaces et surtout inadaptés aux conditions
© Dunod – Toute reproduction non autorisée est un délit.

d’écoute professionnelles.
Les protections auditives permettent une audition de qualité avec une courbe
de réponse quasi droite mais permettant des atténuations de 9, 15 ou 25 dB. Elles
peuvent aussi être équipées d’un filtre et choisies comme on choisit un casque.
Dans la catégorie des protections auditives se trouvent par exemple des
produits  utilisés par les professionnels du son : l’EP2 Muzik de Surdifuse,
l’high fidelity music de la société lesoreilles, l’EarPad d’Earsonics, le pianissimo
de Protac ou encore le Music Safe d’Alpine. Ces produits diffèrent par leur
­conception et leur réalisation et répondent à des critères que le musicien ou le
242 Le livre des techniques du son

technicien du son doit se fixer. Lire à ce propos une étude comparative faite par un
magazine professionnel [32]. Il faut savoir que la durée de vie des protections
auditives est limitée dans le temps (quelques années) et nécessite un entretien
régulier.

4.4 Conclusion
L’oreille est l’outil de travail du preneur de son et doit être à ce titre particulière-
ment préservée. On peut regretter de voir des professionnels s’exposer à des
niveaux sonores qui dépassent largement les seuils tolérables. En dehors des
risques qu’ils prennent, ils sont aussi responsables pour les spectateurs qu’ils
exposent. Préserver la qualité de l’audition doit être le maître mot car on sait
très  bien que le moindre dysfonctionnement entraîne à terme des troubles
­rédhibitoires.

4.5 Bibliographie
[1] R. Bücklein. The audibility of frequency response irregularities, JAES (mars 1981).
[2] C. Cable, C. Emerson. Those early arrivals – Mr Haas – What would you do ? JAES
(janvier 1980).
[3] R. Condamines. Contribution à l’étude psychologique de la régulation du niveau
­sonore, Thèse doctorat d’État, Paris VI (1972).
[4] R. Condamines. Stéréophonie. Cours de relief sonore – Masson (1978).
[5] R. Condamines. Le temps et l’espace dans la perception auditive – RA (1979), no 50.
[6] E.-F. Evans, J.-P. Wilson. Psychophysics and Physiology of hearing – Academic Press,
Londres (1977).
[7] Feldkeller et Zwicker. L’oreille, récepteur d’information – Masson (1982).
[8] Goudot-Perrot Andrée. Les organes des sens – Que sais-je ? no 496, PUF (1973).
[9] Gribenski. L’audition – Que sais-je ? no 484, PUF (1975).
[10] J.-L. Hall. Model study of Zwicker’s masking period patterns – JASA (août 1978).
[11] IRA J. Hirsh. The measurement of hearing – Mac Graw Hill, New York (1952).
[12] W.-L. Howes. Loudness of steady sounds. A new theory – AC (février 1979).
[13] M. Kitantou. Influence de l’effet de masque sur l’évaluation de la qualité des modula-
tions radiophoniques – Thèse doctorat 3e cycle. Université du Maine – Le Mans
(1977).
[14] R. Lehmann. Éléments de Physio et Psychoacoustique – Dunod (1969).
Chapitre 4 – La perception auditive 243

[15] E. Leipp. Acoustique et musique (fac-similé de la 4e édition de 1984) – Presses des
Mines, Paris (2011).
[16] E. Leipp. La machine à écouter – Masson (1978).
[17] R.-B. Livingstone. Sensory processing, perception and behaviour – N.Y. Raver-Press
(1978).
[18] G. Loeds. Le remplacement des organes fonctionnels de l’oreille – Pour la science
(avril 1985).
 . Moles. Théorie de l’information et perception esthétique – Flammarion (1958).
[19] A
[20] I . Pollack. Perception of complex sounds – Hidden auditory figures – JASA
(­décembre 1975).
 .-A Rasch. The perception of simultaneous notes such as in polyphonic music – AC
[21] R
(mai 1978).
[22] J.-C. Risset. Séminaire sur le timbre – IRCAM (avril 1985).
[23] P. Schaeffer. Traité des objets musicaux – Éd. du Seuil (1966).
[24] G. Stevin. Analyse spectrale des bruits impulsifs en vue de la protection de l’audition –
RA (1980), no 1.
[25] G. Von Békésy. Experiments in hearing – Mac Graw Hill, New York (1963).
[26] R.-M. Warren. Subjective loudness and its physical correlate – AC (juin 1977).
[27] Wever. Theory of hearing – New York (1953).
[28] F. Winckel. Vues nouvelles sur le monde des sons – Dunod (1960).
[29] E. Zwicker. Masking period patterns of harmonic complex tones – JASA (août 1976).
[30] AFNOR. Normes NF S 30 101 – 105 – 107.
[31] F. Humbert, M. Ebran, C. Matricon-Delbe. « Prothèses auditives. Comment faire le
bon choix » – Que choisir, n° 474, octobre 2009, p. 16-22.
[32] J.-L. Horvilleur, Protection auditive, la guerre des bouchons. Guitar Part, n° 184,
juillet-août 2009 – http://www.lesoreilles.com/articles/GP184_084-91_Comparatif_­
Protections_Auditives.pdf
Chapitre 5

Le signal

Jacques Foret
Docteur en électroacoustique. Ingénieur conseil en acoustique.
Professeur d’acoustique et de traitement du signal

5.1 La notion de signal. Notion d’information

5.1.1 Généralités
Les notions de signal et d’information sont souvent associées voire confondues.
En effet, bien qu’étant des concepts distincts, l’un ne va pas sans l’autre. Une
information est quelque chose d’inobservable, c’est-à-dire que l’on ne peut
mesurer. Alors que le signal, qui est sa transcription sur le plan physique, est
mesurable.
Pour qu’il y ait information dans un signal, il faut deux conditions :
• que l’instant (ou la position) où se produit la transformation du support du
signal soit non prévisible ;
• que l’on ait convenu d’un code entre l’émetteur et le récepteur.
Prenons un exemple dans la vie courante : les feux de circulation. Physiquement,
le support de l’information est l’émission d’une onde lumineuse, soit rouge, soit
246 Le livre des techniques du son

orange, soit verte. Le signal correspondant est la couleur du feu à un instant


donné. L’information est décodée par chacun grâce à une convention adoptée au
niveau international.
En réalité, l’information est toute contenue au moment de l’apparition du signal
(soit sa transition au niveau de l’émetteur, soit sa perception au niveau de l’auto-
mobiliste), et ne dépend pas de l’état du feu. Il est d’observation courante que les
automobilistes n’observent plus les feux si ceux-ci, à la suite d’une défaillance,
restent toujours dans le même état.
Nous retiendrons comme règle que l’information est liée à la transition d’un
signal.
Prenons un deuxième exemple un peu plus complexe : l’information que j’espère
vous apporter par l’intermédiaire de ce livre. Si je dis « j’espère » c’est pour prévenir
le cas d’un lecteur qui serait un spécialiste de ces questions et qui connaîtrait déjà
par avance le contenu de ce chapitre, le signal est donc prévisible pour ce lecteur
et il n’en retirera donc pas d’informations directes.
Cette information passe par l’écriture au niveau du codage, et de l’imprimerie au
niveau du support. Il est évident, dans cet exemple, qu’il doit y avoir une certaine
compatibilité entre le codage et le support. L’écriture est un codage très complexe,
puisque le sens passe par l’assemblage au sein d’une phrase, de mots selon un
certain nombre de règles (grammaire). Ces mots sont également formés de
symboles (lettres), selon des règles précises (orthographe). L’ensemble est
fortement redondant, ce qui permet de comprendre un message sans ambiguïté
même si un certain nombre d’erreurs ou de « coquilles » se sont glissées dans le
texte.
Le transport ou le stockage d’une information nécessite de l’énergie, mais il n’y a
aucune relation entre la quantité d’informations et l’énergie utilisée. On peut
simplement remarquer que, pour une technologie donnée, il y a dépendance
entre la fiabilité d’une information et la quantité d’énergie que l’on y associe.
Exemple : une conversation téléphonique chuchotée sera difficilement comprise
par le correspondant. De même, il vous sera plus facile de lire ce livre en pleine
lumière, que dans la pénombre !
Il faut bien voir que le signal, qui contient une information, peut être dans sa
forme, ou sa nature, très différent de l’information elle-même. Il suffit pour s’en
convaincre, de penser à la transformation d’une information donnée oralement
par un speaker devant un micro, en un signal associé qui parcourt la tête d’enre-
gistrement d’un magnétophone d’enregistrement.
Chapitre 5 – Le signal 247

5.1.2 Complexité d’un signal. Dimension


✦ Signaux monodimensionnels
Reprenons l’exemple des feux de circulation. Nous avons affaire à un signal qui
peut prendre trois états : rouge, orange ou vert (du moins en France car dans
certains pays étrangers, l’on observe parfois un quatrième état avec simultané-
ment le feu orange et le feu vert). À ces trois états, l’on peut associer de manière
purement conventionnelle, trois niveaux de sorte que l’on peut tracer un graphe
du signal en fonction du temps (figure 5.1).

Figure 5.1 — Représentation graphique du fonctionnement d’un feu


en fonction du temps (signal monodimensionnel).

Le signal le plus simple que l’on puisse imaginer et qui contienne une information
(c’est-à-dire transition) est un signal à deux états. L’information élémentaire est
donc une information binaire (OUI/NON).
Un signal peut au contraire contenir une information, très « nuancée », comme
l’évolution de la température d’un système, ou le débit d’un fluide. Cette informa-
tion peut prendre une infinité de valeurs (donc d’états au niveau du signal) entre
deux limites fixées arbitrairement. Ce type de signal est dit « analogique ».
Les signaux que nous venons d’évoquer sont tous susceptibles d’être repré-
© Dunod – Toute reproduction non autorisée est un délit.

sentés graphiquement, car ils ne dépendent que d’une seule variable, que cette
variable soit le temps, la distance, ou tout autre paramètre. Ils sont de la forme
y = f (x).
Ce type de signal est dit « monodimensionnel ». Notons que pour tracer son
graphe, il suffit d’une feuille de papier, soit un espace bidimensionnel. Un signal
électrique est, par nature de ce type.

✦ Signal bidimensionnel
Ce type de signal peut être décrit par une fonction qui dépend de deux variables.
248 Le livre des techniques du son

Prenons comme exemple une photographie noir & blanc sur papier. Nous
pouvons entièrement définir le signal (et donc l’information contenue dans
l’image) par la connaissance du facteur de réflexion en fonction de chaque point
(au sens mathématique) de l’image. À tout couple (x, y), nous pouvons associer
R(x, y). La représentation graphique est malaisée car il nous faut un espace à trois
dimensions. La convention de la perspective permet cette représentation
(figure 5.2).

Figure 5.2 — Image et représentation graphique du facteur de réflexion


(signal bidimensionnel).

✦ Signaux tridimensionnels
On peut les définir comme étant des signaux qui dépendent de trois variables,
exemple : une image noir & blanc animée, la surface d’un objet réel, etc.
Il ne faut pas confondre la dimension d’un signal avec le nombre de signaux
nécessaires pour transmettre une information. Une photo en couleurs est la
superposition de trois photos noir & blanc colorées. Dans ce cas, nous dirons qu’il
faut trois signaux bidimensionnels pour transmettre cette image.

✦ Quantité d’informations - Débit


Nous avons défini l’information nécessaire, comme étant la transition du signal à
deux états (OUI/NON) qu’on lui associe. Dans le cas d’une telle information
binaire, la forme du signal est indifférente, pourvu que l’on puisse distinguer sans
ambiguïté un état « haut » et un état « bas ». Si ce signal présente une certaine
périodicité, alors nous pouvons affirmer que chaque cycle contient deux infor-
mations élémentaires, puisque contenant une transition haut → bas et une tran-
sition bas → haut. Nous en tirons la conclusion suivante :
Le nombre d’informations élémentaires par seconde (débit) est au maximum
égal au double de la fréquence du signal associé.
Chapitre 5 – Le signal 249

Ceci a de nombreuses conséquences, aussi bien dans les techniques de modula-


tions analogiques, que dans les techniques de multiplexage (temporel ou fréquen-
tiel), ainsi que dans les techniques d’échantillonnage.

5.1.3 Multiplexage
Les techniques de multiplexage ont pour but de transformer un ensemble de
signaux de même nature, en un seul signal de même dimension et de même
nature. Pour la simplicité des représentations, nous ne prendrons comme exemple
que des signaux monodimensionnels, mais la démarche reste valable dans le cas
de signaux plus complexes.

✦ Multiplexage temporel
Dans cette technique, les signaux sont comprimés dans le temps, puis transmis
par « paquets » les uns à la suite des autres. Il est à noter que si l’on a n signaux à
transmettre, de fréquence maximum Fmax, il faut alors comprimer chacun dans
un rapport d’au moins 1/n, de sorte que la fréquence maximum contenue dans
chaque « paquet » est égale à n Fmax (figure 5.3). Le signal résultant aura donc une
fréquence maximum égale à n Fmax. Ceci signifie simplement que la quantité
maximum des informations contenues dans le signal multiplexé est égale à la
somme maximum des informations contenues dans l’ensemble des signaux inci-
dents.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 5.3 — Multiplexage temporel par « paquets ».


250 Le livre des techniques du son

✦ Multiplexage fréquentiel
Cette opération est réalisée en opérant une translation fréquentielle différente
pour chaque signal (modulation), puis en faisant la somme de signaux modulés
(figure 5.4). Il est bien évident que pour pouvoir isoler ces différents signaux,
l’écart fréquentiel entre deux signaux modulés adjacents (canaux) doit être supé-
rieur à la largeur de bande occupée par chaque signal. Or, chaque canal a une
bande au moins égale à la fréquence maximum du signal à transmettre (voir
détail § 5.5). On retrouve donc là encore la bande passante du signal multiplexé,
qui est au moins égale à la somme des fréquences maximales de chacun des
signaux.

Figure 5.4 — Multiplexage fréquentiel.

C’est ce type de multiplexage qui est utilisé universellement en radio. Chaque


émetteur, quelle que soit sa nature, radio-AM, radiotéléphone, C.B., radio-FM,
télévision, etc., possède une fréquence distincte, en principe suffisamment éloi-
gnée des autres pour qu’il n’y ait pas d’interaction, la sommation se faisant direc-
tement dans l’espace hertzien. La partie « haute-fréquence » de nos récepteurs se
comporte donc comme une « fenêtre fréquentielle » permettant d’isoler tel ou tel
émetteur. La télévision analogique (1 chaîne) ou numérique (6 chaînes de SD ou
3 chaînes en HD) occupe un espace de 8 MHz (en Europe). En analogique nous
avons 4 porteuses (luminance, chrominance Dr et Db, et le son). En numérique
nous avons 6 048 + 769 (synchro et divers) porteuses.
Chapitre 5 – Le signal 251

✦ Interdépendance des deux techniques


Nous verrons au paragraphe suivant que les aspects temporel et fréquentiel d’un
signal sont reliés strictement par une relation mathématique (transformation de
Fourier). Il s’ensuit que toute modification dans un domaine, réagit dans l’autre
domaine, de sorte que, sur un plan théorique, la distinction entre ces deux types
de multiplexage est arbitraire. On peut en effet très bien décrire le multiplexage
temporel par son aspect fréquentiel. La figure 5.5 montre comment on peut
décrire cette opération, comme étant la somme de multiplication de signaux
(modulation d’amplitude) rectangulaires.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 5.5 — Multiplexage temporel par multiplication de signaux.


S = A × CA + B × CB.

5.1.4 Échantillonnage
La technique de l’échantillonnage est utilisée pour réduire d’une unité la dimen-
sion d’un signal. Elle permet de remplacer un signal de dimension N par m
signaux de dimension N – 1, m dépend de la résolution souhaitée. Il s’agit en
quelque sorte, d’un découpage en « tranches » tel que montré sur la figure 5.6.
252 Le livre des techniques du son

Figure 5.6 — Échantillonnage d’un signal bidimensionnel.

La reconstitution consiste d’une part à assembler les m signaux entre eux, et


d’autre part à lisser (filtrer) le signal obtenu. Le signal reconstitué sera d’autant
plus fidèle à l’original que le nombre de « tranches » sera élevé. Par contre, il n’est
pas a priori évident qu’avec un nombre de tranches finies, l’on puisse, sous
certaines conditions, retrouver exactement la forme originale. Appelons Qy la
quantité maximale d’informations contenues sur n’importe quel axe perpendicu-
laire au sens de « découpage », soit ici Oy . De même, on appelle Qx la quantité
maximum d’informations selon un axe parallèle à Ox. La quantité maximum
d’informations contenues dans l’image est donc :
Qt = QxQy
Chaque tranche contient par construction même Qx informations, de sorte que
si l’on pose m = Qy , la quantité totale d’informations contenues dans les m
tranches est égale à la quantité d’informations de l’image initiale. Dans ces
conditions, l’on conçoit aisément que la reconstitution puisse se faire de manière
exacte. Ceci constitue le théorème de Shannon que l’on formule de la manière
suivante :
Le nombre d’échantillons par unité de temps (ou de distance) doit être supérieur
ou égal au double de la fréquence du signal à transmettre.
Dans le cas de la figure 5.6, la fréquence (spatiale) maximale est définie par
Q
Fmax  y avec Lx et Ly les dimensions de l’image. La fréquence d’échantillon-
2 Ly
nage Féch. doit donc être :
Féch. = 2 Fmax
Le nombre d’échantillons est donc :
m = Ly Féch.  d’où l’on retrouve  m = Qy
Chapitre 5 – Le signal 253

5.2 Modélisation des systèmes

5.2.1 Analyse des systèmes physiques


De manière générale, lorsque l’on effectue une action sur un système physique,
celui-ci réagit. Cette réaction du système peut être de nature variée : échauffe-
ment, déformation, émission d’énergie lumineuse, etc. Pour un grand nombre de
systèmes physiques, l’on constate que leur réaction à une excitation est, en
première approximation et dans certaines limites, proportionnelles à cette
dernière. On appelle ces systèmes, des systèmes linéaires. Citons un exemple :
vitesse d’un mobile soumis à une impulsion.
Appelons e1(t), e2(t) deux signaux d’excitation (ou d’entrée) et s1(t), s2(t) les signaux
respectifs en résultant (les sorties), l’on a alors :
∀ , µ  e1(t) + µ e2(t) → S1(t) + µS2(t) (1)
Ceci constitue le théorème de superposition très usité en électricité. De plus, la
majorité des systèmes linéaires sont stables dans le temps, de sorte que la relation
entrée/sortie est un invariant temporel. On peut le traduire par la relation
suivante :
∀  e1(t – ) → S1(t – ) (2)
Un système physique qui satisfait ces deux relations, s’appelle un FILTRE. On peut
vérifier que ce que l’on appelle « filtre » dans le langage courant, que ce soit un filtre
électrique, un filtre optique, un support anti-vibratoire, etc., satisfait à ces condi-
tions. D’un point de vue du traitement du signal, une console de mélange, un
magnétophone, une cellule tourne-disque, un ampli de puissance, une enceinte
acoustique, etc. sont considérés comme des filtres. Par contre, un limiteur n’est pas
un filtre, car, de par sa fonction même, il n’est pas linéaire. En effet, son gain varie
en fonction du niveau du signal, qu’il soit en RMS, la valeur moyenne sur 50 ms
(oreille humaine) ou en peak ou toute autre valeur tirée du signal.
© Dunod – Toute reproduction non autorisée est un délit.

5.2.2 Convolution
✦ Transformation d’un signal par filtrage
Nous allons, dans ce paragraphe, étudier les modifications apportées à un signal
quelconque lorsqu’il traverse un filtre. Afin de faciliter la compréhension et les
représentations graphiques, nous allons étudier en premier lieu un signal se
présentant sous forme de « marche d’escalier », nous passerons ensuite au cas des
fonctions continues telles qu’elles se présentent en électronique analogique, par
passage à la limite, en prenant des « marches d’escalier » de plus en plus étroites.
254 Le livre des techniques du son

Si l’on considère un signal de test I(t) tel que défini par la figure 5.7.

Figure 5.7 — Signal test et réponse à ce signal.

Prenons maintenant un signal d’entrée e(t) quelconque formé d’une suite d’échan-
tillons de durée dT0, tel que représenté sur la figure 5.8.
Ce signal est formé d’une suite d’impulsions rectangulaires de durée dT0 et d’am-
plitudes variables que nous appellerons ai, i représentant le numéro d’ordre de ces
impulsions.

Figure 5.8 — Signal d’entrée e(t).

Si l’on considère maintenant, non plus l’ensemble des impulsions, mais chaque
impulsion prise individuellement comme un signal, alors celui-ci ressemble fort
au signal test défini plus haut, à un décalage temporel et une amplitude près. De
sorte que par linéarité et invariance temporelle, l’on peut prédire la sortie Si(t)
correspondant à l’entrée ai (figure 5.9) :
Si(t) = ai dΤ0 Rʹ(t – i dΤ0) (3)
Chapitre 5 – Le signal 255

Figure 5.9 — Réponse du filtre à une impulsion isolée.

Pour connaître la réponse du filtre au signal e(t), il suffit de faire l’addition de


toutes les réponses aux impulsions isolées, puisque la somme des impulsions
isolées représente précisément e(t) et que notre système est linéaire (figure 5.10).
De sorte que :
i =n
 t 
S (t ) = ∑ ai R′ (t − idT0 ) dT0  n = , n entier  (4)
i =0  dT0 
Dans le cas d’une fonction continue, il suffit de faire tendre dΤ0 vers zéro. Alors ce
que nous avons appelé le signal de test devient une impulsion infiniment étroite,
infiniment haute, mais de surface égale à 1 ; c’est ce que l’on appelle une impulsion
de Dirac. Ce n’est pas stricto sensu une fonction telle qu’on la définit en analyse,
mais une distribution, au sens de L. Schwartz. Dans cette opération, la réponse du
filtre Rʹ(t) tend ver R(t), réponse à une impulsion de Dirac. On appelle R(t) la
réponse percussionnelle du filtre. La somme discrète que nous avons décrite se
transforme maintenant en une somme continue c’est-à-dire une intégrale. D’autre
part, nous avons supposé que les signaux e(t) et R(t) étaient entièrement contenus
© Dunod – Toute reproduction non autorisée est un délit.

à l’intérieur d’un intervalle de temps fini, ce qui est inutilement restrictif. De sorte
que nous étendrons le domaine d’intégration de – ∞ à + ∞.
Nous avons la formule suivante :
+∞
S (t ) = ∫ R (t − τ) e ( τ) dτ = R (t ) * e (t ) (5 )
−∞

Ceci constitue le Produit de Convolution. On peut montrer aisément, ce que nous


ne ferons pas ici, que ce produit possède toutes les propriétés du produit usuel
(commutativité, associativité, distributivité). Il possède un élément neutre qui
256 Le livre des techniques du son

est l’impulsion de Dirac. Ceci est physiquement évident, puisqu’un filtre qui
aurait pour réponse percussionnelle une impulsion de Dirac, n’apporterait aucune
déformation au signal test, donc par linéarité à n’importe quel signal.

Figure 5.10 — Réponse du filtre à e(t).

✦ Signal intervenant par filtrage


Cette modélisation n’est intéressante que s’il existe des signaux particuliers qui ne
soient pas modifiés dans leur nature, lorsqu’ils transitent par un filtre. Ils forme-
raient une base de décomposition très intéressante. En langage mathématique,
cela revient à chercher la famille des vecteurs propres, associés à l’opération
« convolution ». Il faut donc trouver une famille de signaux tels que :
+∞
e (t ) * R (t ) = λe (t ) ⇒ ∫ e (t − τ) R ( τ) dτ = λe (t ) (6)
−∞

+∞
si e (t ) = e Pt alors λ= ∫ R ( τ) e − Pτdτ
−∞

On peut montrer que la famille des fonctions exponentielles satisfait cette


contrainte. Le terme p peut être purement réel, complexe ou imaginaire pur. Il
faut enfin que l’intégrale portant sur R(t) ait un sens. R(t) étant la réponse d’un
système physique, il est (presque) évident que l’énergie fournie par ce filtre est
finie et donc que la fonction R(t) est telle que :
+∞
∫ IR (t ) Idt < +∞ (7 )
−∞
Chapitre 5 – Le signal 257

✦ Transformée de Laplace et Fourier


Deux cas peuvent se présenter : écrivons p = a + jb ; ou bien a est nul et dans ce
cas, le module d’une exponentielle complexe étant égal à 1, l’intégrale a toujours
un sens (transformée de Fourier), ou bien a est non nul, et dans ce cas, l’on doit
avoir R(t) strictement égal à zéro dans la région où l’exponentielle diverge. On a
pris l’habitude de considérer dans ce cas :
R(t) = 0 pour tout t < 0, avec a également positif (exponentielle décroissante). On
parle alors de transformée de Laplace.
L’expression ainsi obtenue par l’une ou par l’autre méthode représente la fonction
de transfert du filtre.
La transformée de Laplace impose une contrainte supplémentaire à R(t). Dans le
cas de systèmes physiques évoluant en temps réel, cela signifie que le signal de
sortie ne peut apparaître avant le signal d’entrée (principe de causalité). Cette
contrainte est donc assez naturelle dans ce cas. Par contre, lorsqu’il s’agit de
signaux enregistrés, cette contrainte est inutilement limitative. En effet, il n’est
guère difficile de prévoir « l’avenir » d’un signal déjà enregistré, il suffit de faire
une prélecture.
La transformée de Laplace est un outil essentiellement destiné à faire des calculs
algébriques, seul outil dont disposaient les scientifiques avant l’avènement de l’in-
formatique, mais qui se prête mal au calcul numérique (intégration dans le plan
complexe). Elle est donc actuellement délaissée au profit de la transformée de
Fourier qui est très facilement implantable sur n’importe quel système informa-
tique. Les deux transformées donnent les mêmes renseignements sur le comporte-
ment d’un filtre.
Dans le reste de ce chapitre, nous nous intéresserons principalement aux
propriétés de la transformée de Fourier car cette dernière est très proche des
méthodes d’analyse que l’on utilise couramment dans les métiers du son.
© Dunod – Toute reproduction non autorisée est un délit.

✦ Fourier et les applications


La transformée de Fourier n’est qu’une vision intellectuelle de même que ses
valeurs propres j. En réalité, la notion de fréquence n’existe pas stricto sensu.
Les phénomènes de résonance des filtres s’en approchent mais puisqu’une sinu-
soïde démarre de – ∞ jusqu’à + ∞, il n’existe pas de moyens matériels pour la
fabriquer. On ne peut donc considérer que des parties de sinusoïde.
258 Le livre des techniques du son

5.2.3 Analyse spectrale


L’on utilise souvent en métrologie acoustique la notion d’analyse spectrale, ce qui
représente une approche de la notion de transformée de Fourier.
D’un point de vue mathématique, il existe une infinité de fréquences dans la
gamme audible, ce qui empêche une mesure directe : aussi, a-t-on pris l’habitude
de contourner la difficulté en ne considérant pas la décomposition du signal pour
chaque fréquence, mais seulement pour chaque gamme de fréquences.
La gamme audio est donc découpée en un nombre infini de bandes dont la largeur
sera plus ou moins grande.
Ainsi, lorsque l’on fait une analyse spectrale en audio, le résultat dépend de la
méthode d’analyse (largeur relative ou absolue de chaque filtre).
Deux types d’analyses sont utilisés, soit l’analyse dite à Δf constant, c’est-à-dire
que chaque largeur de bande exprimée en hertz a la même valeur, quelle que
soit la fréquence centrale (ce type d’analyse se rapproche de la notion de spectre
au point de vue mathématique), soit l’analyse à intervalles à Δf/f constant, qui,
le plus souvent, sont des intervalles d’octave ou de tiers d’octave. Cette habitude
a été prise pour tenir compte des propriétés d’analyse de l’oreille dont la sensi-
bilité fréquentielle est quasi logarithmique. Il existe actuellement des sono-
mètres qui analysent en douzième d’octave de 0,7 Hz à 22 kHz avec une période
d’échantillonnage pouvant aller jusqu’à 10 ms (SVAN 979 de SVANTEK).
Du fait de ces artifices de mesures, il convient d’interpréter les résultats avec
prudence, comme nous allons le voir sur le cas suivant.

✦ Analyse à Δf constant
Un bruit blanc, par définition, a une densité spectrale constante (définition
mathématique), ceci veut dire que son énergie est répartie de manière équitable
sur toutes les fréquences composant la gamme audio.
Considérons un bruit blanc dans la bande 20 Hz-20 kHz, dont la valeur efficace
est de 100 dB, mesurée sur notre sonomètre.
Si l’on fait maintenant une analyse de ce phénomène physique, à l’aide d’un analy-
seur à f constant, par exemple par canaux de 100 Hz ; nous allons avoir 200
canaux environ dans la bande de 20 Hz - 20 kHz.
Du fait de la définition de notre bruit blanc, chaque canal comprenant la même
largeur de bande, donc le même nombre de fréquence recueillera la même
énergie ; cela signifie que l’énergie de chaque bande sera de 1/200e de l’énergie
totale. Exprimée en dB, cela donne un niveau de 77 dB par canal.
Chapitre 5 – Le signal 259

Si, au lieu d’un analyseur 200 canaux, l’on prend un analyseur 400 canaux en
bandes de 50 Hz, alors le raisonnement sera le même, et cela conduira à une
valeur de 74 dB par canal. Ceci montre que la représentation d’un bruit sous
forme de spectre n’est valable que si l’on spécifie les conditions d’analyse.

✦ Analyse à Δf/f constant


Dans le cas d’une analyse à f / f constant, nous allons trouver en plus une modi-
fication de l’allure de la courbe.
Effectivement, prenons le cas d’une analyse en tiers d’octave, lorsque l’on passe
d’un canal au canal suivant, il faut multiplier la fréquence centrale par la raison du
tiers d’octave, c’est-à-dire 3 2 .
La largeur de bande est également augmentée dans le rapport (2)1/3, donc
l’énergie est augmentée dans le rapport 10 log (2)1 / 3, ce qui donne
environ + 1,003 dB.
Ceci montre que le résultat de la mesure sera un spectre qui indiquera une montée
régulière à raison de + 3 dB/octave. On trouvera, pour valeur, 65 dB dans le tiers
d’octave centré sur 25 Hz, et 94 dB dans le tiers d’octave centré sur 20 kHz (voir
figures 5.11a et 5.11b).

Figure 5.11 — (a) Spectre d’un bruit blanc.


(b) Analyse spectrale du même bruit blanc.
© Dunod – Toute reproduction non autorisée est un délit.

En acoustique, de par les propriétés de l’oreille, on utilisera presque exclusive-


ment l’analyse à f / f, c’est-à-dire douzième d’octave, tiers d’octave ou octave.
Aussi, pour pouvoir rapprocher les notions de spectre au sens mathématique du
terme, des mesures réalisées à l’aide d’un tel appareil, on utilise comme bruit
étalon, non pas un bruit blanc qui donne une courbe de réponse montante
à + 3 dB/octave, mais un bruit rose (analogie lumière) qui est un bruit spéciale-
ment conçu pour avoir un spectre plat vis-à-vis de ce type d’analyse.
260 Le livre des techniques du son

5.3 Filtrage et traitement

5.3.1 Filtrage analogique


Nous sommes tous très conditionnés par ce type de filtrage auquel la technologie
analogique nous a habitués. Un tel filtre est formé d’éléments réactifs (induc-
tances, condensateurs) associés souvent à des éléments résistifs et à des éléments
actifs. De par la nature même des éléments mis en jeu, la relation entrée/sortie
dans le domaine temporel est toujours une équation intégro-différentielle,
puisque les comportements des inductances et des condensateurs sont de cette
nature.
Nous donnons à titre d’exemple les relations tension/courant pour ces deux
dipôles (voir chapitre 6) :
pour une inductance v(t) = L di(t)/dt (8)
1
v (t ) = i (t ) dt (9)
C∫
pour un condensateur

avec : v(t) la tension aux bornes du dipôle, i(t) l’intensité parcourant le dipôle.

✦ Notion d’impédance
De par les propriétés de la transformée de Fourier, ces expressions écrites dans le
domaine fréquentiel sont notablement plus simples à manipuler. En effet, on
montre facilement que les opérations d’intégration et de dérivation se transfor-
ment en multiplication ou division par j. De sorte que l’on écrit usuellement :
pour une inductance V() = j L × I() (10)
1
pour un condensateur V ( ω) = × I ( ω) (11)
jC ω
V() et I() représentent respectivement les spectres des tensions et des
courants.
Ces relations étant formellement identiques à la loi d’Ohm, on a pris l’habitude
d’utiliser la notion d’impédance. Mais il ne faut pas se cacher que cette notion est
définie dans le domaine fréquentiel et n’a donc aucune réalité, contrairement à la
notion de résistance.

✦ Fonction de transfert
Ceci a un certain nombre de conséquences sur le comportement des filtres analo-
giques. On constate que ce type de filtre a toujours une fonction de transfert du type :
Chapitre 5 – Le signal 261

P ( jω )
H ( jω ) = (12)
Q ( jω )
P et Q étant des polynômes à coefficients réels (faisant intervenir R, L, C ) avec
degré de P inférieur ou égal au degré de Q. Le degré de Q est l’ordre du filtre. C’est
ce paramètre qui fixe la pente asymptotique maxima. Exprimée en dB/oct, cette
pente maxima est de 6 fois le degré de Q. Ce nombre Q représente également le
nombre d’éléments réactifs indépendants.
On appelle « zéros » les racines du numérateur et « pôles » les racines du dénomi-
nateur. Les coefficients de ces polynômes étant réels, il s’ensuit que les racines
complexes sont toujours conjuguées. C’est la raison pour laquelle on a pris l’habi-
tude en filtrage actif, de synthétiser des filtres d’ordre élevé par la mise en cascade
de filtres élémentaires d’ordre 2.
À titre d’exemple, nous donnons sur la figure 5.12 le schéma d’un filtre d’ordre 4
en technologie passive (deux condensateurs, et deux inductances) et en techno-
logie active (deux cellules d’ordre 2 comprenant chacune 2 condensateurs), et sa
fonction de transfert sous forme graphique (courbe de réponse).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 5.12 — Filtre du quatrième ordre.


262 Le livre des techniques du son

La connaissance des « zéros » et des « pôles » définit (à un gain près) complète-


ment le comportement du filtre aussi bien dans le domaine fréquentiel (courbe de
réponse) que dans le domaine temporel (réponse percussionnelle).

5.3.2 Filtres échantillonnés à convolution


Dans ce type de filtre, la sortie est une combinaison linéaire de signaux issus de
l’entrée et affectés de retards plus ou moins grands. Il ne comprend aucun élément
réactif. Les modifications de la courbe de réponse sont obtenues par la création
d’interférences entre les signaux issus de l’entrée. La figure 5.13 décrit le principe
de fonctionnement d’un tel filtre.

Figure 5.13 — Principe d’un filtre à convolution.

Il est à noter que les signaux retardés sont soit continus (cas d’un retard de
propagation dans l’air ou milieu solidien) soit échantillonnés (retard numérique
– voir « Les périphériques », tome 2). La théorie diffère légèrement selon ces deux
cas, mais les principes et résultats de base développés ici restent valables dans les
deux cas. Le signal étudié ici sera considéré sous sa forme analogique. La transpo-
sition aux filtres numériques se fera ultérieurement (voir § 5.3.4).
Les micros « canon » sont de ce type. Le retard est plus exactement une différence
de retard dans l’air libre et la propagation dans le tube d’interférence. Cette diffé-
rence de retard est fonction de l’angle d’incidence. Le filtre ainsi constitué est un
filtre passe-bas, dont la fréquence de coupure dépend, comme pour tous les filtres
de cette nature, de la valeur des coefficients de la combinaison linéaire (grossière-
ment la largeur des fentes) et du retard élémentaire. Or, ce dernier dépend de
l’angle d’incidence, d’où la directivité de ce type de micro.

✦ Réponse impulsionnelle
Que se passe-t-il lorsque l’on envoie dans un tel filtre une impulsion de Dirac ?
Cette impulsion apparaît successivement sur l’ensemble des sorties retardées,
avec pour amplitude, la suite des coefficients affectés à chaque sortie. La réponse
Chapitre 5 – Le signal 263

impulsionnelle est donc la suite numérique de ces coefficients. La réponse


fréquentielle n’est que la transformée de Fourier de cette suite. Regardons cela un
peu plus en détail.
Soit l’ensemble des signaux retardés e(t – kTe) avec Te retard élémentaire, et k le
numéro du signal.
Alors la sortie a pour expression :
n
s (t ) = ∑ ak e (t − kTe ) (13)
k =0

ce qui est l’expression du produit de convolution (voir § 5.2.2).

✦ Réponse fréquentielle
L’opérateur retard a pour transformée de Fourier : e − j 2πKTe .
De sorte que dans le domaine fréquentiel, on peut écrire :
n
S ( ω) = ∑ E ( ω) ⋅ ak e − j 2 πKTe (14 )
k =0

Ceci n’est ni plus ni moins que l’expression de la transformée de Fourier discrète


(DFT) de la réponse impulsionnelle.
Les méthodes de synthèse de ces filtres se classent en deux grandes familles, soit
synthèse dans le domaine temps, soit dans le domaine fréquence.

✦ Méthode de synthèse par échantillonnage temporel


Dans cette méthode, l’on privilégie la précision de la réponse impulsionnelle. À
partir d’une fonction de filtrage continue, on calcule par TF (transformation de
Fourier) la réponse impulsionnelle. Cette dernière est ensuite échantillonnée et
donne la valeur numérique des coefficients. Sauf cas très particulier, il n’y a
© Dunod – Toute reproduction non autorisée est un délit.

aucune raison pour que la suite de ces coefficients soit finie. Or, pour des raisons
évidentes de coûts, le nombre de cellules de retard élémentaires doit être le plus
faible possible. Il ne faut donc prendre que les coefficients les plus importants qui,
généralement, sont les plus proches de l’origine. On réalise ainsi une troncature.
La fenêtre de troncature la plus simple est la fenêtre rectangulaire que l’on prend
de longueur égale à la longueur maxima du retard.
Ce faisant, on perturbe peu la réponse impulsionnelle, par contre, cela a une
grande conséquence sur la réponse fréquentielle. En effet, la perturbation que l’on
introduit dans le domaine temps est une multiplication. Ceci se comporte comme
264 Le livre des techniques du son

une convolution dans le domaine fréquence, et réalise un « lissage » de la courbe


d’origine. Il s’agit là d’un filtrage temporel. Les chercheurs ont trouvé différentes
fonctions (Hamming, Kaiser-Bessel, etc.) qui perturbent le moins possible la
réponse fréquentielle au détriment de la réponse temporelle. Mais il n’existe pas
de meilleur compromis, et chaque cas est particulier. On peut toutefois s’aperce-
voir que plus la longueur de la fenêtre est grande (c’est-à-dire retard important),
moins la transformée de Fourier de cette fenêtre sera étendue en fréquence, et
moins l’effet de lissage sera prononcé. De sorte que les filtres très sélectifs,
demandent un grand nombre de cellules de retard.

✦ Méthode de synthèse fréquentielle


Dans cette méthode, on échantillonne directement la réponse fréquentielle, et à
partir de N échantillons, on calcule par transformée de Fourier discrète inverse
(IDFT) la suite des N coefficients. Cette méthode présente l’avantage d’avoir une
courbe de réponse qui ne présente aucune erreur en N points par rapport à la
courbe d’origine. Ici aussi, nous percevons bien que pour décrire une courbe de
réponse très sélective, il faudra prendre un grand nombre d’échantillons dans le
domaine fréquence et donc dans le domaine temps.

✦ Intérêt des filtres à convolution


Dans ce type de filtre, l’on peut fixer arbitrairement la réponse impulsionnelle,
chose que l’on ne peut faire avec aucun autre type de filtre. On peut notamment
réaliser des filtres à déphasage nul.
D’un point de vue théorique, il est aisé de démontrer que, pour qu’un filtre ne
déphase pas il faut et il suffit que sa réponse impulsionnelle soit symétrique par
rapport à t = 0. Un tel filtre n’est pas causal, et ne peut donc être réalisé que si l’on
connaît l’« avenir » du signal puisque la sortie doit « anticiper » l’entrée. Ceci
signifie donc que l’on ne peut réaliser ce filtre que si le signal est mémorisé sous
quelque forme que ce soit. Montrons, par une petite expérience, que ceci est à la
portée de chacun. Soient deux magnétophones A et B, l’on enregistre sur B une
bande, lue sur A via un filtre F qui apporte une altération d’amplitude et de phase.
La bande B est ensuite relue à « l’envers » sur le magnétophone A et enregistrée
une deuxième fois sur le magnétophone B au travers du même filtre. Sur la bande
finale, on trouve donc un signal qui est passé deux fois à travers le filtre, une fois à
« l’endroit », et une fois à « l’envers ». De sorte que le déphasage introduit par le
filtre, est tantôt un déphasage « avance », tantôt un déphasage « retard ». Le
déphasage global est nul. Par contre, la courbe d’amplitude est « doublement »
modifiée par le passage dans le filtre F.
Chapitre 5 – Le signal 265

5.3.3 Filtres échantillonnés récursifs


✦ Définition
Nous avons vu que pour les filtres analogiques, la fonction de transfert était
toujours du type :
H(j) = P(j)/Q(j) (15)

Or, dans les filtres à convolution, on obtient des réponses du type :


H(j) = P(j) (cas continu) (16)
H(ej) = P(ej)
ou (cas échantillonné) (17)

Cela revient à dire que pour l’instant, nous ne savons réaliser que des filtres dont
la sortie dépend de l’entrée et de ses dérivées. Alors que dans le cas des filtres
analogiques, la sortie dépend de ses propres dérivées.
Autrement dit, le problème consiste à savoir faire une division, en ne connais-
sant que la multiplication. Les électroniciens « analogiques » savent très bien
créer une fonction inverse grâce à la méthode générale de contre-réaction
(figure 5.14).

Figure 5.14 — Structure d’une contre-réaction.

À partir de ce schéma, l’on peut calculer les fonctions de transfert H1 = S1/E et


© Dunod – Toute reproduction non autorisée est un délit.

H2 = S2/E.
On trouve :
1 1
H1 ( ω ) = et H 2 ( ω) = (18)
H ( ω) + 1 1 H ( ω) + 1
La forme de H1 est particulièrement intéressante car à un coefficient + 1 près,
qu’il est facile « d’absorber » dans le calcul de H, elle fournit la réponse à notre
problème. Pour que H() soit un polynôme, il suffit que ce soit un philtre à convo-
lution que nous venons d’étudier au paragraphe précédent.
266 Le livre des techniques du son

✦ Intérêt des filtres récursifs


Ce type de filtre a des propriétés similaires à celles des filtres analogiques. Il en
possède les défauts et les qualités. Son principal défaut est que, par définition
même sa réponse impulsionnelle suit une loi de récurrence, ce qui impose une
étroite relation entre déphasage et courbe d’amplitude. Sa principale qualité est
de permettre la réalisation de courbes de réponse très « tourmentée », avec très
peu de calcul (comparativement aux filtres à convolution), surtout dans les
fréquences basses.

5.4 Les canaux de transmission

5.4.1 Définition
On appelle « canal de transmission » tout moyen technologique permettant de
transmettre (avec éventuellement mémorisation) un signal (sous quelque forme
que ce soit) supportant une information. Citons à titre d’exemple le câble coaxial
transmettant une ou plusieurs images de télévision. Cela peut être aussi bien une
liaison satellite qu’une pellicule photographique, ou qu’un simple câble élec-
trique.
Quelle que soit la technologie employée, on peut définir des grandeurs qui carac-
térisent un canal de transmission.

5.4.2 Compatibilité débit-bande passante


Nous avons vu au § 5.1.3 que le spectre d’un signal (c’est-à-dire l’encombre-
ment fréquentiel) est en relation étroite avec la quantité d’informations que
l’on transmet. Dans le cas d’un canal de transmission, on a l’habitude de carac-
tériser par sa bande passante (c’est-à-dire l’écart entre la fréquence maximale
et la fréquence minimale utile) sa capacité à transmettre un flot d’informa-
tions.
Il faut donc, pour qu’il n’y ait pas de perte d’informations, que le spectre du signal
soit moins étendu que la bande passante du canal de transmission. Ceci est une
condition indispensable pour envisager de transmettre une information par l’in-
termédiaire d’un canal.
Cette condition n’est pas suffisante, il faut en plus que le canal soit adapté, c’est-à-
dire que le spectre du signal incident soit entièrement inclus dans la bande
passante. Prenons un exemple : si l’on veut transmettre une communication télé-
phonique dont le spectre s’étend très grossièrement de 300 Hz à 3 kHz via un
canal « audio » dont la bande passante est de 50 Hz-5 kHz, il n’y aura évidemment
Chapitre 5 – Le signal 267

aucun problème, par contre, si l’on dispose d’un canal hertzien de bande passante
1 GHz à 1,0001 GHz, il faudra translater le spectre autour de 1,00005 GHz, à l’aide
d’un modulateur. Cette opération est possible car la bande passante du canal de
transmission est de 0,0001 GHz soit 100 kHz, et est donc bien supérieure à
l’étendue du spectre du signal à transmettre.

5.4.3 Les défauts introduits


Les défauts introduits par les canaux de transmission se classent en deux familles :
les défauts linéaires, et les défauts non linéaires (au sens défini au § 5.2.1).

✦ Les défauts linéaires


Ils sont entièrement définis par la fonction de transfert (§ 5.3.1) du canal de
transmission que l’on considère alors comme un filtre. On caractérise usuelle-
ment le canal de transmission par sa courbe de réponse en amplitude et en phase,
mais on peut aussi le caractériser tout aussi précisément par sa réponse impul-
sionnelle. Pour toute fonction de transmission ne présentant pas de « zéro » dans
la bande utile, il est possible (au détriment notamment du rapport signal à bruit)
d’effectuer une pré ou post-correction exacte. C’est ce que réalisent de manière
approchée, les égaliseurs sur les lignes de transmission spécialisées des PTT
(liaison entre les studios et l’émetteur radio par exemple). Les courbes de réponse
en amplitude et en phase ne sont pas indépendantes. Pour tout système physique
causal, la rotation de phase minimale est déterminée par la courbe de réponse en
amplitude. La grande majorité des réseaux électriques est à phase minimale. On
peut facilement les reconnaître sans aucun calcul. Il suffit de vérifier si le schéma
peut se développer de façon à ce qu’il n’y ait aucun point de croisement de fils
(attention aux symboles de masse !). La figure 5.15 montre un exemple de filtre à
déphasage minimal et un autre qui n’est pas à déphasage minimal.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 5.15 — Réseaux à déphasage minimal (a), non minimal (b).

✦ Temps de propagation de phase


Une rotation de phase est souvent associée à un retard et cela appelle quelques
commentaires. Il est bien évident que sur un régime sinusoïdal entretenu, une
268 Le livre des techniques du son

rotation de phase se traduit par un décalage temporel de la courbe et l’on peut


donc évaluer ce retard à l’aide d’une simple règle de trois. À savoir, à une rotation
de 2, correspond un décalage d’une période, d’où l’on en déduit la relation
suivante :
ϕ tϕ
=  (19)
2π T
avec : φ la phase, tφ le retard, T la période,
équation que l’on peut réécrire :
tϕ = ϕ ω   (20)
avec :  pulsation.
Il faut bien se persuader que ceci est un retard (ou une avance) apparent, car la
phase ne peut être identifiée qu’à 2 près. Un tel retard est appelé retard de phase
ou retard de propagation de phase. Il n’y a aucune relation avec le retard de trans-
mission d’une information.

✦ Temps de propagation de groupe, temps d’émergence


Pour lever l’ambiguïté sur le temps réel de transfert, l’expérience la plus simple qui
vient à l’esprit est d’envoyer une impulsion et de constater à quel moment elle
arrive. Mais on se heurte immédiatement au fait qu’une impulsion de Dirac se
transforme, par filtrage linéaire dans le canal, en une réponse impulsionnelle plus
ou moins large, de sorte que le temps d’arrivée est difficile à évaluer. On peut au
moins définir précisément le temps d’émergence comme étant l’instant où appa-
raît le début de la réponse. C’est une notion fondamentale que l’on retrouvera sur
les « alignements temporels » des enceintes acoustiques multivoies.
Le temps de propagation de groupe est alors défini comme étant le temps moyen
de transfert de l’énergie (donc de l’information). Pour éviter un « élargissement »
de l’impulsion par filtrage, on utilise une impulsion déjà filtrée avec un spectre
plus petit que la bande passante du canal. Dans ces conditions, le canal de trans-
mission n’apporte plus de modification de forme, puisqu’étant « parfait » vis-à-vis
des fréquences composant l’impulsion d’origine. Ceci a pour conséquence l’ho-
mothétie des impulsions d’entrée et de sortie, de sorte qu’il devient alors aisé de
définir le retard. Les physiciens parlent alors de « paquet d’ondes » ou de « groupe
d’ondes », d’où la dénomination.
Mathématiquement, on peut le relier à la courbe de phase par la relation suivante :
t g = dϕ dω   (21)
Chapitre 5 – Le signal 269

On en trouve une application directe en vidéo analogique, sur l’un des signaux
composant les lignes test (LT 17 – « Impulsion 20 T composite ») (figure 5.16). Ce
signal contient deux impulsions superposées, l’une en basse fréquence (centrée
sur 0 Hz) et l’autre en haute fréquence (centrée sur 4,43 MHz), toutes deux ayant
une largeur de 100 kHz. Elle permet notamment de mesurer la différence de
temps de propagation entre les signaux luminance et chrominance. En effet, en
vidéo, comme dans beaucoup d’autres applications, l’important n’est pas tant le
temps de transmission proprement dit, mais la différence de temps de propaga-
tion entre des signaux participant à la description d’un même phénomène
physique. Chacun en sait l’importance dans un signal stéréophonique. Aussi
parle-t-on souvent de gain et de phase différentielle pour caractériser la variation
de ces grandeurs entre deux ou plusieurs canaux de transmission.

Figure 5.16 — Représentation simplifiée du signal de test « 20 T » utilisé en vidéo
(aspect temporel et fréquentiel).

5.4.4 Défauts non linéaires


✦ Dynamique - Rapport signal sur bruit
Un signal quel qu’il soit, analogique ou numérique, évolue toujours entre deux
bornes. La borne supérieure peut être plus ou moins précisément fixée suivant le
support, et représente la valeur du signal au-delà de laquelle il n’y a plus linéarité
© Dunod – Toute reproduction non autorisée est un délit.

entre le signal et sa transcription. Suivant le support, l’on parle d’écrêtage, de satu-


ration, de surexposition, etc.
La borne inférieure est définie par le plus petit signal transmissible ou inscriptible
sur le support. Du fait de la nature corpusculaire de la matière, cette limite existe
pour tous les supports. C’est ce que l’on nomme habituellement le bruit de fond
(ou grain dans les techniques de l’image).
Le rapport signal sur bruit d’un canal ou d’un support, est donc le rapport (ou la
différence en dB) entre la valeur du signal le plus intense que l’on peut transmettre
sans (trop de) déformation, et la valeur du bruit de fond.
270 Le livre des techniques du son

La dynamique d’un signal, est le rapport entre la valeur la plus intense et la valeur
la plus faible contenue dans ce signal. Il est bien évident que la dynamique doit
nécessairement être plus faible que le rapport signal sur bruit. Dans le cas
contraire, il faut alors user d’artifices, tels que compresseurs et autres réducteurs
de bruit (voir « Les périphériques », tome 2).

✦ Les distorsions

✧ Les généralités
On appelle distorsion toute déformation du signal liée aux non-linéarités. Les
déformations linéaires sont un des aspects du filtrage. Lorsque l’on utilise comme
signal de test une sinusoïde, les propriétés linéaires induisent une modification
de l’amplitude et de la phase, mais non de la forme, alors que la non-linéarité du
canal introduit, elle, des déformations sur la forme de la sinusoïde. Ces déforma-
tions périodiques peuvent être perçues généralement, si l’on en fait une décom-
position spectrale, comme des harmoniques du signal de test (dans certains cas
très particuliers on peut assister à la création de sous-harmoniques notamment
sur les HP à suspension raide).
On appellera signal parasite le signal déformant le signal d’origine à l’exclusion
des déformations d’origine linéaire. À ce propos, on constate encore couram-
ment une grave confusion sur les amplificateurs de puissance, entre la limita-
tion de temps de montée sur un signal rectangulaire liée à la bande passante de
l’amplificateur, et la limitation par la vitesse de commutation des transistors
de puissance. Dans le premier cas, lorsque l’on modifie le niveau, les courbes
sont toujours déformées de la même manière, dans le second, les déforma-
tions n’apparaissent qu’à fort niveau. Il faut savoir que le temps de montée
théorique d’un signal dont la bande passante est limitée à 20 kHz, ne peut être
inférieur à 8 µs.
Les mesures de distorsion essayent de caractériser les défauts dus à la non-­
linéarité du support ou du canal (figure 5.17). Du fait même qu’il s’agit d’un
phénomène non linéaire, la notion de spectre et transformée de Fourier est
inadaptée à l’observation de ce phénomène. Aussi peut-on définir une infinité
de types de distorsions, en fonction des conditions de mesures. Néanmoins, un
certain nombre de ces mesures ont été normalisées mais il n’en reste pas moins
vrai que d’une part, certaines zones d’ombre existent quant aux conditions
précises, et d’autre part, en fonction des technologies nouvelles, de nouvelles
formes et mesures de distorsion sont récemment apparues et continueront
d’apparaître.
Chapitre 5 – Le signal 271

Figure 5.17 — Courbe de transfert entrée-sortie


d’un canal de transmission.

✧ Distorsion harmonique
Dans ce type de mesure, on utilise comme signal une sinusoïde. Le signal sortant
peut se décomposer en trois termes, d’une part la sinusoïde d’entrée affectée d’un
gain et d’un déphasage, d’autre part un signal parasite résultant de la déformation
de la sinusoïde, et enfin le bruit de fond que l’on néglige à juste raison dans la
quasi-totalité des cas. On mesure le taux de distorsion harmonique en faisant le
rapport entre les valeurs efficaces du signal parasite et du signal total. On peut le
faire soit directement (taux de distorsion global), soit après une décomposition
spectrale. Dans ce cas, on précise le taux de distorsion par harmonique 2, 3, etc.
© Dunod – Toute reproduction non autorisée est un délit.

D’un point de vue mathématique, la définition est la suivante :


Soit un signal s(t), formé d’un fondamental d’amplitude a1 et d’harmoniques d’am-
plitudes respectives ai. Alors les taux de distorsion partielle sont donnés par :
D % = 100 ai /a1 pour l’harmonique i (22)
et le taux global est donné par :
100
 ∑ ai2   (23)
12
D% =
a1
272 Le livre des techniques du son

On peut remarquer que dans la pratique, on fait apparaître au dénominateur la


totalité de l’énergie contenue dans le signal, alors que l’on ne devrait prendre en
compte que l’énergie contenue dans le fondamental. Pour les taux de distorsion
inférieurs à 10 %, l’écart n’est pas significatif.
Il est bien évident que le taux de distorsion varie en fonction de la fréquence, mais
aussi en fonction du niveau. L’habitude est de prendre un niveau d’entrée, constant
(normes CEI éditées par l’AFNOR). Personnellement, je pense qu’il serait préfé-
rable de se référer à un niveau de sortie constant.
Prenons l’exemple d’un haut-parleur. Chacun sait que, par construction même, le
taux de distorsion harmonique d’un haut-parleur augmente très vite avec le
niveau et plus on descend dans les fréquences basses. Si la courbe de réponse
chute très rapidement dans le grave, le débattement du haut-parleur sera faible,
et sa distorsion également. Par contre, si la courbe de réponse s’étend davantage
dans les fréquences basses, alors le taux de distorsion sera plus important bien
que la qualité intrinsèque soit supérieure.
Si au contraire, l’on mesurait la pression acoustique constante, alors les haut-
parleurs à courbes de réponses larges seraient favorisés.

✧ Distorsion par intermodulation


Lorsque l’on injecte deux signaux S1 et S2 simultanément dans un canal de trans-
mission, on devrait retrouver en sortie une combinaison linéaire de S1 et S2. On
trouve en fait en plus le produit S1 × S2. Si S1 et S2 sont des sinusoïdes pures, de
fréquence f1 et f2, alors on retrouve des termes d’intermodulation de fréquence
f1 – f2 et f1 + f2 (par une démarche identique à la modulation AM utilisée en radio
[figure 5.18]).

✧ Autres types de distorsion


On cite souvent la distorsion d’intermodulation transitoire, qui est une déformation
importante du signal, mais pendant un temps très court, et est liée essentiellement
à la vitesse de réaction des circuits électroniques. Sa mesure reste délicate, et le
mode opératoire défini par l’AES n’est pas encore retenu par une norme de la CEI.
Avec les amplificateurs en classe B, il existe une distorsion dite de « croisement ».
Il s’agit en fait d’un mauvais raccordement entre les alternances positives et les
alternances négatives qui sont traitées par des circuits séparés. Le signal parasite
qui en résulte est à peu près indépendant du signal d’entrée dès l’instant où celui-ci
est au-dessus d’un certain seuil. Aussi, le taux de distorsion de croisement passe-
t-il par un maximum pour les signaux dont l’amplitude est proche du seuil, et
décroît très vite pour les très petits et très grands signaux. De sorte qu’il me paraît
Chapitre 5 – Le signal 273

Figure 5.18 — Distorsion par intermodulation. Spectre.

intéressant pour ce type de distorsion de spécifier la valeur crête à crête du signal


parasite (au sens défini dans le paragraphe sur la distorsion harmonique)
(figure 5.19).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 5.19 — Distorsion de croisement.

Comme on peut s’en rendre compte, la notion de distorsion recouvre beaucoup de


phénomènes et ne peut être unifiée, comme c’est le cas des fonctions de transfert,
en l’absence d’un instrument mathématique commode pour l’étude des phéno-
mènes non linéaires. Cet instrument serait un complément à la transformée de
Fourier, cette dernière décrivant parfaitement bien tous les phénomènes linéaires.
274 Le livre des techniques du son

5.5 Transmission des signaux

5.5.1 Généralités
Dans cette partie, on s’intéresse aux techniques de modulation usuellement utili-
sées pour transmettre un signal dans un canal de transmission. Ces techniques
peuvent présenter deux aspects, à savoir :
• adaptation à la bande passante, et aux propriétés propres du canal,
• protection de l’information.
On peut distinguer par mesure simplificatrice, deux types de modulation, les
modulations analogiques et les modulations numériques mais actuellement les
unes et les autres font appel à des circuits analogiques et numériques. Cette
distinction repose sur la nature des opérations mathématiques que l’on effectue.
Le terme « modulation analogique » recouvre des manipulations de fonctions
continues, alors que le terme « modulation numérique » suppose que l’on a affaire
à un signal final qui ne peut prendre qu’un nombre réduit d’états (en général
deux, parfois trois) et que les transitions entre états sont synchrones avec une
horloge (dans le cas contraire, on parle de modulation hybride).
Historiquement, les techniques de modulation se sont développées sous l’influence
des transmissions militaires. Transmettre un signal sonore dans l’espace hertzien,
nécessite pour le moins une translation de fréquence. Afin de multiplier le nombre
des stations émettrices sans interférences les unes sur les autres, il est nécessaire
d’utiliser pour chacune une bande relativement réduite dans cet espace hertzien.
D’autre part, les solutions mathématiques à ce problème devaient être compatibles,
sur un plan économique, avec les possibilités technologiques de l’époque.
Les premières liaisons électriques et radioélectriques furent numériques, aussi
surprenant que cela puisse paraître. Il s’agissait d’un code série asynchrone
inventé en 1832 par M. Morse ! Le principe est connu de tous, et pour réaliser une
transmission radioélectrique, il était naturel de prendre comme signal d’émis-
sion, celui qui avait le plus faible encombrement fréquentiel, c’est-à-dire une
sinusoïde, puisqu’elle ne contient, par définition, qu’une seule fréquence (posi-
tive). Partant d’une porteuse sinusoïdale, du type :
y = a sin(t + φ) (24)
On ne peut faire varier que l’un de ses trois paramètres, soit l’amplitude, soit la
fréquence, soit la phase. Il va de soi que les modulations de fréquence et de phase
présentent bien des points communs, car toutes deux modifient l’argument de la
fonction sinus. Dans certaines techniques (codage Vidéo-PAL), on utilise une
double modulation d’amplitude et de phase.
Chapitre 5 – Le signal 275

5.5.2 Les modulations d’amplitude


✦ Modulation à porteuse supprimée
L’idée la plus simple consiste à réaliser une translation directe du spectre d’origine
tel qu’indiqué sur la figure 5.20. Il faut bien entendu tenir compte des fréquences
négatives du spectre d’origine, et conserver une symétrie des spectres par rapport
au continu (pour tout signal physique, la transformée de Fourier est paire sur la
partie réelle et impaire sur sa partie imaginaire).

Figure 5.20 — Translation de spectre. Modulation à porteuse supprimée.

On obtient physiquement cet effet en faisant la multiplication du signal par une


sinusoïde haute fréquence (au moins deux fois la fréquence la plus haute contenue
© Dunod – Toute reproduction non autorisée est un délit.

dans le signal pour éviter l’enchevêtrement des spectres – voir le théorème de


Shannon). On a pris l’habitude d’appeler cette haute fréquence, la « porteuse »,
car c’est l’onde que l’on module pour lui faire « porter » l’information. On remarque
immédiatement deux choses :
• la largeur de bande est double de la bande d’origine, puisque les fréquences
négatives du signal se trouvent maintenant déplacées dans le domaine
positif ;
• il n’apparaît aucune énergie sur la fréquence de la porteuse.
276 Le livre des techniques du son

On peut s’en convaincre aisément si l’on considère un signal modulant, lui-même


sinusoïdal. Alors, (en consultant ses tables de fonctions trigonométriques, depuis
longtemps oubliées par chacun !), on trouve que le produit de deux sinusoïdes de
fréquence 0 et 1, fait apparaître la somme de deux termes, l’un de fréquence
0 + 1 et l’autre de fréquence 0 – 1. Ces deux termes forment les bandes laté-
rales. Le terme de modulation à porteuse supprimée, est pour le moins mal choisi,
car lorsque l’on fait une simple multiplication entre les signaux, la porteuse n’a
aucune raison d’apparaître à la fréquence 0 comme on vient de le voir. Par contre,
dans la modulation d’amplitude « normale » (avec porteuse) on verra plus loin
qu’en fait on la rajoute au signal modulé. La figure 5.21 montre l’aspect temporel
de l’onde résultante.

Figure 5.21 — Aspect temporel d’une modulation


d’amplitude à porteuse supprimée équivalent à un battement.

On s’aperçoit immédiatement à la vue de la figure 5.21 que pour démoduler c’est-à-


dire pour retrouver le signal audio d’origine, il suffit de suivre les crêtes du signal
résultant (on retrouve au passage qu’il faut au moins deux fois plus de crêtes dans
la porteuse que de périodes dans le signal audio. Il s’agit là d’un échantillonnage
camouflé !). Mais à l’intersection avec l’origine on se trouve alors devant un
dilemme : doit-on suivre l’enveloppe supérieure ou l’enveloppe inférieure ?
Chapitre 5 – Le signal 277

La réponse se trouve dans la phase du signal résultant. S’il n’y a pas de disconti-
nuité de phase, alors c’est l’enveloppe supérieure que l’on doit considérer, sinon il
faut suivre l’enveloppe inférieure. Dans la pratique, il est bien évident que l’on ne
connaît pas la phase à l’origine (signal porteur) sur le lieu de réception, aussi
doit-on se fier aux brusques variations de phase.
On utilise généralement pour démoduler ce type de signal un démodulateur
synchrone qui effectue (en utilisant les propriétés des fonctions trigonométriques)
une translation de spectre inverse de celle utilisée à l’émission. La figure 5.22
explique le principe de la démodulation synchrone.

Figure 5.22 — Démodulation synchrone.

✦ Modulation avec porteuse


Comme on peut le voir, la démodulation du signal précédent serait simple, sans
l’ambiguïté de polarité, aussi en radiodiffusion commerciale, afin de simplifier au
© Dunod – Toute reproduction non autorisée est un délit.

maximum les récepteurs, on ajoute une tension continue de décalage au signal


audio, afin que celui-ci soit toujours positif. Alors les « points de croisement »
n’existent plus. Soit s(t) le signal audio, et a0 la tension continue, on fait en sorte que :
s(t) + a0 > 0
Le signal résultant a donc pour expression :
y(t) = (s(t) + a0) sin(t)  (25)
y(t) = s(t) sin(t) + a0 sin(t)
278 Le livre des techniques du son

Le signal prend alors l’allure de la figure 5.23.

Figure 5.23 — Modulation d’amplitude avec porteuse.

Le spectre fait cette fois apparaître de l’énergie sur la fréquence 0. Dans le cas
d’une modulation sinusoïdale d’amplitude maximum a0/2 (pour éviter le point de
croisement), on trouve une distribution des niveaux telle qu’indiquée sur la
figure 5.24.
Exprimée en terme d’énergie, on constate que la porteuse consomme quatre fois
plus que chaque bande latérale et ne véhicule aucune information.
Ce type de transmission gaspille donc beaucoup d’énergie à l’émetteur,
simplement pour avoir des récepteurs peu coûteux. C’est un choix écono-
mique qui se justifiait pleinement aux débuts de la radio commerciale. Par
contre, pour des liaisons point à point, type radiotéléphone, ce type de modu-
lation n’est pas envisageable. Il est préférable d’avoir un récepteur plus sophis-
tiqué et d’économiser les 5/6e de l’énergie à l’émetteur comme on va le voir
ci-après.

Figure 5.24 — Spectre d’une modulation d’amplitude avec porteuse,


d’un signal sinusoïdal d’amplitude maximale.
Chapitre 5 – Le signal 279

✦ Modulation d’amplitude à bande latérale unique


Nous avons déjà vu que le spectre d’un signal présentait une symétrie par rapport
à l’origine. Ceci est la condition pour que le signal soit un signal physique. Mais en
réalité, la totalité de l’information est entièrement contenue dans une seule des
deux bandes (positive ou négative). Lorsqu’on fait une modulation d’amplitude à
porteuse supprimée, l’on se retrouve avec quatre bandes (symétriques deux à
deux) portant le même message. D’où l’idée de supprimer deux de ces bandes.
Ceci permet de réduire la largeur du canal et de concentrer toute l’énergie dispo-
nible sur un seul couple de bandes, d’où une augmentation substantielle de la
portée de l’émetteur. Le schéma, figure 5.25, montre une méthode moderne pour
obtenir ce type de modulation. La figure 5.26 montre les spectres obtenus en
différents points du montage.

Figure 5.25 — Modulateur à bande latérale unique.

Le filtre H est un déphaseur qui opère un déphasage de + /2 (quadrature) sur les
fréquences positives et de – /2 sur les fréquences négatives. Un tel filtre (filtre de
Hilbert) est un filtre à convolution réalisé à l’aide d’une ligne à retard.
La démodulation d’un tel signal est très délicate. En effet, la fréquence de la
porteuse n’apparaît ni de manière explicite, comme dans la modulation d’ampli-
tude avec porteuse, ni implicite, comme dans la modulation d’amplitude à
© Dunod – Toute reproduction non autorisée est un délit.

porteuse supprimée. La fréquence de la porteuse est alors une pure convention


entre l’émetteur et le récepteur. Malgré la précision des oscillateurs à quartz, il se
produit toujours dans ce type de transmission un glissement de fréquence. Ce
glissement s’effectue de la même manière pour toutes les fréquences du spectre
(translation). Les rapports harmoniques n’étant pas conservés, le timbre est forte-
ment dénaturé. L’oreille perçoit une dégradation à partir d’un glissement de
l’ordre de 5 à 10 Hz. Pour une transmission sur porteuse à 144 MHz, cela signifie-
rait une stabilité de l’émetteur et du récepteur meilleure que 5 × 108, qui n’est pas
encore possible sur du matériel portable, et de toute façon les fluctuations du
280 Le livre des techniques du son

trajet de l’onde hertzienne elle-même introduisent des variations de fréquences


supérieures. On peut remédier à cela par des artifices, comme par exemple, une
fréquence pilote insérée en haut de bande utile, et servant de « repère » pour l’ac-
cord automatique de l’oscillateur de réception.

Figure 5.26 — Spectre des signaux apparaissant dans le modulateur.

5.5.3 La modulation de fréquence et de phase


✦ Définition
La modulation de fréquence (MF) est bien connue à cause de son application à la
radiodiffusion de haute qualité (appelé couramment « bande FM » de l’anglais
Frequency modulation). Dans ce type de modulation, on utilise une porteuse
d’amplitude constante, dont on fait varier la fréquence instantanée de manière
linéaire en fonction de l’information à transmettre. Cette notion intuitive de
fréquence instantanée n’a rien à voir avec la fréquence au sens Fourier du terme
(décomposition spectrale), il s’agit là d’une confusion grave que l’on trouve
souvent (y compris en acoustique physiologique !).
Chapitre 5 – Le signal 281

On définit usuellement la fréquence instantanée d’une onde sinusoïdale par la


relation suivante :
Soit une onde porteuse : s(t) = sin [Φ(t)]
 (t) = dΦ(t)/dt (26)
On vérifie que dans le cas où Φ(t) = 0t + Φ0 alors i (t) = 0.
On imagine facilement qu’une variation de fréquence (ou de phase) modifie loca-
lement la forme de la sinusoïde. D’un point de vue spectral, cela engendre un
élargissement du spectre de l’onde porteuse comme nous le verrons plus loin.
Si l’on a un signal y(t) à transmettre (avec | y(t)| ≤ 1), alors on pose :
(t) = 0 + k y(t)
avec 0 pulsation de repos et k coefficient de modulation.
L’indice de modulation est défini par :
k dF
m= =
ω0 F0
soit le rapport de l’excursion maximum en fréquence et de la fréquence maximum
du signal modulant.
La phase instantanée a alors pour expression :

Φ (t ) = ∫ ω (t ) dt = ω0t + k ∫ y (t ) dt

(en prenant une constante d’intégration nulle).


On s’aperçoit sur cette expression, que la phase instantanée varie en fonction non
pas du signal modulant, mais d’une primitive de celui-ci. Cela signifie que la
phase instantanée est plus « sensible » aux fréquences basses du signal modulant
qu’aux fréquences élevées (voir propriétés d’un intégrateur « Fonction de l’élec-
© Dunod – Toute reproduction non autorisée est un délit.

tronique » § 6.2.4).
Ceci a comme conséquence directe que le rapport signal sur bruit en MF est
toujours meilleur dans les fréquences basses, que dans les fréquences aiguës.

✦ Préaccentuation
C’est pour cette raison que dans tous les systèmes FM, on utilise une préaccentua-
tion des fréquences aiguës. On constate que, généralement, le spectre du signal
modulant ne contient en valeur moyenne que peu d’énergie dans les fréquences
élevées, ce qui justifie cette préaccentuation qui relève le spectre avec une pente
282 Le livre des techniques du son

de + 6 dB/oct à partir de 3,18 kHz (constante de temps 50 µs) soit + 14 dB à


15 kHz. C’est une contrainte dont il faut tenir compte lors de la prise de son radio
FM, car sur les voix féminines, les saturations de l’émetteur peuvent apparaître
très facilement. Il serait d’ailleurs hautement souhaitable que les consoles « radio »
soient équipées d’indicateurs de niveau de modulation, tenant compte de cette
préaccentuation.
Ceci explique également que les transmissions stéréophoniques, qui utilisent un
signal modulant dont le spectre s’étend jusqu’à 52 kHz, soient plus sensibles aux
parasites que les émissions monophoniques.
La figure 5.27 montre les transformations des spectres signal et bruit après accen-
tuation et désaccentuation.

Figure 5.27 — Modification des spectres dans une transmission FM.

✦ Encombrement spectral
Le spectre d’une modulation de fréquence est relativement difficile à calculer, et
nécessite des développements mathématiques qui sortent largement du cadre de
cet ouvrage. On montre que le spectre d’une modulation de fréquence est théori-
quement infiniment large et présente de nombreuses « raies » latérales. Néan-
moins, l’énergie de celles-ci décroît lorsque l’on s’éloigne de la fréquence centrale.
On admet usuellement que l’on peut négliger ces « bandes latérales » quand elles
ont une amplitude inférieure à 1 % de la porteuse non modulée. La distorsion qui
en résulte est très inférieure à celle résultant des modulateurs et démodulateurs
eux-mêmes.
Les formules suivantes donnent la bande passante utile B, en fonction des indices
de modulation m, de la bande passante du signal à transmettre F, et de l’excursion
maximale en fréquence de la porteuse, dF.
Pour les indices de modulation faibles :
m < 0,3
B = 2F (identique à la modulation d’amplitude).
Chapitre 5 – Le signal 283

Pour les indices de modulation moyens :


0,3 < m < 750
(
B = 2 dF + F + dF ⋅ F )
Pour les indices de modulation élevés :
m > 750  B = 2dF
En radiodiffusion, l’excursion en fréquence est fixée à 75 kHz. Pour des signaux
audio de fréquence maximum 15 kHz, cela conduit à des indices de modulation
minimum de 5, d’où une largeur de spectre de l’ordre de :
B = 250 kHz
Ceci limite donc le nombre de stations dans la bande FM (88 MHz - 108 MHz) à
une valeur théorique de 80, en supposant que tous les usagers possèdent des
tuners très sélectifs (au sens de la bande passante HF et non du prix, bien que cela
soit toujours lié !).

✦ Comparaison entre AM, FM et Nicam


La FM permet dans les conditions usuelles (m > 1), une meilleure transmission
que la AM.
• Linéarité de la bande passante : en AM elle dépend de celle du canal utilisé.
En FM elle ne dépend pas de celle du canal.
• Distorsions : en AM, les distorsions du canal sont entièrement transcrites.
Mais du fait de la translation de fréquence, les signaux parasites sortent
généralement de la bande passante du signal utile. Elles peuvent par contre
troubler des stations voisines. En FM, le problème est le même, à savoir,
pas de troubles sur le signal modulant lui-même mais trouble dans des
stations proches. Par contre, la largeur de la bande passante du canal inter-
vient dans le taux de distorsion du signal modulé.
© Dunod – Toute reproduction non autorisée est un délit.

• Rapport signal sur bruit. En se plaçant dans les mêmes conditions (même
amplitude, même signal modulant, même bruit de fond dans le canal, etc.)
on trouve une amélioration en FM proportionnelle à l’indice de modula-
tion.
En AM : S/B = P/B
En FM : S/B = P/B + 20 log m
(S/B)FM/(S/B)AM = 20log(m) + k
avec k dépendant du type de signal de brouillage 0 ≤ k ≤ 6.
284 Le livre des techniques du son

Pour la radiodiffusion, on trouve donc (sans préaccentuation) une amélioration


de l’ordre de 14 dB. En tenant compte de la préaccentuation, on trouve une amélio-
ration apparente de l’ordre de 24 dB.
Cette amélioration du rapport S/B est due à la redondance du signal FM. En effet,
une période d’un signal de fréquence 15 kHz va se traduire par une variation du
nombre de périodes de 75 kHz/15 kHz, soit 5 périodes. Dans les fréquences
basses, la variation du nombre de périodes HF pour une période BF est infini-
ment plus grande. Ceci est une autre manière d’expliquer pourquoi le rapport S/B
en FM décroît en fonction de la fréquence (bruit triangulaire).
Le système Nicam utilise une modulation par phase (QSPK à 4 sauts de phase)
complémentaire à celle utilisée pour la sortie son normale.
C’est une modulation compressée à 10 bits qui réalise une courbe à 14 bits. Le
rapport signal sur bruit apparent est donc de 6n + 3. La valeur de n étant de
14 bits.
La bande passante est liée à la vitesse d’échantillonnage de 32 kHz. Elle est donc
de 15 kHz ( figure 5.28).

Figure 5.28 — Graphe comparatif des différents systèmes


utilisés en radio et télédiffusion.
Chapitre 5 – Le signal 285

5.5.4 Les procédés numériques


Un signal numérique se présente toujours sous forme d’une suite à deux états.
On utilise couramment des canaux analogiques pour transmettre une informa-
tion numérique. On considère alors le signal numérique comme un signal
analogique. La particularité d’un signal numérique est de présenter des fronts
très raides, ce qui engendre un spectre très large, mais il est parfaitement
possible de le filtrer, en prenant généralement le triple de la fréquence fonda-
mentale la plus haute. À la réception, il suffit d’un système à seuil, pour
retrouver les fronts. Il faut toutefois veiller à ce que la réponse impulsionnelle
de l’ensemble filtre + canal ne présente pas de suroscillations importantes
(figure 5.29).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 5.29 — Filtrage et reconstitution d’un signal numérique.

Ceci étant, rien ne s’oppose alors à utiliser les mêmes techniques que pour un
signal analogique. Citons à titre d’exemple le télégraphe, les modems, les télex,
l’enregistrement d’un code temporel sur un magnétophone ou un magnétoscope,
etc. Par contre, certains canaux de transmission ne peuvent fonctionner qu’avec
des signaux à deux états, sans limitation de bande passante (front) mais une limi-
tation de débit (due au « ramollissement » des fronts). C’est le cas des liaisons
optiques guidées (fibres optiques) ou libres (liaisons infrarouges).
286 Le livre des techniques du son

Un signal numérique est en fait constitué de « mots » représentant une valeur, un


ordre ou une commande. Ce mot est composé d’un certain nombre de signaux
élémentaires à deux états (les bits), généralement 8 (octets), mais parfois plus
(16 bits/44,1 kHz pour le CD ; 24 bits/48 kHz pour l’AES/EBU, etc.), bien que,
pour des raisons économiques, on décompose les mots de 16 ou 32 bits en 2 ou
4 octets (voir les signaux audio dans les consoles virtuelles ou sur ordinateur),
qu’il faut alors repérer (notion d’adresse). La majorité des canaux de transmission
ne peut transmettre qu’un seul signal élémentaire à la fois, aussi réalise-t-on un
multiplexage temporel qui permet de transformer un signal sous forme parallèle
en un signal série. Le problème au niveau de la réception est de repérer le début de
la séquence, et le rythme de changement de bit (figure 5.30).
Pour repérer le début, le plus simple est d’isoler les mots entre eux et de faire
précéder chaque mot d’un « drapeau » (start bit) qui est un bit toujours égal à
« 1 ». C’est la technique la plus simple utilisée pour la télécommande infrarouge
des chaînes « hi-fi ». Parfois, cette technique est beaucoup trop frustre et ne
s’adapte pas au canal envisagé. Le code temporel UER-SMPTE en est un bon
exemple. Il fallait :
• que le code puisse être lu à des vitesses très variables ;
• qu’il puisse être enregistré sur une bande magnétique, donc ne pas contenir
de composante continue ;
• qu’il soit insensible aux inversions de polarité ;
• en outre, il devait pouvoir être lu en marche arrière.
Ces contraintes ont été respectées en utilisant d’une part un procédé d’enregistre-
ment particulier qui répond aux trois premières contraintes, et d’autre part un
formatage des données.
Un code horaire présente un aspect cyclique. Dans le cas du code UER, l’ensemble
des données (heures, minutes, secondes, no d’images, commentaire) est envoyé à
chaque image. On appelle l’ensemble de ce bloc de données, une trame (par
analogie avec le signal vidéo). L’organisation des données à l’intérieur de cette
trame s’appelle le format. La fin d’une trame est repérée par un mot de synchroni-
sation qui présente une séquence de « 0 » et de « 1 » qui ne peut JAMAIS se
retrouver à un autre endroit de la trame, quelles que soient les données à trans-
mettre. Ce mot de synchronisation est asymétrique, ce qui permet en plus de
retrouver le sens de la lecture, et donc de décoder correctement les données (voir
format UER dans le chapitre 7 « La synchronisation » du tome 2).
Chapitre 5 – Le signal 287

Figure 5.30 — Sérialisation d’une information.

Le code Miller (le mot « code » est impropre dans ce sens, on devrait parler de
procédé de modulation) est assez usité pour l’enregistrement d’un signal numé-
rique sur un support magnétique (disquette, bande). Il est autosynchronisable,
© Dunod – Toute reproduction non autorisée est un délit.

c’est-à-dire que l’on peut le démoduler, même si l’on ignore a priori, le débit utilisé
à l’émission. Le principe est simple : pour transmettre des « 0 » on fait un change-
ment de polarité, à chaque période horloge, et pour transmettre des « 1 », on fait
ce changement de polarité toutes les demi-périodes d’horloge. Là encore, on
constate que toute l’information est transmise par les transitions, mais dans ce
code, le sens de transition (bas vers le haut), (haut vers le bas), n’a aucune impor-
tance, de sorte que les inversions de polarité sur le canal de transmission n’ont
aucune importance. D’un point de vue encombrement, on trouve des signaux qui
peuvent avoir pour périodicité la durée de transmission soit d’un bit (pour « 1 »),
soit deux bits (pour un « 0 »). Ce codage n’est pas optimum, car d’après ce qui a été
288 Le livre des techniques du son

dit en début de chapitre, on s’aperçoit que pour une même bande passante, on
pourrait faire passer deux fois plus de données. Un tel code existe (double densité),
mais il n’est pas auto-synchronisable. Par contre, il est utilisé sur les machines
d’enregistrement numérique fonctionnant à vitesse fixe.

✦ Principe des codes détecteurs et correcteurs d’erreur


Nous nous intéressons maintenant aux codes (au sens de cryptage) qui permettent
de détecter et de corriger les erreurs qui peuvent apparaître dans une transmis-
sion numérique. Autant en analogique, un parasite n’a pas de conséquence grave,
qu’il soit sur un son ou sur une image, autant en numérique le même parasite peut
entraîner de sérieux inconvénients tels que : arrêt d’une machine, ou passage
inopportun d’une fonction à une autre (assez désagréable lorsqu’une machine
efface un master !). Aussi, les liaisons doivent-elles être « infaillibles ». On utilise
pour cela des codes redondants. Le principe général est de déclarer certaines
valeurs du code comme étant interdites. Ces valeurs sont prises de telle manière
qu’une erreur simple (de 1 bit) fait passer d’une valeur autorisée à une valeur
interdite. Le plus simple est de déclarer « valeur interdite » toutes les valeurs
paires (ou impaires). Prenons un exemple sur un code à 3 bits. Nous avons 8 états
possibles que nous pouvons représenter comme les sommets d’un cube dans un
espace à trois dimensions (figure 5.31).

Figure 5.31 — Représentation d’un code à 3 bits.

Si à partir d’un des points, on ne modifie qu’un seul bit, alors on se déplace le long
d’une arête. Pour se protéger contre ce type d’erreur, il faut éviter que deux points
autorisés puissent être contigus. On arrive donc au schéma proposé figure 5.32.
Dans ce type de code, on détecte une erreur, mais on ne peut pas la corriger, car chaque
état interdit est à proximité (même distance) de trois états autorisés qui peuvent repré-
senter chacun la vraie valeur. Pour pouvoir corriger à la réception, il faut que les
états interdits de première espèce (ceux que l’on obtient en commettant une erreur
sur un seul bit) soient « groupés » autour d’une seule valeur autorisée (figure 5.33).
Chapitre 5 – Le signal 289

Figure 5.32 — Code détecteur d’erreur à deux bits plus parité.


© Dunod – Toute reproduction non autorisée est un délit.

Figure 5.33 — Code correcteur d’erreur.

Ainsi, peut-on corriger les erreurs de première espèce, et détecter les erreurs de
deuxième espèce (altération de deux bits). Le principe peut, bien sûr, être étendu
en fonction de la fiabilité du support et de la fiabilité finale désirée, mais il faut se
290 Le livre des techniques du son

convaincre que certaines erreurs ne seront pas détectées si l’on se retrouve sur une
valeur autorisée. On peut rendre, par ces codes complexes, ce phénomène très
peu probable. Dans la pratique, une transmission est considérée comme « infail-
lible » si le taux d’erreur calculé est inférieur à 10–14.
Sur un disque compact, le taux de défaillance est de l’ordre de 10–12, ce qui repré-
sente un parasite toutes les 3 000 heures d’écoute (soit environ 120 jours d’écoute
continue sans parasite).

✦ Avantages et inconvénients des systèmes numériques


Le signal numérique ne pouvant prendre que deux états, on peut le recevoir
même noyé dans du bruit. Un rapport signal sur bruit de 20 dB est considéré
comme excellent, et l’on peut souvent se contenter de rapport signal sur bruit
moindre (augmentation du taux d’erreur). Tant que les codes correcteurs d’er-
reurs peuvent fonctionner, la qualité du signal transmis reste inchangée.
Le débit par contre est très important vis-à-vis de l’information de base.
Dans le cas d’un disque compact ou d’un enregistreur numérique, il faut des
débits de l’ordre de 2 Mb/s, soit une bande passante (au plus juste) de 1 MHz, soit
dix fois plus qu’en modulation de fréquence, et 30 fois plus qu’en AM (à qualité
identique). Différentes solutions ont été développées pour permettre de réduire
le débit audionumérique (voir § 1.8 dans le chapitre 1 du tome 2).

5.5.5 Modulations hybrides


Ce sont des procédés de modulation où le signal ne présente que deux états
comme dans une transmission numérique. Bien que le signal à transmettre soit
échantillonné, il n’est pas forcément numérisé. Sa valeur instantanée est traduite
par le rapport cyclique du signal associé (figure 5.34). On l’appelle aussi modula-
tion de largeur.

✧ Applications
Pour retrouver le signal d’origine, il suffit de transformer la longueur du créneau
en une amplitude, ce qui se réalise à l’aide d’un simple filtre passe-bas. Cette faci-
lité de démodulation a amené certains constructeurs à utiliser ce principe pour
réaliser des amplificateurs de grande puissance (Sony, Power, Peavey). Les étages
de sortie, fonctionnant en commutation, ne dépensent qu’une énergie minime,
de sorte que les rendements dépassent les 90 %. La publicité les a fait souvent
apparaître sous le terme d’ampli numérique, alors qu’il s’agit en réalité d’un
amplificateur analogique à découpage.
Chapitre 5 – Le signal 291

Figure 5.34 — Modulation « classe D ».

Mais c’est certainement une voie d’avenir, car la conversion directe d’un signal
numérique en modulation de largeur est plus simple qu’un convertisseur simple
rampe. Il est fort probable que d’ici quelques années, le signal ne reprendra sa
forme analogique, pour venir séduire nos oreilles, que par filtrage passif, juste
avant les haut-parleurs, à moins que ce ne soit par filtrage acoustique juste après
des haut-parleurs numériques…

5.6 Bibliographie
[1] E. Roubine, Introduction à la théorie de la communication. Masson, 3 vol. (1970).
[2] J. Max, Méthodes et techniques de traitement du signal et applications aux mesures
physiques. Masson (1975).
© Dunod – Toute reproduction non autorisée est un délit.

[3] L.-R. Rabiner et B Gold, Theory and applications of digital signal processing. Prentice
Hall, Englewood Cliffs, N.J. (1975).
[4] A.-V. Oppenheim et R.-W. Schafer, Digital signal processing, Prentice Hall, Engle-
wood Cliffs, N.J. (1975).
[5] M. Calmet, Introduction aux techniques d’enregistrement. Techniques de l’ingénieur
E 5400.
Chapitre 6

Notions fondamentales
de l’électricité

Mohammed Elliq
Enseignant d’électronique appliquée à l’audiovisuel
à l’ENS Louis-Lumière.
Responsable du département d’électronique
de l’ENS Louis-Lumière.
Docteur en électronique de l’ULP de Strasbourg
(précédentes éditions rédigées par Jacques Tolza)

6.1 Fondements physiques de l’électricité

6.1.1 Champ électrique et potentiel


✦ Charges électriques
La matière qui nous entoure est composée d’atomes individualisés ou assemblés
en molécules ou en ions. Un atome est constitué d’un noyau central et d’électrons
qui « tournent » autour du noyau. Le noyau contient Z protons et (A – Z) neutrons.
Z s’appelle le numéro atomique. A s’appelle le nombre de masse et désigne le
nombre de nucléons présents dans le noyau ; un nucléon peut être un proton ou
un neutron.
294 Le livre des techniques du son

Le tableau 6.1 recense les principales caractéristiques des constituants d’un


atome.

Tableau 6.1 — Caractéristiques des constituants d’un atome.

Masse Charge Rayon*

Électron me = 9,109 × 10–31 kg qe = –e = –1,602 × 10–19 C re ≈ 2,8 × 10–15 m

Proton mp = 1,673 × 10–27 kg qp = +e = +1,602 × 10–19 C rp ≈ 0,9 × 10–15 m

Neutron mn = 1,675 × 10–27 kg qn = 0 C rn ≈ 0,9 × 10–15 m

rnoy ≈ r0 × A1/3
Noyau mnoy = Z × mp + (A – Z) × mn qnoy = +Ze
r0 = 1,2 ×10–15 m

mat = Z × mp + (A – Z) × mn


Atome ( AZ X ) qat = 0 C rat ≈ 0,5 – 3,5 × 10–10 m
+ Z × me

mat = 14 × mp + (28 – 14) ×


mn + 14 × me
mat ≈ 46,885 × 10–27 kg
Atome ( 2814 Si ) qat = 0 C rat ≈ 1,46 × 10–10 m
mnoy = 14 × mp + (28 – 14) ×
mn
mnoy = 46,872 × 10–27 kg

* Ordre de grandeur.

Le proton porte une charge électrique élémentaire positive. Le neutron est neutre
c’est-à-dire qu’il est sans charge électrique. L’électron a une charge électrique
élémentaire négative. Un nucléon est plus de 1 836 fois plus lourd qu’un électron ;
si bien que le noyau concentre quasiment toute la masse de l’atome (99,97 %). Les
charges positives, portées par les protons, sont concentrées dans le noyau de
l’atome et peuvent être considérées comme immobiles dans un solide. Les charges
négatives sont portées par les électrons qui « gravitent » autour du noyau de l’atome
à des vitesses prodigieuses et ce de manière incessante ; on parle d’un nuage élec-
tronique qui « entoure » le noyau de l’atome. Un atome contient autant de charges
positives que de charges négatives ; un atome est électriquement neutre. Cepen-
dant, dans certaines conditions (réactions chimiques, etc.), un atome peut gagner
ou perdre un ou plusieurs électrons ; il devient alors un ion. Un atome ayant reçu
un ou plusieurs électrons sera chargé négativement et s’appellera anion. Un atome
ayant cédé un ou plusieurs électrons sera chargé positivement et s’appellera cation.
Il existe donc deux types de charges électriques pour un matériau :
• une charge négative correspond à un excès d’électrons ;
• une charge positive correspond à un déficit d’électrons.
Chapitre 6 – Notions fondamentales de l’électricité 295

L’unité de charge électrique est le coulomb (C). La charge électrique de l’électron


est de –1,602 × 10–19 C. La charge électrique du proton est de +1,602 × 10–19 C. Le
coulomb correspond à un manque ou à un excès de 6,24 × 1018 électrons (soit
l’équivalent de plus de 6 milliards de milliards d’électrons).
L’énergie de chacun des électrons d’un atome est déterminée par la distance qui
le sépare du noyau. Ainsi, les électrons qui sont à égale distance du noyau ont la
même énergie et occupent le même niveau d’énergie. À chaque niveau d’énergie
correspond une couche électronique. Les électrons d’un atome sont répartis sur
des couches électroniques symbolisées par des lettres K, L, M, N, etc. en allant de
la plus proche du noyau à la plus éloignée. Les électrons proches du noyau, appelés
électrons du cœur, sont plus stables que les électrons éloignés, appelés électrons
périphériques ou électrons de valence. Il semble logique que ce soit les électrons de
valence d’un atome qui déterminent ses propriétés physico-chimiques.
Dans un matériau solide, les électrons de valence établissent les liaisons chimiques
entre atomes voisins et assurent sa cohésion locale. Les électrons de valence sont
situés dans une bande d’énergie appelée bande de valence et ne peuvent pas parti-
ciper au phénomène de conduction électrique. Les électrons qui peuvent parti-
ciper au phénomène de conduction électrique, appelés électrons de conduction,
sont situés dans une bande d’énergie appelée bande de conduction. Contraire-
ment à la bande de valence, qui est totalement remplie, la bande de conduction est
soit vide soit partiellement remplie. La bande de valence est séparée de la bande
de conduction par une bande interdite.
Lorsqu’il y a contact entre deux matériaux, l’apparition des charges électriques
est due soit à un transfert d’électrons d’un matériau vers l’autre soit à un transfert
d’ions ou encore à une combinaison des deux transferts.
L’accumulation de charges électriques à la surface d’un matériau constitue ce que
l’on appelle couramment l’électricité statique. Ce phénomène d’électrisation peut
être mis en évidence en constatant qu’une règle en plastique ou en verre, ayant été
frottée sur un morceau de tissu, attire des petits morceaux de papier. En effet, par
© Dunod – Toute reproduction non autorisée est un délit.

frottement, la règle arrache des électrons au tissu et devient plus riche en élec-
trons ; on dit qu’elle est chargée négativement. Pendant ce temps, le tissu qui a cédé
ses électrons se charge positivement. Au contact de la règle, les petits morceaux
de papier, électriquement neutres, subissent une modification de la répartition
de leurs charges électriques par un phénomène d’influence. La règle, chargée
négativement, attire les charges positives et repousse les charges négatives conte-
nues dans les petits morceaux de papier : c’est la loi de Coulomb. Si l’on arrache des
électrons, on obtiendra un matériau chargé positivement ; si on y dépose des élec-
trons, on obtiendra un matériau chargé négativement.
296 Le livre des techniques du son

À ce stade, on peut diviser les matériaux en deux groupes de base :


• les isolants, comme le plastique et le verre, qui conservent leur électricité
statique car dans un isolant les électrons sont fortement liés au noyau
autour duquel ils tournent et ne peuvent pas se déplacer d’atome en atome
même sous l’action d’une forte sollicitation extérieure ;
• les conducteurs, comme les métaux, qui, s’ils ne sont pas isolés, perdent
leur électricité statique car dans un conducteur les électrons peuvent
quitter le noyau autour duquel ils tournent et circuler librement d’atome en
atome ; ce sont ces électrons libres qui assurent la circulation du courant
électrique.
La charge statique présente à la surface d’un isolant n’est pas facile à évacuer. Elle
peut attirer les poussières et les contaminants contenus dans l’air environnant.
En s’électrisant sous l’effet du frottement de la tête de lecture, la surface d’un
disque produira une modification de la répartition interne des charges élec-
triques de la poussière environnante qui pourra être attirée et qui viendra se coller
sur celle-ci (figure 6.1).

Figure 6.1 — Attraction électrostatique de poussières sur un disque.

✦ Différence de potentiel
On parle couramment de façon plus ou moins impropre de potentiel, de voltage,
de d.d.p., de tension, de point chaud, de point froid, etc. Ces termes ne recouvrent
en fait qu’une seule et unique notion : la différence de potentiel ou d.d.p.
Nous avons déjà vu la partie qualitative de la loi de Coulomb. La partie quantita-
tive de cette loi nous enseigne qu’une charge électrique Q crée dans l’espace qui
l’entoure un champ électrique E d’intensité :
1 Q
E= × 2
4 πε0 r
Chapitre 6 – Notions fondamentales de l’électricité 297

avec :
• Q : la charge électrique en coulombs (C).
• r : la distance à la charge en mètres (m).
• ε0 = 8,854 × 10–12 F/m : la permittivité du vide.
L’unité de champ électrique est le volt par mètre (V/m).
Si on trace une courbe continue orientée suivant le sens du champ électrique et
telle qu’en chacun de ses points le champ électrique y soit tangent, on obtient une
ligne de champ électrique. Les lignes de champ électrique sont des courbes qui
partent d’une source de charges positives et aboutissent à une source de charges
négatives. Deux lignes de champ électrique ne peuvent pas se couper. Dans une
région donnée de l’espace, le tracé de l’ensemble des lignes de champ électrique
permet de cartographier le spectre électrique.
Une charge Q, placée dans un champ électrique E, est soumise à une force élec-
trique d’intensité F = Q × E (phénomène d’attraction et de collage de poussières
sur un disque). Cette force s’exprime en newtons (N) si Q est en coulombs et E en
volts par mètre. Pour illustrer ce que représente le newton en tant qu’unité, on
pourra retenir qu’une masse de 1 kg a un poids de 9,81 N (soit environ 10 N).
Si on effectue un trajet dans un champ électrique, on franchit une d.d.p.
(figure 6.2).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 6.2 — La d.d.p. ne dépend que des points de départ et d’arrivée.


298 Le livre des techniques du son

Dans un champ électrique uniforme, c’est-à-dire dont les lignes de champ sont
équidistantes et parallèles, la d.d.p. entre deux surfaces équipotentielles A et B,
séparées l’une de l’autre par une distance d, vaut U = E × d, et ce, quel que soit le
trajet emprunté. C’est cette propriété qui fait l’intérêt de cette notion. En effet, peu
importe la forme des câbles et des circuits (donc du trajet des électrons), les effets
ne dépendront que de la d.d.p. Nous verrons cependant que, pour d’autres raisons,
certaines précautions sont à prendre.
L’unité de la d.d.p. est le volt (V). Elle permet de chiffrer l’énergie électrique W
fournie à une charge électrique Q se déplaçant dans un champ électrique E :
W = Q × U. Avec W en joules (J), Q en coulombs et U en volts. Par exemple, une
post-accélération de 13 kV d’un moniteur vidéo fournit à un électron une énergie
électrique W = 1,602 × 10–19 × 13 × 103 = 2,1 × 10–14 J. Cette énergie sera convertie
en rayonnement lumineux à l’arrivée de l’électron sur la face avant du tube du
moniteur vidéo.
La d.d.p. entre deux points A et B est UAB = UA – UB . UA et UB sont les potentiels
électriques aux points A et B, respectivement. Les potentiels électriques sont
comptés à partir d’un point unique arbitrairement choisi et servant de référence.
Cette notion est donc peu pratique et peu usitée, mais elle est cependant néces-
saire pour le câblage de grandes unités car la longueur des câbles de liaison y est
importante (studio, etc.).
Lorsque le potentiel UA d’un point A est mesuré par rapport au potentiel UM de
la masse (M), supposé nul par convention (UM = 0), on appellera la d.d.p. ou la
tension UAM = UA – UM = UA le potentiel du point A par rapport au potentiel de
la masse M.
Le terme voltage, bien qu’impropre (terme anglais), désigne souvent une tension
nominale (une d.d.p. qui doit normalement exister entre deux points comme par
exemple la tension du secteur, la tension d’alimentation, etc.).
Quand entre deux points A et B, il y a une d.d.p. UAB et que UA > UB, le point A
s’appellera l’anode ou le pôle positif, le point B s’appellera la cathode ou le pôle
négatif. D’une manière générale, on se souviendra qu’une anode attire les élec-
trons, tandis qu’une cathode les repousse. Dans un tube de moniteur vidéo, le
filament constitue la cathode, tandis que l’écran constitue l’anode, ce qui est
normal car l’écran doit attirer les électrons du faisceau.
Pour compter une tension alternative, on la représente par un vecteur-tension,
c’est-à-dire par une flèche. La queue de la flèche est souvent appelée « point froid »,
tandis que la pointe de la flèche est appelée « point chaud » (figure 6.3).
Chapitre 6 – Notions fondamentales de l’électricité 299

Figure 6.3 — Dans le cas de tensions alternatives,


on utilise les termes « point chaud » et « point froid ».

✦ Courant électrique
Lorsque des charges électriques se déplacent, elles forment un flux de charges
électriques appelé courant électrique. Suivant le milieu, les porteurs de charge
peuvent être des électrons, des manques d’électrons (appelés trous), des ions
(électrolytes), etc. En raison de cette diversité, on a été amené à ne considérer que
la charge électrique transportée et non pas le porteur de charge. D’où la définition
conventionnelle du courant : le courant électrique est un flot de charges positives.
On peut déterminer le sens du courant électrique à l’aide de la loi de Coulomb : à
l’extérieur d’un générateur, le courant électrique circule du pôle positif vers le
pôle négatif. En effet, les charges électriques positives sont repoussées par l’anode
et sont attirées par la cathode. Dans la mesure où la loi de Coulomb montre que
les électrons circulent en sens inverse, il convient de ne pas confondre le sens du
courant électrique (charges électriques positives) et le sens de déplacement du
flux d’électrons (charges électriques négatives).
L’intensité du courant électrique se chiffre en ampères (A) : un courant de 1 A
correspond au passage, à travers la section droite d’un conducteur, d’une charge
de 1 C par seconde. Il s’agit donc d’un débit de charges électriques.
Le faisceau électronique dans un tube TV est donc un courant électrique circu-
lant de l’écran vers le filament, les électrons allant en sens inverse, bien sûr.
Le courant électrique est un débit de charges électriques traversant une section
© Dunod – Toute reproduction non autorisée est un délit.

droite d’un conducteur. C’est donc une variation de la charge électrique traversant
une section droite d’un conducteur par unité de temps. On aura donc les rela-
tions :
∆Q
I=  : pour la valeur moyenne de l’intensité d’un courant.
∆t
dQ (t )
i (t ) =  : pour la valeur instantanée de l’intensité d’un courant.
dt
300 Le livre des techniques du son

Suivant les conducteurs, on ne devra pas dépasser un certain débit de charges. On


a été amené à définir la densité du courant (J). C’est l’intensité de courant I par
mètre carré de section S du conducteur. J = I/S ; avec J en ampères par mètre carré
(A/m2). Un transistor de forte puissance, constitué d’une pastille de silicium de
1 cm2, parcouru par un courant de 10 A, sera traversé par une densité de courant :
10
J= −4
A / m 2 = 100000 A / m 2 .
1× 10
✦ Condensateur
Un condensateur est constitué de deux plaques métalliques, appelées électrodes
ou armatures, placées en regard l’une de l’autre et séparées par un isolant baptisé
diélectrique. Les diélectriques les plus employés sont l’air, l’électrolyte (solide ou
liquide), la céramique, le plastique (polypropylène, polyester, polycarbonate,
polystyrène), le mica, le papier, le verre, etc. (figure 6.4).

Figure 6.4 — Principe d’un condensateur.

C’est le diélectrique qui donne les caractéristiques d’un condensateur :


• la tension maximale d’isolement ou de claquage : c’est la tension maximale
que l’on peut appliquer au condensateur sans que les électrons ne passent
d’une armature à l’autre à travers le diélectrique ; au-dessus de cette
tension, il y aura un risque d’amorçage d’un « arc électrique » entre les
deux armatures ; c’est le phénomène de claquage ; cet arc est en général
destructif mais il est exploité dans certains dispositifs comme les flashs, les
tubes à éclats, etc. ;
• la polarisation : certains diélectriques admettent des champs électriques
dans n’importe quel sens ; ils donneront naissance aux condensateurs non
polarisés (par exemple, céramique, plastique) ; d’autres diélectriques ne
peuvent, sans modification de leur structure chimique, supporter un champ
Chapitre 6 – Notions fondamentales de l’électricité 301

électrique que dans un seul sens ; ils donneront naissance aux condensateurs
polarisés qui ont un pôle (+) et un pôle (–) et qui doivent impérativement
être connectés dans le bon sens (par exemple, électrochimiques, tantale).
Comme il a été montré au paragraphe « Différence de potentiel », quand on
applique une d.d.p. aux bornes d’un condensateur plan, il y a apparition d’un
champ électrique entre ses armatures. L’armature positive a perdu des électrons
tandis que l’armature négative en a gagné. Ces deux armatures sont donc, d’après
la loi de Coulomb, soumises à une force mécanique qui tend à compresser le
diélectrique. Le diélectrique doit avoir de bonnes propriétés mécaniques.
Les charges électriques Q portées par chaque armature du condensateur sont
égales en valeur absolue (principe de l’action et de la réaction) mais sont de signes
opposés. Elles seront d’autant plus grandes que le champ, donc la tension U, sera
plus fort. La loi du fonctionnement est :
Q = C × U
avec :
• Q : la charge d’une armature en coulombs.
• U : la tension appliquée aux bornes du condensateur en volts ; c’est elle qui
est responsable de l’apparition des charges +Q et –Q sur les deux arma-
tures du condensateur.
• C : le coefficient de proportionnalité entre la charge Q qu’il acquiert et la
tension U appliquée à ses bornes appelé capacité du condensateur et
exprimé en farads (F).
Le farad est une unité énorme. On utilise souvent ses sous-multiples : le milli-
farad (le millième) (mF), le micro-farad (le millionième) (µF), le nano-farad (le
milliardième) (nF) et le pico-farad (le millionième de millionième) (pF).
On peut faire varier la charge du condensateur en faisant varier la tension à ses
bornes. Une augmentation de cette tension provoquera une augmentation
© Dunod – Toute reproduction non autorisée est un délit.

proportionnelle de Q, donc une entrée de courant électrique du côté de l’armature


dQ (t )
positive. De plus, si on se souvient que le courant s’écrit i (t ) = , on peut
dire que pour un condensateur en convention récepteur : dt
dQ (t ) du (t )
i (t ) = +=C×
dt dt
Si la tension u est sinusoïdale de valeur efficace U, de pulsation ω = 2πf et de
fréquence f :
u ( t ) = U × 2 × sin ( ωt )
302 Le livre des techniques du son

du (t )
i (t ) = C × = C ×U × 2 × ω × cos ( ω t )
dt
 π
i ( t ) = C × ω×U × 2 × sin  ωt + 
 2
i est un courant sinusoïdal d’intensité efficace : I = Cω × U.
Le module Z de l’impédance étant défini par le rapport du module U de la tension
U
par le module I du courant : Z   ; on voit que le module de l’impédance d’un
I
1 
condensateur est ZC = et que le courant i est en avance de phase de sur la
Cω 2
tension u.
Un autre aspect très intéressant du condensateur est sa faculté de pouvoir stocker
des charges électriques. C’est donc un réservoir d’électricité. Cette quantité d’élec-
tricité Q sera stockée dans un condensateur de capacité C sous une tension U
selon la relation que nous avons déjà vue : Q = C × U. Quand ce condensateur se
déchargera, il fournira un courant sous une tension, donc de la puissance. Cela
revient à dire que le condensateur est un réservoir d’énergie électrique.
1
L’énergie stockée est donnée par la relation : W = × C ×U 2 .
2
✦ Microphone électrostatique à condensateur
L’expression de la capacité C d’un condensateur plan est de la forme :

S
C = ε 0 × εr ×
e
avec :
• ε0 : la permittivité du vide.
• εr : la permittivité relative ; c’est un coefficient qui rend compte de la nature
du diélectrique ; εr = 1 pour l’air.
• S : la surface de chacune des armatures en mètres carrés.
• e : la distance qui sépare les deux armatures (qui est égale à l’épaisseur du
diélectrique) en mètres.
Le fonctionnement d’un microphone électrostatique à condensateur est basé sur
la variation de la capacité d’un condensateur sous l’action d’une onde sonore. Le
condensateur est formé d’une armature avant légère et mobile, qui représente le
diaphragme ou la membrane du microphone, et d’une armature arrière fixe, qui
Chapitre 6 – Notions fondamentales de l’électricité 303

forme la plaque arrière ou la contre-électrode ; les deux armatures sont séparées


l’une de l’autre par une fine couche d’air qui fait office de diélectrique.
Le schéma électrique simplifié d’un microphone électrostatique est représenté
dans la figure 6.5.

Figure 6.5 — Principe du microphone électrostatique.

Pour fonctionner, le condensateur doit être préalablement chargé. Pour cela, on


applique une tension continue U0, appelée tension de polarisation, entre les deux
armatures du condensateur à travers une résistance R, appelée résistance de pola-
risation. Lorsque le microphone est au repos, la distance entre les deux armatures
S
du condensateur est e0 et sa capacité vaut : C 0 = ε0 × εr × . Chacune des arma-
e0
tures est alors porteuse d’une charge électrique : Q0 = C0 × U0. Sous l’action d’une
onde sonore de période T, le diaphragme se déplace de Δe par rapport à sa posi-
tion de repos e0 qui conduit à une modification de la distance entre les deux arma-
tures : e = e0 + Δe qui à son tour provoque une variation de la capacité de celui-ci :
S
C = C 0 + ∆C = ε0 × εr × . Cependant, comme la constante de temps τ0 = R0 × C0
e
du circuit de polarisation est en général très grande devant la période T de l’onde
sonore, la charge du condensateur Q = C × U demeure constante : Q = Q0 ; c’est la
tension aux bornes du condensateur qui va changer : U = U0 + ΔU ; ΔU représente
© Dunod – Toute reproduction non autorisée est un délit.

la variation de la tension aux bornes du condensateur résultant du déplacement


Δe de la membrane sous l’effet de l’onde sonore. Moyennant un petit calcul et
quelques approximations, on démontre que : ∆U ≈ U 0 × ∆e .
e0
Cette relation montre d’une part que la variation ΔU de la tension aux bornes du
condensateur est proportionnelle à la variation Δe de la distance entre ses deux
armatures due à l’action de l’onde sonore. D’autre part, elle montre que pour avoir
la plus grande variation possible de la tension ΔU aux bornes du condensateur,
304 Le livre des techniques du son

pour un certain déplacement Δe de la membrane, il faut augmenter sa tension de


polarisation U0 et/ou réduire la distance e0 entre ses deux armatures au repos.

6.1.2 Effet chimique


Dans un conducteur métallique, les électrons libres, très mobiles, peuvent se
déplacer sous l’effet d’un champ électrique (loi de Coulomb). Le transport de
charges électriques a lieu sans que le conducteur subisse une transformation
chimique quelconque.

✦ Oxydoréduction
Une pile (un accumulateur) est une source d’électricité qui transforme directe-
ment l’énergie chimique, produite par une réaction chimique d’oxydoréduction,
en une énergie électrique, fournie à un circuit d’utilisation branché entre ses deux
bornes. Les espèces chimiques de départ, appelées réactifs, peuvent être des
atomes, des ions ou des molécules ; la consommation de ses réactifs par la réac-
tion chimique d’oxydoréduction entraîne l’usure de la pile (l’accumulateur). Une
réaction d’oxydoréduction associe une réaction d’oxydation et une réaction de
réduction et met en jeu deux couples oxydant-réducteur ; à chaque oxydant
correspond un réducteur conjugué. Elle s’accompagne du transfert d’un ou de
plusieurs électrons du réducteur du premier couple vers l’oxydant du second
couple. L’oxydant est l’espèce chimique qui subit une réaction de réduction ; il a
tendance à capter un ou plusieurs électrons (gain d’électrons). Le réducteur est
l’espèce chimique qui subit une réaction d’oxydation ; il a tendance à céder un ou
plusieurs électrons (perte d’électrons). Tout électron perdu par le réducteur du
premier couple oxydant-réducteur est automatiquement capté par l’oxydant du
second couple oxydant-réducteur.
Les performances et les conditions d’utilisation d’une pile (d’un accumulateur)
seront déterminées par ces réactions chimiques et, par suite, par les matériaux
constitutifs de celle-ci (celui-ci). Le défi majeur des fabricants de piles (d’accu-
mulateurs) est de trouver des couples oxydant-réducteur donnant des réactions
d’oxydoréduction permettant d’obtenir des piles (des accumulateurs) ayant les
meilleures performances. Ces couples se retrouvent souvent à l’origine du nom de
la technologie utilisée pour la fabrication de la pile (l’accumulateur). Par exemple,
la technologie Ni-Cd est fondée sur le couple nickel-cadmium ou plus précisé-
ment sur des dérivés chimiques de ces deux métaux.
La réaction d’oxydoréduction est plus ou moins réversible. Si on la laisse évoluer
librement, elle fournira de l’électricité ; ce sera la décharge ou le fonctionnement
en pile. Si on la force en sens inverse, ce sera la recharge ou le fonctionnement en
accumulateur. La quantité d’électricité que peut fournir une pile (un accumula-
Chapitre 6 – Notions fondamentales de l’électricité 305

teur) avant que la tension à ses bornes atteigne une valeur minimale, appelée
tension ultime ou tension d’arrêt, dépend de la façon dont elle est construite et de
la manière dont elle est utilisée. On l’appelle la capacité et on l’exprime en ampères-
heures (1 Ah = 3 600 C). Ainsi, une batterie de 48 Ah peut fournir théoriquement
un courant de 1 A pendant 48 h, ou un courant de 2 A pendant 24 h, et ainsi de
suite. Cependant, il est à noter que plus le courant de décharge est important plus
la quantité d’électricité récupérable (donc la capacité) se trouve diminuée. En
prenant pour exemple une pile courante du commerce :
• Capacité : 3,5 Ah
• Puissance maximale : 1 W
• Résistance interne : 0,4 Ω
• Intensité de court-circuit : 3 A
on obtient les courbes de décharge en fonction du régime d’utilisation de la
figure 6.6.

Figure 6.6 — Courbes de décharges d’une pile (d’après un document de Wonder).


© Dunod – Toute reproduction non autorisée est un délit.

✦ Piles
Une pile est constituée de deux compartiments séparés (demi-piles) et d’une
jonction, qui peut être soit un pont soit une paroi poreuse, qui assure la liaison
entre les deux demi-piles. Chaque compartiment comporte un couple oxydant-
réducteur composé d’une pièce conductrice (électrode) en contact avec une solu-
tion conductrice appropriée (électrolyte).
306 Le livre des techniques du son

En fonctionnement normal, une pile met en jeu le déplacement de deux types de


porteurs de charge :
• dans le circuit extérieur à la pile : ce sont les électrons qui circulent dans les
fils de liaison reliant les deux électrodes de la pile au circuit d’utilisation et
dans les conducteurs du pôle positif vers le pôle négatif de la pile ; le trans-
fert des électrons est spontané et indirect ; on dit qu’il y a conduction par
électrons ; le courant électrique, quant à lui, circule de la borne positive
vers la borne négative de la pile ;
• dans le circuit intérieur à la pile, c’est-à-dire dans le pont ou à travers la
paroi poreuse et dans les électrolytes : ce sont les ions qui se déplacent ; on
dit qu’il y a conduction par ions ; le mouvement des ions dans le pont
permet aux électrolytes de rester électriquement neutres.
On appelle anode, l’électrode appartenant à la demi-pile où se produit l’oxyda-
tion ; elle représente l’électrode qui donne les électrons ; elle correspond au pôle
négatif de la pile. On appelle cathode, l’électrode appartenant à la demi-pile où se
produit la réduction ; elle représente l’électrode qui reçoit les électrons ; elle
correspond au pôle positif de la pile.
La force électromotrice (f.é.m.) d’une pile est la différence de potentiel qui existe
entre l’anode et la cathode ; elle représente la valeur de la tension mesurée au
moyen d’un voltmètre lorsque la pile ne débite aucun courant ; elle peut être
déterminée à partir des valeurs des potentiels d’oxydoréduction des deux couples
oxydant-réducteur utilisés pour constituer la pile.
En début d’utilisation, la f.é.m. d’une pile courante est d’environ 1,5 V par élément.
Lorsque l’appareil à alimenter requiert une tension plus élevée que celle normale-
ment disponible entre les deux bornes d’une pile, on raccorde plusieurs piles en
série en les plaçant les unes à la suite des autres ; la borne (+) d’une pile est reliée
à la borne (–) de la suivante ; les deux bornes libres constituent les bornes de la
batterie obtenue.
Lorsque l’appareil à alimenter requiert une intensité de courant plus importante
que celle qu’une pile peut normalement fournir, on raccorde plusieurs piles
semblables en parallèle en connectant les bornes de même signe ensemble.
La baisse de tension aux bornes de la pile est lente et continue si l’intensité
demandée est en rapport avec sa capacité. La pile est dite « épuisée » lorsque sa
f.é.m. atteint la tension d’arrêt qui est en moyenne de l’ordre de 1 V par élément
pour les piles courantes.
Au moment où on branche un circuit d’utilisation aux bornes d’une pile, on
constate une diminution de la tension disponible à ses bornes. Ceci est dû au fait
Chapitre 6 – Notions fondamentales de l’électricité 307

que la pile possède une résistance interne qui provoque une chute de tension à
l’intérieur de la pile. La valeur ohmique de la résistance interne d’une pile dépend
de sa technologie de fabrication et de ses constituants chimiques, de sa capacité,
de son état de décharge, de son âge, de sa température, etc.
La capacité énergétique d’une pile dépend de son type, de son régime de décharge
et de sa tension d’arrêt. On désigne par énergie massique d’une pile, l’énergie
qu’elle peut fournir par unité de masse en utilisation « normale ». Elle est forte-
ment diminuée pour un régime de décharge sévère du fait des réactions chimiques
et de la température de la pile.
On trouvera les caractéristiques principales de quelques piles dans le tableau 6.2.

Tableau 6.2 – Caractéristiques principales de quelques types de piles.

f.é.m. Énergie Remarques


Type nominale massique

Alcaline Bonne densité énergétique,


zinc-manganèse 1,5 V 120 Wh/kg risque de fuite de l’électrolyte

Saline Performances insuffisantes,


carbone-zinc 1,5 V 80 Wh/kg risque de dégazage

Longue durée à faible débit, ne


Lithium 2,9 V 330 Wh/kg supporte pas le court-circuit

Argent Piles bouton, chères,


zinc-argent 1,55 V bonne tenue dans le temps

✦ Accumulateurs
Pour les accumulateurs, on définit une notion supplémentaire : le rendement.
L’énergie que peut fournir un accumulateur est inférieure à l’énergie nécessaire
© Dunod – Toute reproduction non autorisée est un délit.

pour le charger. Le rendement énergétique est le rapport, exprimé en pourcen-


tage, des deux quantités précédentes. Il est de l’ordre de 70 % à 95 %.
Le rendement en quantité est défini de façon similaire en considérant les quan-
tités d’électricité. Il sera de l’ordre de 85 % en moyenne. Cependant, il dépendra
beaucoup du régime de décharge. Pour la charge, on limite empiriquement le
courant au dixième de la capacité de l’accumulateur exprimée en Ah. Ainsi, un
accumulateur de 50 Ah sera chargé avec un courant constant de 5 A.
Le tableau 6.3 montre les caractéristiques de quelques principaux types d’accu-
mulateurs.
308 Le livre des techniques du son

Tableau 6.3 — Principaux types d’accumulateurs.

f.é.m. Puissance Énergie Remarques


Type nominale crête massique

Lourd et fragile, forts


courants, ne doit pas
Plomb 2,2 V 700 W/kg 30-50 Wh/kg être déchargé
complètement

Robuste, l’effet
Cadmium- mémoire impose des
1,2 V 45-80 Wh/kg cycles de décharges
nickel
complètes

Ne supporte pas la
Nickel-métal surcharge, nécessite
1,2 V 900 W/kg 60-110 Wh/kg
hydrure un chargeur spécialisé

Performants, forts
Lithium-Ion 3,7 V 1 500 W/kg 90-180 Wh/kg courants, dangereux à
l’échauffement

Moins performants
Lithium- mais plus robustes que
3,7 V 250 W/kg 100-130 Wh/kg
Polymère les LiPo

La fabrication de piles et d’accumulateurs est un domaine technologique en


pleine évolution. Les recherches actuelles sont principalement axées sur l’amélio-
ration de l’énergie massique.
On notera également une évolution rapide de la réglementation concernant les
matériaux constitutifs des piles et des accumulateurs qui sont souvent très
polluants. Ainsi, les technologies au mercure ne sont plus autorisées ; le cadmium,
très polluant, fait maintenant l’objet d’une réglementation restrictive.
Les piles et les accumulateurs sont considérés comme des déchets dangereux ou
non dangereux (banals) et sont classés en six catégories dans la rubrique 16 06 de
la classification des déchets. Le décret n° 2009-1139 encadre la réglementation
relative à la filière des piles et accumulateurs. Le décret n° 2012-617, relatif à la
gestion des déchets de piles et accumulateurs et d’équipements électriques et
électroniques, modifie le décret n° 2009-1139 transposant la directive euro-
péenne 2006/66/CE qui fixe les objectifs en termes de taux de collecte par État
(45 % en 2016) et de rendement de recyclage en poids (65 % pour la technologie
plomb-acide, 75 % pour le nickel-cadmium et 50 % pour les autres technologies
de piles et accumulateurs).
Chapitre 6 – Notions fondamentales de l’électricité 309

6.1.3 Effet thermique


✦ Effet Joule
Lorsqu’un courant électrique d’intensité I traverse un conducteur électrique de
résistance électrique R, il créera à ses bornes une d.d.p. U donnée par la loi d’Ohm :
U = R × I. Du fait de sa résistance électrique, tout conducteur électrique, parcouru
par un courant électrique, s’échauffe.
Il y aura donc (comme pour l’exemple du tube TV), une énergie électrique fournie
à ce conducteur qui se manifestera sous forme de chaleur (énergie thermique ou
calorifique), donc d’échauffement et par suite d’élévation de température. L’am-
pleur de cet échauffement dépendra de l’énergie électrique fournie par unité de
temps, donc de la puissance électrique moyenne reçue :
∆W
Pmoy =
∆t
avec Pmoy la puissance moyenne en watts, ΔW la variation d’énergie en joules et Δt
la durée en secondes.
On aura :
ΔW = ΔQ × U = (I × Δt) × U = U × I × Δt

On en déduit :
∆W U × I × ∆t
Pmoy = = =U × I
∆t ∆t

Pour une résistance, on aura :


U2
P =U × I = R× I 2 =
R
© Dunod – Toute reproduction non autorisée est un délit.

Le problème du refroidissement des composants est primordial en électronique.


Les valeurs des caractéristiques des composants dépendent de la température
(dérive thermique). Il peut également y avoir destruction des composants en cas
d’échauffement excessif. Il est donc nécessaire de pouvoir contrôler ce phénomène.

✦ Loi de Newton
Les problèmes d’échauffement peuvent être prévus au moyen de la loi de Newton
(figure 6.7) :
Δθ = Rth × P
310 Le livre des techniques du son

Figure 6.7 — Loi de Newton. Δθ = Rth × P.

On peut remarquer l’analogie entre la loi de Newton et la loi d’Ohm : U = R × I.


• Δθ est la différence de température à laquelle est soumis le dioptre ther-
mique.
• Rth est la résistance thermique du dioptre ; la résistance thermique est
inversement proportionnelle aux surfaces d’échange thermique.
• P est la puissance en watts dissipée dans la résistance thermique.
S’il y a plusieurs dioptres thermiques en cascade, la résistance thermique de l’en-
semble est égale à la somme de toutes les résistances thermiques des couches et
des dioptres thermiques rencontrés.
Pour un transistor de puissance, on aura la disposition de la figure 6.8.
Rtj est donné par le constructeur du transistor.
Rtm est le terme le plus difficile à estimer. Entre l’embase du transistor et le radia-
teur, il y a beaucoup d’interstices, réduisant la surface d’échange thermique. Ceci
est dû à l’état des surfaces métalliques en regard. On peut également avoir un film
de mica pour l’isolation électrique, empirant le phénomène. On utilise de la
graisse à la silicone pour combler les interstices et diminuer la résistance ther-
mique. La graisse à la silicone est un bon fluide caloporteur et un bon isolant
électrique.
Rta est la résistance thermique du radiateur. Les radiateurs sont en général des
profilés en aluminium que l’on coupe à la longueur désirée. Doubler la longueur
d’un radiateur revient à diminuer de moitié la résistance thermique du radiateur.
Chapitre 6 – Notions fondamentales de l’électricité 311

Figure 6.8 — Transistor et son dispositif de refroidissement.

En effet, si on n’augmente pas la largeur du radiateur, la surface d’échange est alors


proportionnelle à la longueur (figure 6.9).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 6.9 — Exemple de caractéristiques d’un radiateur.


312 Le livre des techniques du son

D’après la loi de Newton, pour une puissance P et une résistance thermique Rth
données, Δθ est fixe. Il faut que la température de jonction soit la plus faible
possible ; il faut donc que la température de l’air environnant le radiateur soit la
plus basse possible.
Il faudra donc disposer les radiateurs et les appareils de telle sorte que l’air puisse
circuler pour que θf (voir figure 6.7) soit la température de l’air ambiant.
Pratiquement, le doigt est un bon indicateur de température si on se souvient
qu’on ne peut laisser le doigt en contact avec un radiateur lorsque la température
de celui-ci dépasse 50 °C. Pour un système correctement conçu, une température
de radiateur de 50 °C correspond à 90 °C environ au niveau de la jonction, la
température de fusion, donc de destruction d’un composant électronique à base
de silicium étant de 120 °C environ.

6.1.4 Effet magnétique


Le magnétisme et l’électromagnétisme sont deux phénomènes qui régissent le
fonctionnement de nombreux dispositifs rencontrés en audiovisuel : micro-
phones, haut-parleurs, magnétophones, magnétoscopes, disquettes, disques
durs, instruments de mesures à quadrant mobile, etc.
Le magnétisme se rapporte aux trois propriétés d’un aimant (ou en général tout
objet aimanté) : il attire toute substance ferromagnétique, attire ou repousse tout
autre aimant et s’oriente de lui-même sensiblement dans la direction Nord-Sud
géographique lorsqu’il est libre de se mouvoir. L’électromagnétisme se rapporte
aux phénomènes liés à l’électricité et au magnétisme.

✦ Aimants naturels et artificiels


Un aimant peut être naturel, comme la magnétite (oxyde de fer Fe3O4), ou artifi-
ciel (aimant, électro-aimant). Un aimant agit sur une substance magnétique et n’a
aucun effet sur une substance non magnétique. Une substance magnétique est
une substance qui contient un élément ferromagnétique tel que le fer (Fe), le
nickel (Ni), le cobalt (Co), les lanthanides (tel que le gadolinium Gd), les actinides
et leurs alliages. Une substance non magnétique est une substance qui n’est ni
attirée ni repoussée par un aimant ; c’est le cas de matériaux tels que le plastique,
le caoutchouc, la céramique, le verre, le bois, etc. Non magnétique en temps
normal, une substance ferromagnétique devient magnétique en présence d’un
aimant, appelé aimant excitateur, et devient un aimant artificiel. Un aimant arti-
ficiel qui conserve en grande partie son aimantation, même lorsque l’aimant exci-
tateur est retiré, s’appelle aimant artificiel permanent ; on parle de rémanence. Un
aimant artificiel qui possède une aimantation tant qu’il est à proximité d’un
Chapitre 6 – Notions fondamentales de l’électricité 313

aimant excitateur et qui la perd en grande partie dès que l’aimant excitateur est
retiré s’appelle aimant artificiel non permanent ou temporaire.
Les deux extrémités d’un aimant, qui jouissent plus particulièrement de la
propriété de magnétisme, constituent ses deux pôles ; indissociables mais non
identiques, ils sont baptisés pôle Nord et pôle Sud. Lorsqu’on brise un aimant
pour séparer ses deux pôles, chacun des fragments obtenus se comporte comme
un nouvel aimant avec son pôle Nord et son pôle Sud ; ainsi, il est impossible
d’isoler les pôles Nord et Sud d’un aimant en le brisant. Par ailleurs, lorsqu’on
approche les pôles identiques de deux aimants l’un vers l’autre, on constate qu’ils
se repoussent. Lorsqu’on approche les pôles opposés de deux aimants l’un vers
l’autre, on constate qu’ils s’attirent.

✦ Grandeurs magnétiques

✧ Champ magnétique
Les forces magnétiques exercées par un aimant sur toute substance ferromagné-
tique ou sur tout autre objet aimanté agissent à distance. Elles le font par l’inter-
médiaire d’un champ magnétique généré par l’aimant ou par l’objet aimanté. On
appelle champ magnétique créé par un aimant la région de l’espace qui l’entoure et
dans laquelle son action sur toute substance ferromagnétique ou sur tout autre
objet aimanté se manifeste.
La théorie montre que le champ électrique et le champ magnétique font partie de
la même entité : le champ électromagnétique. Le champ électromagnétique se
propage dans l’espace, raison pour laquelle on parle aussi d’onde électromagné-
tique.
Un champ électrique est associé à la présence d’une charge électrique ; à chaque
point de l’espace, le champ électrique a une direction, un sens et une intensité qui
dépend de la distance à la charge. Un champ magnétique est lié au déplacement
de charges électriques, donc par la circulation d’un courant électrique.
© Dunod – Toute reproduction non autorisée est un délit.

Si ce courant électrique est constant, il crée un champ magnétique constant en sus


du champ électrique. Si ce courant électrique est rapidement variable, il y aura a
priori, un champ électrique et un champ magnétique variables, capables de se
propager ; ce sera une onde électromagnétique.
L’étude des champs magnétiques créés par des courants constants, c’est-à-dire
qui ne varient pas dans le temps, sera la magnétostatique. On y inclut également
le cas des champs magnétiques créés par des courants « lentement » variables ;
pour nous : les audiofréquences.
314 Le livre des techniques du son

Anciennement, le champ magnétique s’appelait l’induction magnétique. Il est


l’homologue pour le magnétisme du champ électrique. Il permet de rendre
compte de l’état d’aimantation du matériau considéré. Le champ magnétique est
représenté par un vecteur dont l’intensité se chiffre en teslas (T). L’intensité du
champ magnétique est plus élevée aux pôles. Le champ magnétique est repré-
senté par les lignes de champ. Les lignes de champ s’éloignent du pôle Nord et
convergent vers le pôle Sud. L’espacement des lignes de champ révèle l’intensité
du champ : plus les lignes de champ sont proches les unes des autres plus le champ
est élevé. Le dessin des lignes de champ d’un aimant définit son spectre. Il est
important de se souvenir que les lignes de champ, définissant la direction
 et le
sens du champ, sont des courbes fermées (équation de Maxwell : div B  0 ). Ceci
explique que tous les dispositifs magnétiques sont constitués de circuits fermés
dans lesquels on pratique des entrefers pour pouvoir utiliser le champ magné-
tique créé.
D’autre part, nous avons vu que les pôles semblables de deux aimants se repoussent
et que les pôles contraires de deux aimants s’attirent. On peut faire l’expérience
avec des boussoles ou avec des moteurs de haut-parleurs pour observer ces
phénomènes d’attraction et de répulsion. De plus, il faut remarquer que le champ
magnétique est beaucoup plus important dans un matériau ferromagnétique que
dans l’air : les lignes de champ passent préférentiellement dans un matériau
ferromagnétique ; on dit qu’un matériau ferromagnétique canalise les lignes de
champ.
 
Mathématiquement, on exprime ceci par la relation : B = µ × H (voir § 7.1.3 et
§ 7.1.4).
µ est la perméabilité ou la susceptibilité magnétique du milieu. Pour le vide ou pour
l’air, µ = µ0 = 4π × 10–7. Pour un matériau ferromagnétique : µ = µ0 × µr où µr est la
perméabilité relative du matériau. µr est de l’ordre de 800 à 4 000 pour les maté-
riaux ferromagnétiques couramment utilisés. La perméabilité d’un matériau
ferromagnétique n’est pas constante mais dépend de l’excitation magnétique
appliquée. Un matériau ferromagnétique est caractérisé par des phénomènes
d’hystérésis, de rémanence et de coercitivité.
H est l’excitation magnétique (anciennement : champ magnétique) qui se chiffre
en ampères par mètre. L’excitation magnétique H ne dépend que de la géométrie
du circuit conducteur du courant électrique et de l’intensité du courant électrique
i créant le champ. C’est donc µ qui rend compte des propriétés magnétiques du
matériau. Le champ magnétique B dépend à la fois de l’excitation magnétique H
et de la susceptibilité magnétique µ du milieu dans lequel H apparaît. Ce coeffi-
cient n’est pas linéaire pour un matériau ferromagnétique, et dépend de B et de H
(figure 6.10).
Chapitre 6 – Notions fondamentales de l’électricité 315

Figure 6.10 — Évolution de B en fonction de H : cycle d’hystéréris.

La figure 6.10 montre la courbe d’évolution du champ magnétique B en fonction


de l’excitation magnétique H. B croît lorsque H croît jusqu’à atteindre une valeur
de saturation BS. B décroît lorsque H décroît également mais sans suivre la courbe
d’augmentation. Lorsque l’excitation magnétique disparaît (H = 0), il subsiste un
champ magnétique rémanent (B ≠ 0). Le phénomène de rémanence des maté-
riaux ferromagnétiques est utilisé pour la réalisation des aimants artificiels
permanents. Pour annuler le champ magnétique d’un matériau ferromagnétique,
il faut le soumettre à une excitation opposée appelée excitation coercitive. La
courbe B(H) décrit un cycle caractérisé par un dédoublement de la caractéris-
tique et un sens de parcours appelé cycle d’hystérésis. La valeur à un instant donné
de B dépend non seulement de la valeur à cet instant de H mais également de la
valeur antérieure de H : le matériau ferromagnétique est doué de mémoire. La
courbe B(H) montre que pour enregistrer et effacer des données, il faut disposer
© Dunod – Toute reproduction non autorisée est un délit.

d’une excitation magnétique au moins égale à l’excitation coercitive. Cependant,


il ne faut pas utiliser une excitation magnétique trop forte pour ne pas magnétiser
ou démagnétiser les régions proches contenant d’autres données.
La figure 6.10 montre aussi que pour un matériau ferromagnétique doux le champ
magnétique B croît rapidement avec l’excitation magnétique H et que la surface
du cycle d’hystérésis est faible, alors que pour un matériau ferromagnétique dur
le champ magnétique B croît lentement avec l’excitation magnétique H et que la
surface du cycle d’hystérésis est grande. Les matériaux ferromagnétiques doux se
désaimantent facilement ; on les utilisera pour fabriquer des aimants perma-
316 Le livre des techniques du son

nents. Les matériaux ferromagnétiques durs se désaimantent difficilement ; on


les utilisera pour fabriquer les circuits magnétiques des machines électrotech-
niques. Le parcours du cycle d’hystérésis implique un échauffement du matériau
ferromagnétique et donc des pertes de puissance appelées pertes par hystérésis.
Les pertes par hystérésis dans un matériau ferromagnétique sont d’autant plus
fortes que la surface de son cycle d’hystérésis est importante. Pour limiter les
pertes par hystérésis, on privilégie les matériaux ferromagnétiques ayant des
cycles d’hystérésis étroits. De plus, comme les pertes augmentent avec la
fréquence, on limite l’utilisation des dispositifs magnétiques aux basses
fréquences. Aux pertes par hystérésis s’ajoutent les pertes par les courants de
Foucault. Pour réduire les pertes liées aux courants de Foucault, on utilise des
matériaux magnétiques feuilletés. L’ensemble des pertes par hystérésis et par les
courants de Foucault s’appelle pertes magnétiques ou pertes dans le fer.

✧ Flux circulant
Les notions de champ magnétique et d’excitation magnétique sont physiquement
fondamentales mais très peu pratiques car elles dépendent de la géométrie des
systèmes. Pour s’en affranchir, on définit le flux circulant. C’est essentiellement le
produit scalaire du vecteur champ magnétique par un vecteur représentant la
section du circuit magnétique (voir § 7.1.4). Ce sens est choisi arbitrairement, ce
qui revient à dire qu’il est nécessaire d’orienter les circuits magnétiques avant
d’écrire toute relation.
Dans le cas particulier d’un champ uniforme B à travers une section S qui lui est
orthogonale, on peut écrire : Φ = B × S. Le flux magnétique Φ se chiffre en webers
(Wb).
Conventionnellement, on considère que le flux magnétique circule comme le
champ magnétique. C’est un nombre algébrique représentant la « quantité de
champ magnétique » qui traverse la section du circuit magnétique.
Le champ magnétique a des lignes de champ fermées. Elles constituent des
« tubes de champ ». En effet, le long d’un tube de champ, la valeur du flux circu-
lant est constante. Si on se souvient que les matériaux ferromagnétiques cana-
lisent les lignes de champ, on peut alors affirmer en première approximation que
le flux circulant est constant le long d’un circuit magnétique, et ce, quelle que soit
la forme de ce circuit. Dans les sections fortes, le champ sera faible ; et dans les
sections faibles, le champ sera fort (figure 6.11). Le flux circulant est donc la
notion de base du magnétisme. Il concerne les circuits magnétiques et donc le
« fer ».
Il ne faut surtout pas le confondre avec le flux total ou le flux embrassé qui est une
notion intéressant les bobinages et donc le « cuivre ».
Chapitre 6 – Notions fondamentales de l’électricité 317

Figure 6.11 — Le flux magnétique dans le fer est conservatif.

✧ Coefficient d’auto-induction
Si un circuit magnétique comporte un bobinage de N spires, chaque spire du
bobinage sera traversée par le flux circulant ΦC, vu précédemment. Le flux total
ΦT qui traverse le bobinage de N spires est donc : ΦT = N × ΦC.
Selon les auteurs, ΦT s’appelle flux total, flux embrassé, flux du bobinage et parfois
tout simplement, flux. Pour augmenter encore les risques de confusion, l’unité
pour le flux total est également le weber.
C’est le flux total ΦT qui permet de définir le coefficient d’auto-induction L du
bobinage par la relation :
ΦT = L × I
avec :
• ΦT : le flux embrassé par le bobinage exprimé en webers (N × ΦC).
• L : le coefficient d’auto-induction, l’inductivité, la self, l’inductance ou la
self-inductance du bobinage, exprimé en henrys (H).
• I : l’intensité du courant électrique circulant dans le bobinage exprimée en
ampères.
© Dunod – Toute reproduction non autorisée est un délit.

On retient également la formule exprimant la self en fonction du flux circulant :


ΦT N × Φ C
L= =
I I
✦ Exemples d’objets magnétiques

✧ Fil rectiligne
Un courant électrique I qui circule dans un fil rectiligne de longueur infinie,
crée, en un point de l’espace situé à une distance r du fil, un champ magnétique
B dont :
318 Le livre des techniques du son

• le sens est donné par la règle du tire-bouchon de Maxwell (figure 6.12) ;


• l’intensité peut se calculer à l’aide du théorème d’Ampère. On montrera
µI
qu’elle vaut : B = 0 .
2πr

Figure 6.12 — Champ magnétique créé par un fil rectiligne.

L’intensité du champ est inversement proportionnelle à la distance entre le point


où l’on se trouve et le fil. Si deux câbles sont proches l’un de l’autre, ils peuvent
s’influencer par l’intermédiaire du champ magnétique créé par chacun. C’est une
des causes de la diaphonie. On voit aussi que le champ est d’autant plus fort que
l’intensité des courants parcourant les fils est grande. Les conducteurs et les câbles
d’alimentation et d’éclairage, qui véhiculent des signaux forts, peuvent créer des
perturbations dramatiques sur les signaux faibles (microphones) véhiculés par
des câbles et des conducteurs qui peuvent se trouver dans leur voisinage.
Des mesures draconiennes devront être mises en œuvre pour minimiser ce
phénomène.

✧ Bobine. Solénoïde
Une bobine est un enroulement régulier en hélice d’un fil conducteur recouvert
d’un isolant (vernis, émail) autour d’un support cylindrique de longueur L et de
rayon r. Chaque tour de fil s’appelle conducteur circulaire, boucle ou spire. L’espace
intérieur du support peut être vide (bobine à air) ou contenir un matériau ferro-
magnétique (bobine à noyau ou bobine à circuit magnétique).
Lorsque les N spires constituant l’enroulement sont jointives et uniformément
réparties sur un support dont la longueur L est inférieure au rayon r, on parle de
bobine plate. Lorsque la longueur L du support est du même ordre que son rayon
r, on parle de solénoïde. Lorsque la longueur L du support est très grande devant
son rayon r, on parle de solénoïde long. Le rapport entre le nombre N de spires
Chapitre 6 – Notions fondamentales de l’électricité 319

constituant l’enroulement et la longueur L du support, noté n, s’appelle le nombre


de spires par unité de longueur ou la densité de spires.
Un solénoïde long parcouru par un courant électrique d’intensité I, produit le
même champ magnétique B qu’une série de N spires indépendantes parcourues
par le même courant. À l’intérieur du solénoïde long, les lignes de champ sont
équidistantes et parallèles à son axe sur presque toute sa longueur ; on dit que le
champ magnétique est uniforme à l’intérieur d’un solénoïde long. À l’extérieur,
elles produisent un spectre magnétique semblable à celui produit par un aimant
droit. Par analogie avec un aimant droit, on appelle face Nord (ou pôle Nord) du
solénoïde long l’extrémité par laquelle les lignes de champ sortent et face Sud (ou
pôle Sud), l’extrémité par laquelle elles entrent. Le solénoïde devient un élec-
tro-aimant.
Pour un solénoïde long, constitué de N spires enroulées autour d’un support de
longueur L contenant un matériau ferromagnétique de susceptibilité magnétique
µ, parcouru par un courant électrique d’intensité I, on démontre que le champ
magnétique B généré à l’intérieur est pratiquement uniforme et que son intensité
sur l’axe est donnée par la relation :
N
B = µ × n × I = µ 0 × µr × I ×
L
La relation montre que l’intensité du champ magnétique B est proportionnelle à
l’intensité I du courant électrique et au nombre N de spires et inversement propor-
tionnelle à la longueur L.

✧ Électro-aimant
Un électro-aimant joue le rôle d’un aimant dont on peut contrôler les caractéris-
tiques (intensité, sens) par l’intensité et le sens du courant électrique qui le
traverse, par le nombre de spires que contient son bobinage et par les caractéris-
tiques de son circuit magnétique (nature de ses matériaux, forme). Par rapport à
un aimant permanent, un électro-aimant rend possible l’inversion à volonté des
© Dunod – Toute reproduction non autorisée est un délit.

pôles Nord et Sud de l’électro-aimant par simple changement du sens du courant


électrique qui le traverse.
L’électro-aimant est à la base du fonctionnement de beaucoup de dispositifs tels
que relais électromagnétiques, têtes magnétiques, etc.
Un relais électromagnétique assure la fonction de commutation (fermeture et
ouverture) d’un circuit de forte puissance (partie opérative) au moyen d’un circuit
de faible puissance (partie commande) ; les parties commande et opérative sont
couplées électro-mécaniquement mais complètement isolées électriquement ;
on dit qu’il y a une isolation galvanique, c’est-à-dire qu’il n’y a aucun point
320 Le livre des techniques du son

commun, pas même la masse, entre les parties opérative (contacts du relais) et
commande (bobine de l’électro-aimant).
Le relais électromagnétique est constitué d’un électro-aimant, d’une palette arti-
culée (un levier) placée au-dessus de l’électro-aimant, d’un ressort de rappel fixé
sur la palette articulée et d’un jeu de contacts. Lorsque l’électro-aimant est traversé
par un courant électrique, le champ magnétique engendré attire la palette arti-
culée et ferme le contact. Lorsque l’électro-aimant n’est traversé par aucun
courant, la palette articulée n’est pas attirée par l’électro-aimant et reste levée
grâce au ressort de rappel ; le contact est ouvert.

✧ Tête magnétique
Une bande magnétique est constituée d’un ruban souple en matériau non magné-
tique, tel que le plastique (polyester), recouvert d’une couche en matériau magné-
tique renfermant des microcristaux d’oxyde de fer ou d’oxyde de chrome (voir
§ 7.4.3). Une tête magnétique est un simple électro-aimant dont le rôle est de
transformer un courant électrique en un champ magnétique qui sera inscrit sur
la bande (pour l’enregistrement) et réciproquement de transformer le champ
magnétique rayonné par la bande en une tension électrique (pour la lecture)
(figure 6.13).

Figure 6.13 — Principe de l’enregistrement magnétique.

Cet électro-aimant est composé d’un noyau torique autour duquel est enroulée
une bobine. Parcourue par le courant d’excitation, qui correspond au signal élec-
trique à enregistrer, la bobine génère un champ magnétique dont l’intensité est
proportionnelle au courant d’excitation et dont les lignes de champ sont canali-
sées par le noyau. Pour permettre aux lignes de champ de s’échapper du noyau,
celui-ci a été percé d’une fente ayant une certaine largeur appelée entrefer. Les
lignes de champ se développent dans et autour de l’entrefer. L’entrefer, présentant
une perméabilité magnétique très inférieure à celle du noyau, confère la réluc-
Chapitre 6 – Notions fondamentales de l’électricité 321

tance la plus élevée au passage des lignes de champ. Lorsqu’on fait défiler la bande
à une certaine vitesse devant l’entrefer, les lignes de champ se referment plus
volontiers à travers la couche magnétique qui recouvre la bande et qui est magné-
tiquement plus perméable et ainsi aimantent les microcristaux d’oxyde que
celle-ci contient. Les microcristaux aimantés conservent leur état d’aimantation
après la suppression du courant d’excitation. Pour la lecture, lorsque la bande
défile à une certaine vitesse devant la tête magnétique, les lignes de champ sortent
de la bande, pénètrent dans l’entrefer de la tête magnétique et induisent des
tensions aux bornes de la bobine.
Pour obtenir les équations de fonctionnement, nous suivrons la méthode d’étude
des circuits magnétiques à entrefer.
(a) On définit la réluctance du circuit magnétique.
Une bobine, comportant N spires enroulées autour d’un matériau magnétique
de perméabilité µ = µ0 × µr, parcourue par un courant électrique d’intensité I,
engendre un champ magnétique B qui se répand dans tout l’espace qui l’entoure.
Les lignes de champ à travers la section S sont à l’origine d’un flux magnétique
ΦC. La bobine crée une force magnétomotrice (f.m.m.) F qui force le flux magné-
tique ΦC à circuler dans le circuit magnétique. C’est l’analogue d’une force élec-
tromotrice U qui fait circuler un flux d’électrons (c’est-à-dire un courant
électrique d’intensité I) dans le circuit électrique (voir tableau 6.4). La force
magnétomotrice F produite est reliée à l’intensité I du courant qui circule dans la
bobine et au nombre N de spires de la bobine par la relation : F = N × I. L’inten-
sité de l’excitation magnétique dans le noyau est donnée par la loi d’Ampère :
N × I = H × l dans laquelle l désigne le parcours moyen du flux dans le matériau
magnétique et S la section de ce dernier. Le flux magnétique circulant dans le
circuit magnétique est égal à :
 N ×I 
ΦC = B × S = µ × H × S = µ × 
(N ×I ) = F
 ×S =
 l  1 l  R
µ×S 
© Dunod – Toute reproduction non autorisée est un délit.

 
1 l
R = × s’appelle la réluctance du circuit magnétique. Elle caractérise la « résis-
µ S
tance » qu’oppose le circuit magnétique à la circulation du flux magnétique. Elle
s’exprime en A×tr/Wb ou en A/V×s.
Le tableau 6.4 montre l’analogie entre les grandeurs et les équations qui régissent
un circuit électrique et les grandeurs et les équations qui régissent un circuit
magnétique. Il faut remarquer qu’il ne s’agit que d’une analogie des grandeurs et
des équations. En effet, la conductivité électrique est constante alors que la
322 Le livre des techniques du son

perméabilité magnétique ne l’est pas pour les matériaux usuels. De plus, il n’existe
pas d’isolant magnétique comme il existe des isolants électriques.

Tableau 6.4 – Analogie entre un circuit électrique et un circuit magnétique.

Circuit électrique Circuit magnétique

Conductivité : σ Perméabilité : µ

Champ électrique : E Excitation magnétique : H

Densité de courant : J = σ × E Champ magnétique : B = µ × H

Tension : U Forme magnétomotrice : F

Courant : I Flux circulant : ΦC

Résistance : R Réluctance : R

R = ρ × l =1 × l R =1 × l
S σ S µ S

Loi d’Ohm : Loi de Hopkinson :


U = R × I F = N × I = R × ΦC

Si on remplace U par F = N × I, R par R et I par ΦC, on remarque que la loi de


Hopkinson pour un circuit magnétique est analogue à la loi d’Ohm pour un
circuit électrique. La loi de Hopkinson est aussi appelée loi d’Ohm magnétique.
C’est cette analogie qui fait que ΦC est appelée flux circulant.
L’association en série ou en parallèle de réluctances est soumise aux mêmes
règles que celles qui régissent l’association en série ou en parallèle de résistances
électriques. Ici (figure 6.13), nous avons un circuit composé de deux sections en
série. On en déduira R = Rfer + Rair, soit :

1 l 1 l 1  l fer 
R = × fer + × air ⇒ R = ×  + lair 
µ 0µ r S µ 0 S µ 0S  µr 
On remarquera que 1 mm d’air représente la même réluctance que 80 cm de fer si
la perméabilité relative du fer est de 800. C’est, entre autres, pour cette raison que
l’on s’efforce d’avoir des entrefers les plus petits possible.
(b) On utilise la loi d’Hopkinson :
F = N × I = R × ΦC
Chapitre 6 – Notions fondamentales de l’électricité 323

Le flux créé dépend du courant et non pas de la tension. En toute rigueur, une tête
magnétique doit donc être attaquée en courant pour transcrire un signal sur une
bande magnétique.
 N ×I  N
2
Φ
On en tire : T = N × Φ C = N ×   = × I = L× I .
 R  R
(c) On peut en déduire la relation entre la réluctance R et la self L (coefficient
d’auto-induction) d’un dispositif :
N2
L
R
(d) On peut en déduire le champ magnétique B dans l’entrefer :
ΦC L × I N × I
B= = =
S N ×S R ×S
✦ Loi de Faraday-Lenz

✧ Énoncé
Comme nous l’avons déjà vu, un bobinage embrasse un certain flux appelé flux
total ΦT et valant N fois le flux circulant ΦC, où N est le nombre de spires du bobi-
nage.
Si le flux embrassé ΦT est constant, il n’y a aucune réaction électrique du bobi-
nage.
La f.é.m. induite à ses bornes est nulle en supposant nulle la résistance de bobi-
nage.
Si ΦT varie, alors le bobinage essaie de s’opposer à cette variation de flux. Si ΦT
diminue, il essaie de créer un flux additionnel de même sens que ΦT. Si ΦT
augmente, il essaie de créer un flux additionnel de sens contraire à ΦT.
Le bobinage essaie de créer ce flux additionnel en produisant une f.é.m. e(t) à ses
bornes. Si le circuit électrique le permet, cette f.é.m. crée un courant qui fournira
© Dunod – Toute reproduction non autorisée est un délit.

le flux magnétique additionnel désiré par la bobine.


Cette f.é.m. est proportionnelle à la vitesse de variation du flux total (figure 6.14).
Un circuit fermé plongé dans un flux magnétique variable Φ(t) est le siège d’une
f.é.m. induite u(t) donnée par la relation :
dΦ (t )
u (t ) = − T
dt
324 Le livre des techniques du son

Figure 6.14 — Loi de Lenz, cas d’une augmentation du courant.

La loi de Faraday dit que la f.é.m. induite dans un bobinage fermé placé dans un
champ magnétique, appelé champ magnétique inducteur, est proportionnelle à la
variation au cours du temps du flux du champ magnétique qui entre dans le circuit.
La f.é.m. induite fait apparaître dans le circuit un courant induit. Le courant
induit crée son propre champ magnétique, appelé champ magnétique induit. Le
flux du champ magnétique induit s’oppose à la variation du flux du champ magné-
tique inducteur : c’est la loi de Lenz.
Alors que la loi de Faraday permet de déterminer la valeur de la f.é.m. induite, la
loi de Lenz, qui correspond au signe (–), permet de déterminer sa polarité.

✧ Auto-induction
Tout circuit, et en particulier un bobinage, présente une self L (coefficient d’auto-
induction).
Comme nous l’avons déjà vu, le flux magnétique total est donné par la relation :
ΦT(t) = L × i(t)
La self (coefficient d’auto-induction) est donc définie comme le coefficient de
proportionnalité entre le flux embrassé par le bobinage et le courant qui le
traverse. Si le courant est variable, alors le flux est également variable. Ainsi, pour
un courant quelconque : ΦT(t) = L × i(t).
Un raisonnement qualitatif, comme au paragraphe précédent (figure 6.14),
montre que si le bobinage est repéré en convention récepteur, une augmenta-
Chapitre 6 – Notions fondamentales de l’électricité 325

tion de courant crée une tension positive. D’où la loi tension/courant pour
une self :
d i (t )
u (t ) = L ×
dt
Si le courant i est alternatif sinusoïdal d’intensité efficace I de pulsation ω = 2πf et
de fréquence f :

i ( t ) = I × 2 × sin ( ωt )

Φ ( t ) = L × i ( t ) = L × I × 2 × sin ( ωt )
d i (t )
u (t ) = L × = L × I × 2 × ω × cos ( ω t )
dt
 π
u ( t ) = L × ω× I × 2 × sin  ωt + 
 2
u est une tension sinusoïdale de valeur efficace U = Lω × I. On notera que le
module de l’impédance d’une self est ZL = Lω et que le courant i(t) est en retard de

phase de par rapport à la tension u(t).
2
✧ Cellules magnétiques
Ici aussi, on a affaire à un circuit magnétique muni d’un bobinage. Le circuit
magnétique peut être un aimant (cellule de platine de tourne-disque, par
exemple) ou non (tête de magnétoscope, par exemple). La bobine peut être fixe
(tête de magnétophone, par exemple) ou mobile (microphone, par exemple).
Quel que soit le système technologique employé, le but est toujours de faire varier
le flux embrassé par le solénoïde (figure 6.15).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 6.15 — Principe de la lecture magnétique.

Si le bobinage est soumis à un flux variable, la loi de Lenz montre qu’il y aura
création d’une tension à ses bornes.
326 Le livre des techniques du son

Si ΦT ( t ) = ΦT × 2 × sin ( ωt )

dΦT (t )
alors u (t ) = = ΦT × 2 × ω × cos ( ω t )
dt
 π
u ( t ) = ΦT × ω× 2 × sin  ωt + 
 2

 π
u ( t ) = ΦT × 2 × π × f × 2 × sin  ωt + 
 2

On notera que la valeur efficace de la tension dépend de la fréquence (graves très



faibles et aiguës très fortes) et que la tension u(t) est déphasée de par rapport
2
au flux ΦT(t).
✧ Transformateur
Il est constitué d’un circuit magnétique composé de deux bobinages. Le bobinage
servant d’entrée (situé du côté de la source) est appelé bobinage primaire. Le bobi-
nage servant de sortie (situé du côté de la charge) est appelé bobinage secondaire.
Le transformateur est un composant réversible. Les notions de primaire et de
secondaire sont donc relatives à l’utilisation (au branchement) du transforma-
teur plutôt qu’à des considérations technologiques.
Le bobinage primaire, soumis à un courant variable, crée un flux variable dans le
circuit magnétique. Ce flux variable est transporté via le circuit magnétique au
niveau du bobinage secondaire. Le bobinage secondaire, soumis à un flux
variable, est le siège d’une tension variable.
La bobine primaire a N1 spires et le bobinage secondaire a N2 spires. On définit le
N
rapport de transformation m par la relation : m  2
U2 N1
Il transforme les tensions : m
U1
I 1
Il transforme les courants : 2 
I1 m
Il ne transforme pas les puissances (lorsqu’il est considéré parfait, c’est-à-dire
sans pertes) :
P2 U 2 × I 2 U 2 I 2 1
= = × = m× = 1
P1 U 1 × I1 U 1 I1 m
Chapitre 6 – Notions fondamentales de l’électricité 327

Il transforme aussi les impédances :


U2
2
Z2 I2 U 2 1 1  N2 
= = × = m× = m×m = m =  
2

Z1 U 1 U 1 I 2 1  N1 
I1 I1 m
C’est pour cela que les transformateurs lignes (ou écran) sont libellés en rapport
d’impédances (figure 6.16).

U1 U2 mU1 U2

Figure 6.16 — Effet d’un transformateur : transformation des impédances.

Soit un transformateur repéré 600 Ω/1,2 kΩ, il a un rapport de transformation :

1200
m  2  1, 4
600
Si le primaire de ce transformateur est alimenté par un microphone d’impédance
interne 200 Ω et délivrant une tension de 2 mV, le circuit électronique, placé après
le secondaire du transformateur, « voit » un microphone d’impédance externe
400 Ω et délivrant une tension de 2,8 mV.

✧ Fondements de l’électronique de puissance


L’alimentation des systèmes électroacoustiques portatifs a fortement évolué ces
© Dunod – Toute reproduction non autorisée est un délit.

dernières années. Les systèmes conventionnels présentaient l’inconvénient


majeur d’avoir de faibles rendements. Or, le stockage de l’énergie électrique (voir
piles et accumulateurs) n’est pas encore suffisamment performant pour pouvoir
« gaspiller » l’énergie alors que les besoins en performance des matériels auto-
nomes ne cessent d’augmenter. De même, la taille et le poids des dispositifs
magnétiques peuvent être un obstacle.

Interrupteur électronique
Dans l’exemple suivant, la source d’énergie U1 alimente la charge via un interrup-
teur K (figure 6.17). Pour calculer la puissance perdue au niveau de l’interrupteur,
328 Le livre des techniques du son

on calcule la puissance du « dipôle interrupteur ». Or, il ne peut avoir que deux


états : ouvert (bloqué) ou fermé (passant).
• État passant :
PK = UK × IK = 0 car UK = 0
• État bloqué :
PK = UK × IK = 0 car IK = 0

IK K

UK
U2
U1

Figure 6.17 — Dipôle interrupteur.

En faisant le bilan de puissance, il est facile de voir que la puissance perdue est
toujours nulle (théoriquement). Ainsi, la totalité de la puissance fournie par la
source est transmise à la charge, quasiment sans pertes, et le rendement est très
proche de l’unité. Ceci est très appréciable lorsque la source est une pile ou une
batterie électrique.
On appelle fréquence de hachage la cadence d’ouverture et de fermeture de l’inter-
rupteur. L’interrupteur étant électronique, par exemple un transistor, il n’y a pas
de limitations hautes pour la fréquence de hachage autres que celles imposées par
le transistor. Ainsi, ces fréquences sont couramment de l’ordre de quelques
dizaines de kilohertz (10 kHz-50 kHz typiquement).

Inductance magnétisante
Le montage précédent présente l’inconvénient majeur d’imposer au récepteur
une tension hachée qui est généralement incompatible avec le fonctionnement
des modules électroniques. On introduit dans le système une inductance afin de
supporter ce hachage et un condensateur pour lisser la tension. Il existe un
ensemble de façons de faire et on se reportera à un ouvrage spécialisé pour plus
d’informations [9]. L’exemple suivant est fondé sur une structure de hacheur
série (convertisseur Buck en anglais, figure 6.18) :
Chapitre 6 – Notions fondamentales de l’électricité 329

U1 C U2

Figure 6.18 — Convertisseur Buck ou hacheur série.

La valeur de la capacité du condensateur est suffisamment importante pour


pouvoir considérer que la tension U2 aux bornes du récepteur est constante
pendant une période de hachage. Il s’ensuit que la tension aux bornes de l’induc-
tance s’écrit :
dI
• Interrupteur fermé : U L = U 1 − U 2 = L × L = cste car la diode est bloquée.
dt
dI
• Interrupteur ouvert : U L = −U 2 = L × L = cste car la diode est passante.
dt
Le courant dans l’inductance aura la forme de droites de pente U 1  U 2 quand
L
K est passant et U 2 lorsque K est bloqué. La figure 6.18 montre l’allure du
L
courant IL où  est le rapport cyclique de la commande (voir le chronogramme de
la figure 6.18).

On montre que U2 =  × U1. On peut donc régler la tension aux bornes du récep-
teur avec un rendement excellent.
On montre également que l’ondulation du courant vaut :
U1 −U 2 U U1
∆I L = × α ×T = α × (1 − α ) × 1 ≤
L L× f 4× L× f
© Dunod – Toute reproduction non autorisée est un délit.

où f est la fréquence de hachage.


C’est cette dernière considération qui fait l’intérêt premier de l’électronique de
puissance. En effet, pour une ondulation de courant donnée et une source
donnée, il faut que le produit L × f soit constant. Ainsi, plus la fréquence est
grande, plus l’inductance nécessaire est petite. Quand on considère que l’encom-
brement d’un transformateur diminue comme son inductance magnétisante, le
poids comme le cube de l’encombrement, on comprend l’intérêt industriel de ces
dispositifs.
330 Le livre des techniques du son

✦ Loi de Laplace

✧ Action sur un conducteur


Un conducteur de longueur l, parcouru par un courant électrique d’intensité I et
placé dans un champ magnétique B, est soumis à une force électromagnétique F,
dite force de Laplace, qui peut provoquer son déplacement. Les caractéristiques
de la force de Laplace sont les suivantes :
• son point d’application : c’est le point du tronçon de conducteur soumis au
champ magnétique ;
• la direction : elle est perpendiculaire au plan défini par le conducteur et le
vecteur champ magnétique ;
• le sens : il est donné par la règle des trois doigts de la main droite
(figure 6.19) : on forme un trièdre direct (I × l, B, F) ; l’index est orienté
dans le sens du courant I (index → sens de l’intensité de courant), le majeur
est dirigé dans le sens du champ magnétique B (majeur → sens du champ
magnétique) et le pouce indique le sens de la force F (pouce → sens de la
force de Laplace qui pousse : action) ;
• la norme : elle est donnée par la relation : F = I × l × B × sin
F est la force électromagnétique en newtons, I l’intensité du courant en ampères,
l la longueur de conducteur plongé dans le champ magnétique en mètres, B le
champ magnétique en teslas, et  l’angle entre la direction du courant dans le
conducteur (I × l) et la direction du champ magnétique B.

Figure 6.19 — Loi de Laplace.

La force de Laplace est à la base du fonctionnement des haut-parleurs à bobine


mobile et des moteurs.
Chapitre 6 – Notions fondamentales de l’électricité 331

✧ Moteur à courant continu


Une machine à courant continu est un convertisseur électromécanique réver-
sible. Elle peut fonctionner soit en moteur, par la mise en rotation d’un conduc-
teur placé dans un champ magnétique et parcouru par un courant continu, soit en
génératrice (dynamo), par apparition d’une force contre-électromotrice aux
bornes d’un conducteur placé dans un champ magnétique et mis en rotation. Une
machine à courant continu est formée d’un inducteur, d’un induit, d’un collecteur
et de balais (figure 6.20).

Figure 6.20 — Principe et constitution de la machine à courant continu.

L’inducteur, qui correspond à la partie fixe de la machine, constitue le stator. Il a


pour fonction de créer un champ magnétique fixe appelé champ inducteur ou
champ statorique. Le champ magnétique statorique est produit soit par un aimant
permanent (la machine n’a qu’un seul circuit électrique extérieur, celui de l’in-
duit), soit par un électro-aimant (la machine a deux circuits électriques exté-
rieurs, celui de l’inducteur et l’induit). Un électro-aimant n’est rien d’autre qu’une
© Dunod – Toute reproduction non autorisée est un délit.

bobine, comportant un certain nombre de spires, à l’intérieur de laquelle se


trouve le noyau constitué d’un barreau de matériau ferromagnétique, appelé
circuit magnétique. Lorsque la bobine est traversée par un courant électrique, un
champ magnétique se crée ; ce champ magnétique est canalisé par le circuit
magnétique ; les caractéristiques de ce champ magnétique (intensité, sens, etc.)
dépendent de l’intensité et du sens du courant électrique, du nombre de spires de
la bobine et des caractéristiques du circuit magnétique. Placés à l’intérieur, les
enroulements de cet électro-aimant doivent alors être alimentés par un courant
continu, appelé courant inducteur ou courant d’excitation de la machine. L’induit,
qui correspond à la partie tournante de la machine, constitue le rotor. Il est
332 Le livre des techniques du son

constitué d’un cylindre, situé entre les pièces polaires de l’inducteur, qui porte le
long de ses génératrices N conducteurs logés dans N rainures appelées encoches.
Les N conducteurs sont reliés deux à deux pour former N/2 spires. Les deux
conducteurs (C1 et C2) de chaque spire sont disposés de telle sorte qu’ils soient
droits, longitudinaux et diamétralement opposés. Les deux extrémités de chaque
spire sont soudées à deux lames conductrices diamétralement opposées du
collecteur (L1 et L2). Les deux lames conductrices tournantes (L1 et L2) du collec-
teur sont raccordées au circuit électrique extérieur de l’induit au moyen de deux
contacts portés par le stator et diamétralement opposés appelés charbons ou
balais (B1 et B2). Les deux balais fixes (B1 et B2) établissent deux contacts glissants
avec les deux lames conductrices tournantes (L1 et L2) du collecteur grâce à un
système à ressort. En réalité, le collecteur d’une machine à courant continu dont
l’induit est formé de N conducteurs est composé d’un cylindre solidaire de l’arbre
de rotation de la machine qui comporte à sa périphérie une couronne N de lames
conductrices séparées les unes des autres par des lames isolantes.
En fonctionnement moteur, les spires de l’induit génèrent un champ magnétique
appelé champ induit ou champ rotorique ; pour cela, elles sont alimentées, grâce
au système balais-collecteur, par un courant continu, appelé courant d’alimenta-
tion du moteur provenant de son circuit électrique extérieur. Les deux conduc-
teurs actifs (C1 et C2) de chaque spire, placés dans le champ magnétique statorique
et parcourus par un courant continu de même intensité mais dans deux sens
opposés, sont soumis à deux forces électromagnétiques de Laplace (F1 et F2) de
même intensité mais de sens opposés. Ces deux forces forment un couple de
forces qui entraîne la rotation de la spire et par conséquent celle de l’induit.
Lorsque les deux lames conductrices tournantes (L1 et L2) du collecteur (C), qui
relient les deux conducteurs actifs (C1 et C2) de la spire aux deux balais (B1 et B2),
traversent la ligne neutre, la lame conductrice L1 se trouve en contact avec le
balais B2 et la lame conductrice L2 se trouve en contact avec le balais B1 ; le sens de
circulation du courant continu dans les deux conducteurs actifs (C1 et C2) s’in-
verse ; le sens des forces auxquelles ils sont soumis s’inverse en même temps. La
rotation de la spire et par conséquent celle de l’induit se poursuit. Il en est de
même pour tous les ensembles de conducteurs diamétralement opposés qui
constituent l’induit de la machine à courant continu. La somme de tous les
moments de ces couples de forces constitue le moment du couple électromagné-
tique.
Quand on fait circuler un courant électrique dans les conducteurs rotoriques,
tout se passe comme s’ils étaient soumis à des forces de Laplace (le phénomène
physique est différent, on se reportera à un ouvrage spécialisé pour une descrip-
tion exacte du phénomène). L’ensemble de ces forces tend à mettre le rotor en
mouvement et le couple est de la forme :
Chapitre 6 – Notions fondamentales de l’électricité 333

T = K × Φp × I
avec :
• T : le moment du couple électromagnétique en newtons × mètres ;
• K : la constante qui dépend de la construction de la machine ;
• Φp : le flux sous un pôle en webers ;
• I : le courant dans l’induit de la machine en ampères.
À flux Φp constant, le moment du couple électromagnétique T est ajustable par un
contrôle du courant dans l’induit I, opération aisée avec les hacheurs ou les
redresseurs.
Par ailleurs, dès que l’induit se met à tourner un autre phénomène se manifeste :
c’est l’effet de fonctionnement en génératrice (dynamo) d’une machine à courant
continu. On considère une spire de l’induit, constituée de deux conducteurs
diamétralement opposés, mise en rotation dans une région où règne le champ
magnétique statorique. Elle sera soumise d’après la loi de Faraday-Lenz à une
force contre-électromotrice u = –dΦ(t)/dt qui va tenter de s’opposer au mouve-
ment de rotation de la spire. La tension induite est alternative. On démontre qu’en
connectant les deux extrémités de la spire à deux lames conductrices du collec-
teur, on obtient aux bornes des deux balais avec lesquels elles sont en contact une
tension pratiquement constante dont la valeur moyenne est proportionnelle à la
vitesse de rotation Ω de la spire et au flux Φp créé par l’inducteur sous un pôle.
Le moteur à courant continu, quand il tourne, crée une force contre-électromotrice
E qui s’oppose à la tension qu’on lui applique. Cette f.c.é.m. est de la forme :
U = K × Ω × Φp
avec :
• U : la force contre-électromotrice en volts.
• K : la constante qui dépend de la construction de la machine (la même que
© Dunod – Toute reproduction non autorisée est un délit.

pour le couple).
• Ω : la vitesse de rotation en radians par seconde (dite aussi pulsation de
rotation).
• Φp : le flux sous un pôle en webers.
En résumé :
• Doubler le courant (et non pas la tension) revient à doubler le couple d’un
moteur.
334 Le livre des techniques du son

• Doubler la tension (et non pas le courant) revient à doubler la vitesse de


rotation de la machine.
Il y a un cas particulier très intéressant : si le flux est constant et si le courant dans
l’induit est nul, alors la tension U aux bornes de la dynamo sera :
U = K × Ω × Φp = k × Ω
2πn
Si n est la vitesse de rotation en tours par minute, on a Ω = et il vient
60 60
U = k × × n = k′ × n .

La tension sera proportionnelle à la vitesse de rotation. On aura ainsi fabriqué un
capteur de vitesse : la dynamo tachymétrique. Ceci peut être utilisé comme
capteur tachymétrique dans des dispositifs d’asservissement de vitesse.

✧ Machine synchrone
Une machine synchrone est un convertisseur électromécanique réversible. Elle
peut transformer l’énergie électrique qu’elle reçoit d’un réseau en énergie méca-
nique ; dans ce cas on l’appelle moteur synchrone. Mais elle peut aussi convertir
l’énergie mécanique fournie par une turbine (centrale électrique) ou un moteur
Diesel (groupe électrogène) en énergie électrique ; dans ce cas, on la nomme
génératrice synchrone (alternateur). La machine synchrone est composée d’un
inducteur (celui qui crée le champ magnétique) et d’un induit (celui qui subit les
courants « induits ») séparés par un entrefer. En première approximation, une
machine synchrone a la structure inversée d’une machine à courant continu.
L’inducteur est la partie tournante de la machine synchrone : c’est le rotor. L’in-
duit est la partie statique de la machine synchrone : c’est le stator. Une machine
synchrone présente p paires de pôles au rotor ainsi qu’au stator. En effet, comme
un enroulement se comporte comme un aimant et comme un aimant possède
deux pôles, un pôle Nord et un pôle Sud, c’est-à-dire une paire de pôles (p = 1), on
caractérise le bobinage du stator et du rotor d’une machine synchrone non par
son nombre de pôles mais par son nombre p de paires de pôles : si p = 1 on aura 2
pôles, si p = 2 on aura 4 pôles, etc.
Le stator d’une machine synchrone triphasée comporte trois enroulements iden-
tiques décalés de 120° (2π/3) les uns par rapport aux autres. L’ensemble de ces
enroulements constitue le bobinage statorique. Les conducteurs de ces enroule-
ments sont logés dans des encoches situées à la périphérie du stator. Chacun des
trois enroulements du stator est constitué d’une ou de plusieurs bobines dont
l’organisation définit le nombre de paires de pôles. Lorsque les enroulements du
stator sont alimentés par  un réseau triphasé, ils créent en son centre un champ

magnétique tournant BS , nommé champ statorique, à une vitesse de rotation
Chapitre 6 – Notions fondamentales de l’électricité 335

appelée vitesse de synchronisme. Le réseau triphasé est constitué de trois courants


sinusoïdaux (tensions sinusoïdales) de même valeur efficace (230 V en France),
de même fréquence (50 Hz en France) et régulièrement déphasés de 120° (2π/3).
La vitesse de synchronisme nS (tr/s) est égale au rapport de la fréquence f (Hz) du
réseau triphasé d’alimentation par le nombre p de paires de pôles par phase :
nS = f/p. Ainsi, la vitesse de synchronisme d’une machine bipolaire (p = 1)
alimentée en triphasé (f = 50 Hz) est nS = 50/1 tr/s = 50 tr/s = 3 000 tr/min. Pour
changer la vitesse de synchronisme nS, il faut agir soit sur la fréquence f du réseau
d’alimentation, soit sur le nombre p de paires de pôles de la machine. Or, comme
la fréquence du réseau est fixe (50 Hz en France), on ne peut faire varier la vitesse
de synchronisme nS qu’en modifiant le nombre p de paires de pôles. Le nombre de
paires de pôles par phase est fixé par le fabricant du moteur en fonction de la
vitesse de synchronisme souhaitée. Sur certaines machines, on peut mettre en
service ou non certaines paires de pôles et ainsi faire varier la vitesse de synchro-
nisme.
Le rotor d’une machine synchrone se trouve en son centre et est soumis au champ
tournant créé par son stator. Solidarisé à l’arbre de transmission, le rotor est
constitué soit d’un aimant permanent, soit d’un électro-aimant alimenté par un
courant continu appelé courant inducteur ou courant d’excitation. Le courant
d’excitation est fourni soit par une alimentation continue indépendante, soit par
une source tournant avec la machine synchrone elle-même : un petit alternateur
à induit tournant fournit un courant alternatif qui, après redressement et filtrage,
alimente le rotor de la machine synchrone. Parcouru par un  courant continu, le
rotor crée un champ magnétique appelé champ rotorique BR .
Une machine synchrone est un dispositif électromécanique dont la vitesse de
rotation de l’arbre de transmission est égale à la vitesse de rotation du champ
tournant.
Le principe de cette machine est un aimant tournant dans un champ magnétique.
Le rotor est un aimant permanent, pour les petits moteurs, ou un électro-aimant
© Dunod – Toute reproduction non autorisée est un délit.

pour les plus gros ; c’est l’inducteur. Le stator, l’induit, est constitué de bobinages
parcourus par des courants variables, engendrant un champ magnétique dont on
peut faire varier la direction (figure 6.21). C’est un champ tournant ou glissant
(selon les auteurs).


Le stator et le rotor créent respectivement
 un champ magnétique statorique BS
et un champ magnétique rotorique BR . Un couple mécanique sera créé et sera de
la forme :
C = k × BR × Bs × sin
336 Le livre des techniques du son

Figure 6.21 — Principe des machines alternatives synchrones.

On aura le couple maximal pour a = cste =   et un couple nul pour  = cste = 0.
2
Il est donc clair que le système évoluera de telle sorte que a soit constant. C’est
donc la fréquence des courants statoriques qui fixe la vitesse de rotation de la
machine et non pas comme pour le moteur à courant continu, la tension.
Les moteurs synchrones sont utilisés à chaque fois que l’on veut une vitesse parfai-
tement constante et indépendante des conditions extérieures de fonctionnement.
Ces moteurs sont pilotés par des oscillateurs dont on peut ajuster la fréquence en
fonction des besoins.
On les trouve comme moteur de cabestan de magnétophone et comme moteur
d’entraînement en particulier dans les lecteurs optiques (CD par exemple) ; ce
type de moteur a largement pris le pas sur le moteur à courant continu.
La figure 6.22 montre la réalisation d’un lecteur de disque où la machine est extra-
plate. Le rotor est constitué d’un anneau de ferrite constituant l’aimant perma-
nent. Le stator est constitué d’un ensemble de bobines. L’oscillateur crée une
séquence permettant de faire glisser l’aimantation de pôle en pôle, que le pôle de
ferrite du rotor suivra. Un autre avantage de ce genre de réalisation est le fait que
le rotor est large, constituant ainsi un volant d’inertie suffisant pour lisser les
ondulations de vitesse et obtenir un mouvement suffisamment uniforme.
Chapitre 6 – Notions fondamentales de l’électricité 337

Figure 6.22 — Moteur d’entraînement de disque (moteur Vernier).

✧ Autres machines à courants alternatifs


Comme pour la machine synchrone, on crée un champ statorique tournant. Si on
fait tourner ce champ par à-coups, un rotor constitué d’un aimant permanent
suivra le champ statorique et tournera lui aussi par à-coups. C’est le moteur
pas-à-pas.
Une autre machine alternative très importante est le moteur asynchrone. À la
différence de la machine synchrone, ou du moteur pas-à-pas, le rotor n’est pas un
aimant permanent. Il est constitué de bobinages dans lesquels peuvent circuler
des courants alternatifs. Le champ magnétique créé par le rotor tournera donc
par rapport au rotor. Or, le champ rotorique accompagne le champ statorique, ils
tournent donc à la même vitesse. La question devient : quelle est la vitesse méca-
nique du rotor ?
Soit Ωs, la vitesse du champ statorique par rapport au stator (dite vitesse de
synchronisme), Ωr, la vitesse du champ rotorique par rapport au rotor (dite vitesse
de glissement), et Ω, la vitesse mécanique du rotor par rapport au stator. On peut
écrire (additivité des vitesses) :
Ωs = Ω + Ωr
On voit que la vitesse de rotation de la machine asynchrone est plus petite que la
© Dunod – Toute reproduction non autorisée est un délit.

vitesse de synchronisme.
On peut remarquer que si on fait circuler un courant continu dans les bobinages
rotoriques d’un moteur asynchrone, celui-ci devient un moteur synchrone. Quand
un moteur peut démarrer comme un asynchrone et ensuite annuler sa fréquence
de courants rotoriques, on a affaire à un moteur asynchrone synchronisé.
338 Le livre des techniques du son

6.1.5 Origines physiques du bruit


✦ Nature des bruits de fond
Tout signal indésirable est appelé bruit. Sous ce terme général, on entend les effets
dus à plusieurs causes distinctes. On peut les classer comme suit.
Les bruits d’influence :
• les vibrations mécaniques et acoustiques ;
• le bruit propre de l’appareil de mesure ;
• le bruit propre des sources connectées à l’entrée de l’appareil considéré ;
• les perturbations atmosphériques ;
• les perturbations industrielles.
Les défauts de construction :
• les défauts d’isolement ;
• les bruits de piste de potentiomètres défectueux ;
• les composants défectueux ou usagés (condensateurs, diodes, etc.) ;
• les contacts électriques mal réalisés (câblages, soudures, etc.) ;
• les pièces mécaniques en mouvement dont le potentiel électrique n’est pas
défini.
Les bruits intrinsèques :
• le souffle engendré dans les composants sous l’effet de la température ;
• les bruits apportés par les fluctuations de courant ;
• les bruits de scintillation.

✦ Bruits d’influence
On entend par bruits d’influence tous les signaux indésirables qui sont transmis
par d’autres appareils. Leur mode de transmission permet un classement grossier
de leur nature et des remèdes à apporter pour les combattre.
Les vibrations mécaniques seront combattues de préférence à leur source d’émis-
sion par des systèmes anti-vibratiles (socle de groupe électrogène, dalle flottante
de studio pour combattre les vibrations du bâtiment, etc.).
Les vibrations acoustiques seront combattues, quand cela est nécessaire, au
niveau de l’appareil à isoler.
Chapitre 6 – Notions fondamentales de l’électricité 339

Les parasites atmosphériques et industriels sont d’origine électromagnétique en


général. Ils peuvent être considérablement réduits en utilisant des blindages effi-
caces.
Au niveau des câbles de transmission, on préférera les liaisons analogiques symé-
triques ou numériques.
Les bruits parasites industriels transmis par le secteur (ronronnements, etc.) sont
combattus efficacement en découplant correctement les alimentations des
circuits électroniques et au besoin en éloignant les blocs secteur des appareils.
Par contre, on ne peut pas combattre les bruits transmis par les sources. La seule
méthode consiste à avoir, tout au long de la chaîne sonore, les appareils les plus
performants possible.

✦ Défauts de construction
Ils peuvent être réduits au strict minimum par le choix d’organes de première
qualité et par un contrôle mécanique et électrique méticuleux à la fabrication.
Une amplification élevée exagère l’influence des défauts localisés dans les circuits
d’entrée qui doivent être étudiés et réalisés avec un soin tout particulier.
Actuellement, le problème est bien résolu au niveau de l’appareil. Il n’en est pas de
même pour une installation complète comme une machine ou un studio. Il n’est
pas toujours aisé de concilier les besoins techniques et les performances souhai-
tées. Un soin tout particulier devra être apporté à l’installation et à la disposition
des appareils ainsi qu’à leurs interconnexions.

✦ Bruits intrinsèques
Ils prennent naissance directement dans les circuits électriques constituant l’ap-
pareil.
On ne peut pas les combattre comme les précédents par de bons blindages ou de
bons découplages. Ceux-là sont inhérents à la structure des circuits et aux compo-
© Dunod – Toute reproduction non autorisée est un délit.

sants utilisés. Nous allons passer en revue ces principaux types de bruits.

✧ Bruit thermique
On le connaît également sous le nom de bruit de Johnson.
Les mouvements désordonnés des électrons qui se superposent de façon aléa-
toire à leur mouvement d’ensemble dans les conducteurs, créent des fluctuations
de forces électromotrices aux bornes des résistances.
340 Le livre des techniques du son

Par des raisonnements thermodynamiques ou microscopiques on peut montrer


que la valeur quadratique moyenne de la f.é.m. de bruit apparaissant aux bornes
d’une résistance R est proportionnelle à la bande de fréquence considérée Δf :
u2 = 4 × k × T × R × Δf   (formule de Nyquist)
avec :
• k = 1,38 × 10–23 J/K : la constante de Boltzmann.
• T : la température absolue en degrés Kelvin (K).
Ainsi pour T = 300 K (27 °C) :
R = 1 kΩ
Δf = 1 kHz
u = 1,2 × 10–8 V
Le bruit de Johnson est un bruit blanc car sa densité spectrale est indépendante
de la fréquence :
du2
= 4 × k ×T × R
df
On remarque que la puissance du bruit est d’autant plus forte que la température
est élevée et que la résistance est grande.

✧ Bruit rose
Il s’agit d’un bruit qui a été défini pour les besoins de la métrologie. Son origine
physique est le bruit de Flicker ou de scintillation. Il est provoqué par des modifi-
cations transitoires des états de diffusion de surface dans les transistors et les
circuits intégrés.
Physiologiquement, le bruit rose est régulier tandis que le bruit de Flicker est
perçu comme une suite de « plops ». Ce n’est pas un bruit blanc car sa densité
spectrale varie comme l’inverse de la fréquence (1/f). Ce bruit sera très fort aux
fréquences basses. Il est très difficile de réduire ce bruit si ce n’est par une connais-
sance très fine des phénomènes de surface dans les semi-conducteurs. Les progrès
technologiques de ces dernières années ont permis d’abaisser considérablement
le niveau de ce type de bruit.

✧ Bruit grenaille
Le bruit de Schottky est dû à la circulation des électrons sous forme de paquets
aléatoires en nombre et en position. Microscopiquement, la circulation des élec-
Chapitre 6 – Notions fondamentales de l’électricité 341

trons n’est pas régulière et uniforme. La chute aléatoire des gouttes de pluie sur un
toit donne une bonne image de cette circulation des électrons par paquets.
Le bruit de Johnson est représenté par une f.é.m. ; le bruit de Schottky sera repré-
senté par un courant. La valeur quadratique moyenne de ce courant sera donnée
par :
i2 = 2 × q × I0 × Δf
avec :
• q = 1,6 × 10–19 C : charge de l’électron ;
• I0 : courant moyen en ampères ;
• Δf : bande fréquence considérée.
Sa densité spectrale est constante. C’est donc un bruit blanc. Ce bruit est d’autant
plus fort que le courant est fort.

6.2 Fonctions de l’électronique

6.2.1 Électrocinétique
L’objet de l’électrocinétique est d’étudier les comportements des circuits élec-
triques et électroniques en courant continu et en courant alternatif.

✦ Convention récepteur et convention générateur


Un circuit électrique ou électronique est composé d’un ensemble de composants
connectés entre eux. Le composant le plus simple est le dipôle. Un dipôle est un
composant relié au reste du circuit dans lequel il est situé par deux bornes : une
borne d’entrée, par laquelle le courant entre, et une borne de sortie, par laquelle le
courant sort. Pour décrire complètement le fonctionnement d’un dipôle, il suffit
de connaître la relation qui existe entre le courant qui le traverse et la tension à ses
© Dunod – Toute reproduction non autorisée est un délit.

bornes.
L’électrocinétique manipule des grandeurs algébriques. Pour tenir compte du
signe, il est essentiel de faire attention à l’orientation des conducteurs. C’est cette
orientation qui permet de donner un signe correct aux courants et aux tensions.

✧ Convention récepteur (figure 6.23a)


En convention récepteur, le courant qui traverse un dipôle et la tension à ses
bornes ont des sens contraires.
342 Le livre des techniques du son

Si on a affaire à une résistance, la loi d’Ohm s’écrira : U = +R × I.

✧ Convention générateur (figure 6.23b)


En convention générateur, le courant qui traverse un dipôle et la tension à ses
bornes ont le même sens.
Si on a affaire à une résistance, la loi d’Ohm s’écrira : U = –R × I.

Figure 6.23 — (a) Convention récepteur ; (b) Convention générateur.

✦ Système d’unités
Les systèmes d’unités utilisés en électrocinétique reposent sur deux relations :
• la loi d’Ohm : U = R × I ;
• la loi de Joule : P = U × I.
Pour exprimer ces deux relations, on peut se servir :
• du système international : volt, ampère, ohm, watt ;
• du système dit « des électroniciens » : volt, milliampère, kilo-ohm,
milliwatt.
On peut remarquer que :
1 V = 1 Ω × 1 A = 1 kΩ × 1 mA
D’autre part, pour les puissances :
1 W = 1 V × 1 A et 1 mW = 1 V × 1 mA
Des remarques de même type sont vérifiées pour toutes les relations qui découlent
des deux précédentes. En particulier, pour une résistance :

U2
P =U × I = R× I 2 =
R
Chapitre 6 – Notions fondamentales de l’électricité 343

✦ Modèles de Thévenin et de Norton


Un dipôle peut aussi être défini comme étant un ensemble de composants
connectés entre eux (une boîte noire) possédant deux et seulement deux bornes :
une borne d’entrée et une borne de sortie. On dira qu’un tel dipôle est linéaire si et
seulement si la relation entre la tension U à ses bornes et le courant I qui le traverse
est de la forme U = a × I + b donc si la représentation graphique de sa caractéris-
tique tension-courant est une droite. On démontre que dans le cas où tous les
composants constituant le dipôle considéré sont linéaires alors le dipôle est
linéaire.
Une source de tension sera un dipôle tel que la tension à ses bornes est constante
quel que soit le courant qui le traverse. On parlera de générateur de Thévenin. Une
pile ou une alimentation stabilisée peuvent être un assez bon exemple.
Une source de courant sera un dipôle tel que le courant qui le traverse est constant
quelle que soit la tension à ses bornes. On parlera de générateur de Norton. À la
différence du précédent, il n’est pas aisé de trouver un exemple immédiat. Cepen-
dant, certains composants comme le transistor, en sont un bon exemple
(figure 6.24).
Tout circuit linéaire, pris entre deux quelconques de ses nœuds, peut être modé-
lisé soit par un générateur de Thévenin, soit par un générateur de Norton. De
plus, le modèle de Thévenin et le modèle de Norton sont équivalents si on respecte
la relation : U0 = R0 × I0 (figure 6.25).

U0
U0

Générateur de Thévenin U0
© Dunod – Toute reproduction non autorisée est un délit.

Générateur de Norton

Figure 6.24 — Générateurs de Thévenin et de Norton.


344 Le livre des techniques du son

La valeur du générateur de Thévenin (U0) est la tension à vide aux deux bornes du
dipôle. On l’obtient très simplement par un essai à vide (courant de sortie nul) du
dipôle. U0 est aussi appelé force électromotrice (f.é.m.) du dipôle. La valeur du
générateur de Norton (I0) est le courant de court-circuit du dipôle. On peut l’ob-
tenir par un essai en court-circuit quand celui-ci est possible.
La résistance R0, dite résistance de Thévenin ou encore résistance interne, pourra
U
se calculer à partir de la relation : R0  0 .
I0

U0

U0

U0

Figure 6.25 — Modélisation d’un dipôle.

On peut donc, à l’aide de ces deux modèles, donner des schémas équivalents simples
de dispositifs sans se préoccuper de leur structure interne. Ainsi, une batterie au
nickel-cadmium 9 V/4 Ω pourra être représentée indifféremment par un généra-
teur de Thévenin de 9 V mis en série avec une résistance de 4 Ω ou bien par un
générateur de Norton de 9/4 = 2,25 A mis en parallèle avec une résistance de 4 Ω.

✦ Théorèmes de l’électrocinétique
Dans ce paragraphe, nous nous bornerons à rappeler rapidement les principaux
théorèmes de l’électrocinétique. Nous conseillons au lecteur de se reporter à un
ouvrage plus spécialisé pour une description plus complète de ces théorèmes.
Chapitre 6 – Notions fondamentales de l’électricité 345

✧ Résistances. Association
• La résistance électrique est une grandeur arithmétique (toujours positive).
Elle est symbolisée par la lettre R. Son unité est l’ohm (Ω). L’inverse d’une
résistance s’appelle la conductance. Elle est symbolisée par la lettre G. Son
unité est le siemens (S).
• Des résistances associées en série sont toutes parcourues par le même
courant. La résistance RS équivalente à la mise en série de plusieurs résis-
tances R1, R2, R3… est la somme de ces résistances :
RS = R1 + R2 + R3 + …
• Des résistances associées en parallèle sont soumises à la même tension. La
résistance RP équivalente à la mise en parallèle de plusieurs résistances
R1, R2, R3… peut être déterminée à partir de la conductance équivalente
GP = 1/RP qui est égale à la somme des conductances G1 = 1/R1, G2 = 1/R2,
G3 = 1/R3…
GP = G1 + G2 + G3 + …
1/RP = 1/R1 + 1/R2 + 1/R3 + …
Les électroniciens ont défini, par commodité, l’opérateur ⊕ correspondant à la
mise en série de deux résistances et l’opérateur || correspondant à la mise en
parallèle de deux résistances :
RS = R1 ⊕ R2 = R1 + R2
R1 × R2
RP = R1 || R2 =
R1 + R2
Ces deux relations montrent que la valeur ohmique de la résistance équivalente à
deux résistances mises en série est voisine de celle qui a la valeur ohmique la plus
grande et que la valeur ohmique de la résistance équivalente à deux résistances
mises en parallèle est voisine de celle qui a la valeur ohmique la plus petite. Par
ailleurs, ces deux relations montrent que lorsque R1 = R2 = R, on aura : RS = 2 × R
© Dunod – Toute reproduction non autorisée est un délit.

et RP = R/2.

✧ Lois de Kirchhoff

Loi des nœuds


Dans un circuit, un nœud est un point de jonction entre plus de deux dipôles. La
loi des nœuds affirme qu’en courant continu et qu’en courant lentement variable
les charges ne peuvent pas s’accumuler en ces points. On dira que la somme
algébrique des courants entrants dans un nœud est égale à la somme algébrique
des courants sortants de ce nœud.
346 Le livre des techniques du son

Loi des branches


Une branche est une portion de circuit entre deux nœuds. La loi des branches dit
que la tension aux bornes d’une branche est égale à la somme algébrique des tensions
qui peuvent être relevées entre les bornes de cette branche. On comptera positive-
ment les tensions qui ont le même sens que la tension totale, et négativement les
autres. Il s’agit ici de la loi d’additivité des tensions : UAD = UAB + UBC + UCD.
Loi des mailles
Une maille est un ensemble de branches formant un circuit fermé. La loi des
mailles dit que la somme algébrique des tensions rencontrées le long d’une maille
parcourue dans un sens est nulle.

✧ Théorème de superposition
Le théorème de superposition permet de déterminer facilement le courant qui
circule dans une branche et/ou la tension à ses bornes lorsque ceux-ci font partie
d’un circuit linéaire comportant plusieurs sources de tension et/ou de courant.
Dans un circuit linéaire comportant plusieurs sources de tension et/ou de courant,
le courant circulant dans une branche est égal à la somme algébrique des courants
circulant dans celle-ci, calculés en éteignant successivement toutes les sources
sauf une.
Dans un circuit linéaire comportant plusieurs sources de tension et/ou de courant,
la tension aux bornes d’une branche est égale à la somme algébrique des tensions
aux bornes de celle-ci, calculées en éteignant successivement toutes les sources
sauf une. Pour éteindre une source, il suffit de la remplacer par sa résistance
interne :
• un court-circuit (un fil) pour une source de tension parfaite ;
• un circuit ouvert pour une source de courant parfaite.

✧ Théorème de Millman
Le théorème de Millman permet de déterminer facilement le potentiel d’un nœud
quelconque d’un circuit linéaire constitué de n branches parallèles comprenant
chacune un générateur de tension parfait Ei en série avec une résistance Ri ; les
potentiels des extrémités des branches sont tous définis par rapport au même
potentiel de référence. Le théorème de Millman dit que le potentiel au nœud
auquel aboutissent n branches est la moyenne des tensions de tous les dipôles
pondérées par les conductances respectives, le tout divisé par la somme des
conductances (figure 6.26). Lors de la mise en œuvre du théorème de Millman, il
ne faut pas oublier de faire figurer au dénominateur les conductances des branches
dont le potentiel de l’extrémité est nul.
Chapitre 6 – Notions fondamentales de l’électricité 347

U1 U2 Un

U1 U2 Un

Figure 6.26 — Théorème de Millman.

✦ Diviseur de tension
On le rencontre fréquemment dans les circuits électroniques, mais on le trouve
sous les noms les plus divers (atténuateur potentiométrique, fader, etc.).
Nous allons traiter ce dispositif courant avec plus de détails pour illustrer les
notions précédentes. Le schéma est celui de la figure 6.27.

Figure 6.27 — Diviseur de tension.

Le calcul se fait sans problème par les lois de Kirchhoff :


• U = U1 + U2 ;
© Dunod – Toute reproduction non autorisée est un délit.

• U1 = R1 × I ;
• U2 = R2 × I ;
• U = (R1 + R2) × I.

U2 R2 × I R2
= ⇒U2 = ×U
U ( R1 + R2 ) × I R1 + R2
348 Le livre des techniques du son

Le schéma théorique précédent est sans intérêt pratique, car en général, on


souhaite récupérer la tension U2. Pour ce faire, il faut dériver du courant entre R1 et
R2. Le calcul ci-dessus devient alors complètement faux dans son principe. Il faut
rechercher le modèle équivalent de Thévenin et/ou de Norton (figures 6.28a et b).

U0 U0

UT IT

Figure 6.28 — (a) Essai à vide. (b) Essai en court-circuit.

(a) Essai à vide : il s’agit du diviseur de tension comme précédemment.

R2
UT = ×U 0
R1 + R2

(b) Essai en court-circuit : quand une résistance est court-circuitée, tout le


courant passe dans le fil de court-circuit et aucun dans la résistance R2.

U0
IT 
R1
(c) Résistance de Thévenin : on l’obtiendra par la relation :

U T R1 × R2
RT = = = R1 || R2
IT R1 + R2

(d) D’où le schéma équivalent et la caractéristique du dipôle de la figure 6.29.


On voit que le résultat initial ne reste valable que si le courant dérivé est très petit.
Chapitre 6 – Notions fondamentales de l’électricité 349

RT

UT

UT U0
UT U0
IT
RT R1

Figure 6.29 — Schéma équivalent et sa caractéristique.

6.2.2 Courants alternatifs


Les courants et les tensions variables sont fondamentalement intéressants car ce
sont eux qui transportent les signaux et en particulier ceux représentant le son.

✦ Théorème de superposition
L’étude directe des signaux électriques de forme quelconque mais périodiques
est difficile, et parfois peu adaptée aux besoins que l’on a en électronique et en
métrologie. L’analyse de Fourier montre qu’un signal périodique quelconque
peut être considéré comme étant la superposition d’un grand nombre de signaux
sinusoïdaux purs de fréquences différentes (voir § 1.4.6). De plus, on sait que tous
ces signaux sinusoïdaux vont se propager pour leur propre compte (c’est-à-dire
indépendamment les uns des autres) dans un circuit électrique linéaire (voir les
modèles de Thévenin et de Norton). Ces considérations forment ce que l’on
appelle le théorème de superposition.
On étudiera donc les circuits pour les signaux sinusoïdaux, et ce, à toutes les
fréquences. On pourra ainsi prédire le comportement des circuits pour les graves,
pour les aiguës, etc.

✦ Signal sinusoïdal
L’expression d’un signal sinusoïdal u(t) est la forme :
© Dunod – Toute reproduction non autorisée est un délit.

u ( t ) = U × 2 × sin ( ωt + ϕ )
avec :
• u(t) : la valeur instantanée ou l’expression temporelle ;
• U  2  : l’amplitude ou la valeur crête ;
• U : la valeur efficace ;
• 2 U  2  : la valeur crête à crête ;
350 Le livre des techniques du son

• (ωt + φ) : la phase à l’instant t ;


• φ : la phase initiale, à ne pas confondre avec le déphasage ;
• ω = 2πf = 2π/T : la pulsation en radians par seconde ;
• f = ω/2π : la fréquence en hertz ;
• T = 1/f : la période en secondes.
Sa représentation en fonction du temps est donnée par la figure 6.30.

u(t)

Figure 6.30 — Signal sinusoïdal (correspondance entre phase et temps).

Le signal commence par augmenter, puis passe par un maximum pour une phase
de π/2, diminue jusqu’à s’annuler pour une phase de π, s’inverse et augmente dans
les valeurs négatives jusqu’à son maximum pour une phase de 3π/2, revient à
zéro, s’annule pour une phase de 2π, s’inverse et recommence.
Le décalage de phase entre le repérage en temps et le repérage en phase donne la
phase initiale du signal.
Pendant une période, la quantité de signal positif sera égale à la quantité de signal
négatif. La valeur moyenne sera nulle : on dira qu’il n’y a pas de composante
continue, soit, en anglais, qu’il n’y a pas d’offset. Étant donc toujours nulle, la
valeur moyenne est insuffisante pour décrire un signal sinusoïdal, on fait alors
appel à la valeur efficace aussi connue sous le nom de valeur RMS (Root Mean
Square, soit racine carrée de la valeur moyenne du carré) :

1 T 2
× u ( t ) × dt
T ∫0
U eff = U RMS =
Chapitre 6 – Notions fondamentales de l’électricité 351

On pourra démontrer facilement que la valeur efficace de


u ( t ) = U × 2 × sin ( ωt + ϕ ) est U.
Le signal électroacoustique doit avoir une valeur moyenne nulle. Si un matériel
introduit une composante continue (offset), elle devra être supprimée (voir
§ 6.2.3).

✦ Niveau électrique d’un signal


La valeur efficace est une image de la puissance électrique disponible dans un
signal sinusoïdal. Une tension u ( t ) = U × 2 × sin ( ωt + ϕ ) appliquée à une
résistance R fournira une puissance :
u2 ( t ) 2U 2 2
p (t ) = u (t ) × i (t ) = = sin ( ωt + ϕ )
R R
U2 U2
p (t ) = − cos ( 2ωt + 2ϕ )
R R
2
Il est clair que la valeur moyenne P de la puissance sera P  U , car la valeur
R
moyenne d’un cosinus est nulle. On notera que l’on retrouve la relation du § 6.2.1.
Ainsi le niveau d’un signal sera valablement représenté par sa valeur efficace.
Historiquement, le niveau d’un signal électroacoustique s’exprime en dBm, en
dBu, en dBv, en dBV.
Un signal de niveau 0 dBm correspond à un signal pouvant fournir une puissance
efficace Préf de 1 mW à une résistance Rréf de 600 Ω. À partir de cette définition, on
peut calculer la valeur efficace Uréf de la tension correspondant à ce niveau, appelée
tension de référence :
2
U réf
Préf = ⇒ U réf = Préf × Rréf = 0, 775 V
Rréf
© Dunod – Toute reproduction non autorisée est un délit.

Les valeurs 0 dBm, 1 mW, 600 Ω et par conséquent 0,775 V ont pour origine histo-
rique le fait qu’anciennement les signaux audiofréquences étaient presque exclusi-
vement acheminés par les lignes téléphoniques. Or, pour transférer le maximum de
puissance de la source à la charge, le réseau téléphonique commuté (RTC) travaillait
en adaptation d’impédance en puissance, c’est-à-dire que l’impédance de la source,
l’impédance caractéristique de la ligne téléphonique (à 800 Hz) et l’impédance de la
charge devaient avoir le même module : soit 600 Ω. Ainsi, un niveau de tension de
0 dBm correspond à la tension efficace, qui, appliquée aux bornes d’une résistance
600 Ω, engendre une puissance efficace de 1 mW, soit 0,775 V.
352 Le livre des techniques du son

L’amplitude Umax du signal de référence est :


U max = U réf × 2 = 0, 775 × 2 ≈ 1,1VV
L’amplitude crête à crête Upp du signal de référence est :
U pp = 2 ×U réf × 2 = 2 × 0, 775 × 2 2, 2 V
Un niveau de tension NdBm, exprimé en dBm, est calculé à partir de la relation :
NdBm = 20 log (U/Uréf)
dans laquelle U est la tension efficace et Uréf = 0,775 V.
Lorsque la source de tension n’est pas chargée (unloaded) ou lorsque l’impédance
de sa charge n’est pas déterminée (undeterminated), c’est-à-dire lorsque la notion
de puissance n’intervient pas, on emploie le dBu (en Europe) ou le dBv (aux États-
Unis, au Japon, etc.) pour indiquer son niveau de tension :
NdBu = NdBv = 20 log(U/Uréf) avec Uréf = 0,775 V
Bien que le dBm, le dBu et le dBv utilisent la même tension de référence, soit Uréf
= 0,775 V, on devrait employer en toute rigueur le dBu.
Le niveau nominal d’une ligne professionnel NdBu est de +4 dBu, ce qui corres-
pond à une tension efficace U de 1,23 V ; c’est celui d’une console de mixage, par
exemple :

 
( )
4
N dBu = +4= 20 × log  U U =
= 20 × log 0 ,775 soit U 0 ,775 ×10 20 ≈ 1,23V
 U réf 
L’amplitude correspondante sera de 1,74 V et sa valeur crête à crête de 3,48 V.
Nous citerons également une autre référence de niveau souvent utilisée en métro-
logie et en hi-fi grand public. La tension de référence est ici 1 V. Le niveau sera
alors exprimé en dBV. Il y aura 2,21 dB de décalage entre les NdBu et les NdBV.
Le niveau nominal d’une ligne grand public NdBV est le plus souvent de –10 dBV ;
il correspond à tension efficace U de 0,317 V ; c’est celui d’un lecteur de disque
compact (CD), par exemple.
Le réglage du niveau sur les appareils électroacoustiques se fait à l’aide d’un
VU-mètre. Ce vocable vient de l’anglais : Volume Unit meter. Cet appareil mesure
donc des unités de volume sonore et non pas des dBu ou des dBv. Le VU-mètre
doit être connecté en un point de la chaîne électroacoustique où l’on désire que le
niveau maximal soit celui d’une sinusoïde de niveau +12 dBu. Le VU-mètre, par
construction, indiquera zéro pour une tension sinusoïdale de niveau +4 dBu. Il y
aura un décalage de 4 dBu entre l’indication d’un VU-mètre et les dBu.
Chapitre 6 – Notions fondamentales de l’électricité 353

✦ Représentation d’un signal sinusoïdal


Pour décrire un signal sinusoïdal, on a besoin de connaître ses trois grandeurs
caractéristiques :
• son amplitude, sa valeur efficace, sa valeur de crête, ou sa valeur crête à
crête ;
• sa fréquence, sa pulsation ou sa période ;
• sa phase à l’origine.

✧ Représentation de Fresnel
C’est une méthode de représentation vectorielle de grandeurs sinusoïdales ayant
la même pulsation ; seules les amplitudes et les phases à l’origine sont différentes.
Elles seront représentées par des vecteurs tournants tracés dans un plan. Le plan
sera repéré en coordonnées polaires. Le plan est muni d’un sens de rotation pris
conventionnellement dans le sens trigonométrique. En général, on prend l’ori-
gine des temps à l’instant t = 0. Comme la fréquence est la même, la valeur effi-
cace et la phase initiale de chaque grandeur sinusoïdale seront représentées
respectivement par l’intensité et l’angle du vecteur de Fresnel correspondant.
Pour représenter un signal sinusoïdal :
(a) on porte la phase initiale c’est-à-dire à l’instant initial ; on obtient ainsi la
direction du vecteur représentant le signal ;
(b) le long de cette direction, on porte, à l’échelle, la valeur efficace du signal qui
est égale à l’intensité du vecteur qui le représente.
On trouvera un exemple de tracé en figure 6.31a.

U
© Dunod – Toute reproduction non autorisée est un délit.

U U

Figure 6.31 — (a) Construction de Fresnel. (b) Correspondance


(vecteur de Fresnel → nombre complexe).
354 Le livre des techniques du son

✧ Nombres complexes
Un nombre complexe peut être représenté par un vecteur dont l’intensité et l’angle
correspondent respectivement au module et à l’argument du nombre complexe.
C’est une généralisation de la représentation de Fresnel. Les nombres complexes
permettront une écriture algébrique faisant apparaître la fréquence. On consi-
dère qu’un signal sinusoïdal ne sera plus représenté par un vecteur, mais par un
point du plan : l’extrémité du vecteur de Fresnel, celui-ci ayant son origine
confondue avec celle du plan.
Il y a essentiellement deux méthodes pour repérer un point du plan (figure 6.31b).
Elles donneront deux écritures algébriques équivalentes : les nombres complexes.
Méthode « polaire » :
Pour obtenir le point U du plan :
(a)  tourner de l’angle φ ;
(b) porter U le long de cette direction ;
(c)  le point obtenu est U.
Avec la convention suivante :
• on indique une rotation géométrique de φ par une multiplication
algébrique par la quantité ejφ.
On pourra donc écrire : U = U × ejφ.
Méthode « cartésienne » :
Pour obtenir le point U du plan :
(a)  porter l’abscisse a (ou la partie réelle) le long de l’origine des phases ;
(b)  tourner de +90° ;
(c)  porter l’ordonnée b (ou la partie imaginaire) le long de cette direction ;
(d)  le point de coordonnées (a, b) est U.
Avec les conventions suivantes :
• on indique une rotation géométrique de +π/2 par une multiplication
algébrique par le symbole j ;
• l’axe correspondant à l’origine des phases sera l’axe des réels. On portera le
long de cet axe les nombres réels (ici a) ;
Chapitre 6 – Notions fondamentales de l’électricité 355

• l’axe perpendiculaire à l’origine des phases sera l’axe des imaginaires. On


portera le long de cet axe les nombres imaginaires (ici b).
On pourra donc écrire : U = a + j × b.
Examinons rapidement quelques propriétés des opérateurs « rotation » que nous
venons de définir :
• pour tourner de π, on tourne deux fois de π/2 : soit j × j = j2 = –1 ;
• on en déduit l’opérateur rotation de –π/2 : 1/j = –j ;
• pour généraliser, on définit l’opérateur rotation de l’angle j (relation
d’Euler) :
ejφ = cos(φ) + j × sin(φ)
• il s’ensuit qu’un nombre complexe a deux écritures :
U = a + j × b = U × ejφ = U × cos(φ) + j × U × sin(φ)
On aura les relations de correspondance :
a = U × cos(φ) et b = U × sin(φ)

U = a2 + b 2 et tg ( ϕ) = b a
✦ Relations tension/courant

✧ Résistances
La loi d’Ohm s’écrit : u(t) = R × i(t).
La valeur efficace de u(t) est R fois la valeur efficace de i(t). Soit U = R × I. La
valeur ohmique d’une résistance ne dépend pas de la fréquence.
La tension u(t) aux bornes d’une résistance R et le courant i(t) qui la traverse sont
en phase.
© Dunod – Toute reproduction non autorisée est un délit.

On écrit : U = R × I.

✧ Self
La loi d’Ohm s’écrit : u(t) = L × di(t)/(dt) (cf. loi de Lenz).
La valeur efficace de u(t) est Lω fois la valeur efficace de i(t). Soit U = Lω × I.
Le module de l’impédance d’une self est proportionnel à la fréquence. Elle se
comporte comme un interrupteur fermé (court-circuit) pour les signaux de
fréquences très basses et comme un interrupteur ouvert (circuit ouvert) pour les
356 Le livre des techniques du son

signaux de fréquences très hautes. On peut dire qu’une self oppose moins de
résistance au passage des basses fréquences et plus de résistance au passage des
hautes fréquences.
u(t) est en avance de phase de π/2 sur i(t).
On écrit : U = jωL × I.

✧ Condensateur
La loi d’Ohm s’écrit : i(t) = C × du/dt.
La valeur efficace de i(t) est Cω fois la valeur efficace de u(t). Soit U = I/Cω.
Le module de l’impédance d’un condensateur est inversement proportionnel à
la fréquence. Il se comporte comme un circuit ouvert pour les signaux de
fréquences très faibles et comme un court-circuit pour les signaux de fréquences
très hautes.
u(t) est en retard de phase de π/2 sur i(t).

On écrit : U = 1 × I .
j ωC
En résumé, on retiendra le diagramme de Fresnel de la figure 6.32.

Figure 6.32 — Lois d’Ohm pour l’alternatif.

Le coefficient de proportionnalité entre U et I est l’impédance complexe. Elle est


notée Z. Elle vaut R pour une résistance, jωL pour une self, 1/jωC pour un conden-
sateur.
Le module de Z est l’impédance. Elle est notée Z et se chiffre en ohms.
L’argument de Z donne le déphasage entre la tension et le courant. Il est noté φ.
On fera attention au fait que le déphasage est l’angle qui va de I vers U dans cet
ordre.
Chapitre 6 – Notions fondamentales de l’électricité 357

✦ Principaux théorèmes
Tous les théorèmes de l’électrocinétique sont valables si on exprime les tensions
et les courants par leur valeur complexe et si on remplace les résistances par les
impédances des dipôles.
Ainsi, par exemple, quand on réalise un diviseur de tension à l’aide d’une résis-
tance et d’un condensateur (figure 6.33).

U1 U2 U1
U2
jω C

Figure 6.33 — Filtre passe-bas du 1er ordre.

Un calcul rapide permet d’obtenir :


U2 1
Av = =
U 1 1 + jωRC
• Aux fréquences très basses, ω tend vers zéro. Le rapport U2/U1 tend vers
1/1 = 1. Le signal de sortie a une amplitude quasi égale à celle du signal
d’entrée.
• Aux fréquences très hautes, ω tend vers l’infini. Le rapport U2/U1 tend vers
1/RCω, soit 0. Le signal de sortie est donc quasi nul et ce, quelle que soit
l’amplitude du signal d’entrée.
C’est le comportement typique d’un filtre passe-bas. Notre exemple est un filtre
passe-bas du premier ordre, ayant une pente de –6 dB par octave, avec f = 1
C
comme fréquence de coupure. 2RC
© Dunod – Toute reproduction non autorisée est un délit.

6.2.3 Quadripôles
Jusqu’à présent, nous n’avons eu affaire qu’à des dipôles. Un quadripôle est un
ensemble de composants (boîte noire) possédant quatre bornes. Deux bornes
sont réservées pour l’entrée du signal, les deux autres sont réservées pour la sortie
de ce signal après traitement de celui-ci par le quadripôle. Nous nous limiterons,
dans cet ouvrage, aux quadripôles sans réaction de la sortie sur l’entrée. En
général, un appareil électronique peut être modélisé par ce type de quadripôle.
358 Le livre des techniques du son

✦ Schéma équivalent simplifié


C’est en général, sur le schéma de la figure 6.34 que l’on raisonne. À part quelques
exceptions (en particulier le transformateur), un appareil électronique quel-
conque peut se ramener à une combinaison de schémas de ce type. Ce modèle
permet l’étude globale de l’appareil. On peut donc, à la simple lecture de la fiche
technique d’un appareil, établir son schéma équivalent global, c’est-à-dire vu des
bornes de connexions de l’appareil.

Is

U
U Av0 . Ue Us
U Av0 U

Figure 6.34 — Schéma simplifié du quadripôle.

Les équations de fonctionnement sont :


U e = Ze × I e
U s = Av 0 ×U e − Z s × I s

Pour décrire un quadripôle, il faut donc chiffrer trois grandeurs :


• Ze est l’impédance d’entrée. En toute rigueur, Ze est une grandeur
complexe. Cependant, dans les documentations techniques, on donne
l’impédance d’entrée en kilo-ohms et pour la fréquence de 1 000 Hz. Ce
n’est donc qu’une indication. Mais on peut considérer, en général, que dans
la bande de fréquence d’utilisation de l’appareil, Ze est assimilable à une
résistance constante ;
• Z s est l’impédance de sortie. Pour cette grandeur, on peut faire les mêmes
remarques que ci-dessus ;
• Av 0 est l’amplification à vide du quadripôle. En effet, si I s est nul,
Us
Av 0  . Il ne faut pas confondre amplification et gain. D’autre part, il
Ue
s’agit d’une grandeur complexe dont le module et l’argument varient en
fonction de la fréquence. L’étude de ces variations donnera les caractéris-
tiques de filtrage du quadripôle.
Nous y reviendrons au § 6.2.4.
Chapitre 6 – Notions fondamentales de l’électricité 359

Pour illustrer notre propos, nous prendrons un préamplificateur professionnel.


Une lecture de la fiche technique permet de trouver :
Entrée TUNER, AUX 1 + 2, TAPE 1 + 2 : 150 mV / 100 kΩ ;
Sortie Prise DIN TAPE 2/OUT : 200 mV / RL = 10 kΩ.
RL désigne la résistance de charge (load : charge).
On en déduit l’impédance d’entrée : Ze = 100 kΩ.
On en déduit l’amplification Av0 = 200/150 = 1,33.
On en déduit un ordre de grandeur de l’impédance de sortie : Zs doit être infé-
rieure à l’impédance de charge :
Zs < R/10 ⇒ Zs < 1 kΩ
En fait, les impédances de sortie ligne des appareils électroacoustiques doivent
être très faibles ; elles sont de l’ordre de quelque 10 Ω voire quelque 100 Ω.
Il faudra cependant remarquer qu’un tuner, une platine tourne-disque, un micro-
phone, etc., devront être modélisés comme des dipôles.

✦ Alimentation des quadripôles


À ce niveau, nous devons faire la différence entre quadripôles passifs et quadripôles
actifs.
Les quadripôles passifs sont réalisés à l’aide de composants n’introduisant pas
d’énergie, comme les résistances, selfs, condensateurs, diodes, etc.
Les quadripôles actifs possèdent un ou plusieurs composants tels que les amplifica-
teurs opérationnels, les transistors, les tubes, etc. Ces composants ont besoin d’une
alimentation qui leur apportera l’énergie dont ils ont besoin pour fonctionner. Les
alimentations ne jouent pas un rôle direct sur la nature des signaux et leur traitement.
Elles seront ignorées ou mieux, sous-entendues. Quadripôles actifs et quadripôles
© Dunod – Toute reproduction non autorisée est un délit.

passifs seront donc traités de la même manière en ce qui concerne le signal.


Arrêtons-nous cependant sur quelques problèmes liés à l’alimentation.
Pour les appareils traitant le signal audiofréquence analogique, il y a deux tensions
d’alimentation symétriques. Les valeurs souvent adoptées sont +15 V et –15 V.
Ces deux tensions d’alimentation définissent une bande de tension de 30 V. Le
signal analogique traité par le quadripôle sera inclus dans cette bande de tension
et ne pourra s’en échapper. Si le signal de sortie a tendance à être trop fort, il sera
écrêté et limité aux tensions d’alimentation. C’est le phénomène connu sous les
noms d’écrêtage, de saturation, de surcharge (figure 6.35).
360 Le livre des techniques du son

u(t)

Figure 6.35 — Écrêtage d’un signal.

D’autre part, les tensions d’alimentation sont supposées parfaitement continues.


Mais ceci est une vue de l’esprit. Une faible ondulation se superpose à ces tensions.
Une des ondulations les plus courantes a une fréquence de 100 Hz. C’est le double
de la fréquence du secteur. Elle vient du redressement double alternance de
celui-ci. C’est une des causes du ronflement. Pour combattre cette ondulation, on
utilise des condensateurs de découplage placés en parallèle sur les alimentations.
En effet, on sait que l’impédance d’un condensateur est de la forme 1/Cω. Si C est
suffisamment grand, l’impédance du condensateur sera très faible pour les
fréquences d’utilisation car Cω sera grand. En résumé, un condensateur de
découplage isole les tensions continues et il se comporte comme un court-circuit
pour les tensions alternatives (voir § 6.2.2 « Théorème de superposition »).
Un autre facteur à ne pas négliger est la longueur des fils amenant l’alimentation.
Chaque fil représente une petite résistance et une petite inductance. La chute de
tension dans le fil est donc de la forme RI, ce qui est parfaitement négligeable.
Mais si le courant varie beaucoup, alors dI/dt sera grand et la chute de tension
pourra devenir grande et atteindre ainsi une valeur inadmissible. C’est une série
de condensateurs de découplages disséminés un peu partout dans l’appareil qui
permettra de diminuer le terme dI .
dt
✦ Circuit d’entrée des quadripôles
Dans leur très grande majorité, les quadripôles sont à entrée asymétrique. Un tel
quadripôle verra une de ses bornes reliée à la masse (figure 6.36).
Le signal audiofréquence est un signal à valeur moyenne nulle. Il arrive souvent
que par suite d’un défaut des composants électroniques utilisés, une légère
composante continue soit ajoutée. La valeur moyenne sera alors non nulle. C’est
pourquoi on ajoute en série avec l’impédance d’entrée un condensateur de forte
valeur : le condensateur de liaison. Il isole les tensions continues : la composante
Chapitre 6 – Notions fondamentales de l’électricité 361

continue n’est pas transmise à l’entrée du quadripôle. Il court-circuite les tensions


alternatives (voir § 6.2.2 « Les relations tension/courant ») : les audiofréquences
seront transmises intégralement à l’entrée du quadripôle (figure 6.37). Cepen-
dant, l’inconvénient majeur du quadripôle à entrée asymétrique se manifestera
lors des liaisons à longues distances. Le câble de liaison n’est pas constitué de deux
fils de forme identique. Le fil de masse sert de blindage afin d’augmenter l’immu-
nité aux parasites. Les parasites et autres tensions indésirables ne seront pas iden-
tiques sur chacun des fils (figure 6.38).

Is

U Av0 . Ue Us

Figure 6.36 — Quadripôle asymétrique.

On a : ue′ ( t ) = ue ( t ) + p ( t ) − p′( t ) .

Is

Us
U U U Av0 . Ue

Figure 6.37 — Condensateur de liaison.


© Dunod – Toute reproduction non autorisée est un délit.

P
Is

U'e Avo . Ue' Us


U

P'
U'e ≠ Ue si P' ≠ P

Figure 6.38 — Quadripôle asymétrique et ligne de transmission.


362 Le livre des techniques du son

Or, pʹ(t) est différent de p(t). Donc ue′ ( t ) sera différent de ue ( t ) et le signal sera
mal transmis. C’est pourquoi, pour des liaisons à longues distances, on préfère les
quadripôles à entrée symétrique. Un quadripôle à entrée symétrique n’aura pas
son impédance d’entrée reliée à la masse. Les potentiels d’entrée seront dits « flot-
tants ».
Supposons maintenant qu’un parasite se produise sur le câble reliant le généra-
teur fournissant la tension d’entrée ue ( t ) et le quadripôle. Ce parasite p(t) se
produira identiquement sur chaque brin du câble : pʹ(t) = p(t).
On aura alors : ue′ ( t ) = ue ( t ) + p ( t ) − p′( t ) = ue ( t ) .
La tension parasite p(t) sera annihilée. On voit que les quadripôles à entrée symé-
trique permettent de supprimer les parasites se produisant sur le câble
(figure 6.39).

U'e
U
P
Is

U Av0 . Ue' Us

P’

U'e Ue

Figure 6.39 — Quadripôle symétrique et ligne de transmission.

Il est bien évident que, pour un quadripôle à entrée symétrique, la tension de


sortie doit être totalement indépendante de la différence de potentiel entre un fil
d’entrée et la masse. En fait, cette d.d.p. influe toujours mais très faiblement. Ce
phénomène est désigné par « fonctionnement en mode commun ». Dans les
fiches techniques, on trouve le taux de réjection de mode commun (CMRR pour
Common Mode Rejection Ratio) qui chiffre ce défaut. Le fonctionnement normal
d’un tel quadripôle est le mode différentiel car on amplifie la tension Ue(t) dite
tension d’entrée différentielle.
Chapitre 6 – Notions fondamentales de l’électricité 363

On peut réaliser un quadripôle à entrée symétrique à l’aide d’un transformateur


et d’un quadripôle asymétrique. Cette opération s’appelle asymétrisation d’un
signal (figure 6.40).

Ie Zs Is

Ze Av0 . Ue Us
U

mIe Is

U mAv0 . Ue Us

Figure 6.40 — Asymétrisation d’un signal à l’aide d’un transformateur écran.

✦ Circuits de sortie des quadripôles


La sortie d’un quadripôle est modélisée par un générateur de tension commandé
par la tension d’entrée, en série avec l’impédance de sortie du quadripôle. La loi
de fonctionnement est :
U s = Av 0 ×U e − Z s × I s

Si le courant de sortie I s est nul, la tension de sortie ne dépendra que de la tension


d’entrée. Ceci sera quasiment obtenu pour des courants de sortie faibles. Ce sera
l’adaptation en tension. Considérons un quadripôle d’impédance de sortie Rs
© Dunod – Toute reproduction non autorisée est un délit.

débitant sur un autre quadripôle d’impédance Rʹe (figure 6.41).


La tension de sortie sera donnée par :
Re′
Us = × Av 0 ×U e
Re′ + Rs

On veut que U s soit égal à Av 0 U e . Il faut que Rs soit beaucoup plus petit que Rʹe.
Dans ce cas, on peut négliger Rs devant Rʹe et on peut simplifier par Rʹe dans l’ex-
pression.
364 Le livre des techniques du son

Is I' e I' s

U Av0 . U e Us U'e A'v0 . U'e U's

U'e U's I' e Ie

U'e Av0 . U e

Figure 6.41 — Mise en cascade de deux quadripôles asymétriques.


Pratiquement, on considère que la condition est réalisée si Rs < Re .
10
Un autre type d’adaptation est l’adaptation d’impédance en puissance. Reprenons
la figure précédente. On va chercher la valeur de Rʹe pour laquelle il y aura la plus
grande puissance transférée du premier au deuxième quadripôle. Calculons cette
puissance :

 R′ × A ×U   A ×U  R′ × ( Av 0 ×U e )
2

P = U e′ × I s =  e v 0 e  ×  v 0 e  = e
 Re′ + Rs   Re′ + Rs  ( Re′ + Rs )
2

En calculant la dérivée de cette expression, par rapport à Re et en l’annulant, on


montre sans difficulté qu’il faut que l’impédance de sortie et l’impédance d’entrée
soient égales pour que la puissance soit maximale :

( A ×U )
2
A ×U
Re′ = Rs U e′ = v 0 e P = v0 e
2 4
Une autre structure du schéma de sortie, équivalente à celle que nous venons
d’étudier, est la sortie symétrique. Cette structure permet d’alimenter des
quadripôles à entrée symétrique flottante et est bien adaptée à la liaison longue
distance de deux appareils. Le schéma est donné à la figure 6.42.
Dans l’hypothèse où les deux courants de sortie sont égaux, on a :

Zs × Is Av 0 ×U e Av 0 ×U e Zs × Is
Us = − + + − = Av 0 ×U e − Z s × I s
2 2 2 2
Il s’agit bien là de la loi de fonctionnement des quadripôles.
Chapitre 6 – Notions fondamentales de l’électricité 365

Is

U Av0 . Ue
2
U's U'e
I's
Av0 . Ue
2
A’v0 . Ue' U's

Figure 6.42 — Mise en cascade de deux quadripôles symétriques.

On remarquera que la sortie n’est pas flottante. Ceci permet de fixer les potentiels
autour du potentiel de la masse et d’éviter ainsi des saturations accidentelles.
Si on désire alimenter un quadripôle à entrée asymétrique, à partir d’une sortie
symétrique, il faudra utiliser la masse et un autre fil. On ne disposera alors que de
la moitié de la tension, ce qui correspond à une atténuation de 6 dB.

✦ Amplification d’un quadripôle


L’amplification permet de chiffrer la valeur du générateur de Thévenin Av 0 U e
interne du schéma équivalent. Le terme amplification désigne le coefficient Av 0 .
Pour le chiffrer, il faut exprimer le rapport des tensions de sortie et d’entrée quand
le courant de sortie est nul.
Av 0 est donc l’amplification en tension à vide du quadripôle. C’est un nombre
complexe. Ce nombre complexe possède un module et une phase.
L’argument de l’amplification rend compte du déphasage qu’il y a, à vide, entre la
© Dunod – Toute reproduction non autorisée est un délit.

tension de sortie et la tension d’entrée dans cet ordre. La tension Ue sert d’origine
des phases et l’argument de l’amplification indique la phase initiale de la tension
de sortie. Ainsi une phase positive indiquera une avance de la tension de sortie
par rapport à celle d’entrée, tandis qu’une phase négative indiquera un retard. À
ce niveau, deux cas particuliers sont à considérer :
• Av 0 est un réel positif. Les tensions d’entrée et de sortie seront en phase. Le
déphasage sera nul. Le quadripôle est dit « suiveur ».
366 Le livre des techniques du son

• Av 0 est un réel négatif. Les tensions d’entrée et de sortie seront en opposi-


tion de phase. Le déphasage sera de 180°. Le quadripôle est dit « inver-
seur ».
Le module de l’amplification indique la grandeur relative des tensions d’entrée et
de sortie. La coutume et la commodité veulent que l’on exprime le module de
l’amplification en décibels. On parlera alors de gain :
Gv 0 = 20 × log Av 0 = 20 × log Av 0
Le gain d’un quadripôle est défini comme étant 20 fois le logarithme décimal du
module de l’amplification. Si le gain est positif, alors la tension de sortie sera plus
grande que la tension d’entrée car Av 0  1 . Le quadripôle sera dit « amplifica-

teur ». Si le gain est négatif alors Av 0  1 . La tension de sortie est plus petite que
la tension d’entrée et on a affaire à un « atténuateur ».
Le tableau 6.5 des valeurs remarquables permet de mieux se rendre compte de la
relation qu’il y a entre le gain et l’amplification.

Tableau 6.5 – Relation entre l’amplification Av0 et le gain Gv0.

Av0 1/10 1/2 1/ 2 1 2 2 10

Gv0 (dB) –20 –6 –3 0 +3 +6 +20

6.2.4 Filtrage
L’étude des variations du gain et du déphasage en fonction de la fréquence
constitue le filtrage.

✦ Notion de filtre
Il faut redire ici que le signal est la forme de la grandeur physique qui le transporte
et non pas cette grandeur physique elle-même. Ainsi les systèmes numériques
sont des systèmes de codage et de calcul permettant de stocker et manipuler ces
formes. La notion de filtrage s’applique à la forme des signaux (musique, voix,
etc.) et non pas au moyen de transport ou de stockage de ce signal (tension élec-
trique, flux magnétique).
Ainsi, si un signal audio est véhiculé par une tension électrique, le signal sera la
forme de cette tension électrique. Si on désire modifier ce signal (rendre une
musique plus grave ou plus aiguë, par exemple), on utilisera un dispositif apte à
Chapitre 6 – Notions fondamentales de l’électricité 367

apporter cette modification. Cet appareil aura un schéma quadripolaire équiva-


lent (voir plus haut). Nous avons déjà vu que l’action de filtrage figure unique-
ment au niveau du terme d’amplification de l’action de ce quadripôle. Ce seront
les variations de gain et du déphasage en fonction de la fréquence qui réaliseront
les modifications souhaitées dans le signal.
Nous arrivons donc à une définition plus mathématique que « matérielle ». La
connaissance d’un filtre est donc la connaissance mathématique la plus complète
possible du type de modifications apportées au signal (et non pas à la ou les gran-
deurs physiques qui transportent ce signal).
Nous allons dans ce chapitre donner une méthode courante d’étude de filtre. Elle
est basée sur le théorème de superposition (voir § 6.2.2). Le théorème de super-
position montre qu’une étude pour un signal purement sinusoïdal, et ce, à toutes
les fréquences, rend compte correctement du comportement d’un filtre.
Ce comportement se résume sur deux courbes :
• la courbe amplitude/fréquence : elle indique les modifications de niveau
(d’amplitude) introduites par le filtre en fonction de la fréquence ;
• la courbe phase/fréquence : elle indique la relation de phase entre le signal
d’entrée et le signal de sortie en fonction de la fréquence ; c’est-à-dire l’avance
ou le retard du signal de sortie par rapport au signal d’entrée du quadripôle.
Nous allons dans ce chapitre, examiner brièvement quelques caractéristiques
importantes de ces courbes. Nous conseillons au lecteur de se reporter à un
ouvrage spécialisé pour une étude plus approfondie.

✦ Plan de Bode
On considère un quadripôle dont la fonction de transfert A(ω) a pour module
A(ω) = |A(ω)|, pour phase φ(ω) = argA(ω) et pour gain G(ω) = 20 × log|A(ω)|
= 20 × logA(ω).
Le diagramme de Bode permet de tracer l’évolution du gain G(ω) et de la phase
© Dunod – Toute reproduction non autorisée est un délit.

φ(ω) en utilisant une échelle logarithmique pour la pulsation, c’est-à-dire en


fonction de logω et une échelle linéaire pour le gain G(ω) (exprimé en décibels)
et pour la phase φ(ω) (exprimée en degrés). L’utilisation de l’échelle logarith-
mique permet de placer sur l’axe des abscisses des grandeurs variant dans de
grandes proportions tout en détaillant ce qui se passe pour les faibles valeurs.
De plus, d’après la loi de Weber-Fechner, établie par Ernst Heinrich Weber et
Gustav Theodor Fechner, la sensation (la perception) S varie comme le loga-
rithme de l’intensité I de l’excitation (la stimulation) : S = k × log(I) où k est une
constante.
368 Le livre des techniques du son

Pour l’étude des systèmes électroacoustiques, on aura les graduations suivantes :


• Sur l’axe des ordonnées : on porte l’amplitude du signal exprimée en déci-
bels ou le gain de quadripôle pour la courbe amplitude/fréquence. Pour la
courbe phase/fréquence la phase est portée directement en degrés.
• Sur l’axe des abscisses : on porte la fréquence sur une échelle logarith-
mique.
On se souvient qu’une octave correspond, en termes de fréquence, à une multipli-
cation ou à une division par 2 de celle-ci. Ainsi, une échelle logarithmique en
fréquence sera une échelle linéaire en octaves.
Comme on peut le voir sur les courbes de la figure 6.43, ces graduations sont
mieux adaptées à la perception de l’oreille tant en niveau qu’en fréquence et
permettent de se rendre mieux compte des accidents des courbes. Pour s’en
convaincre, le lecteur peut essayer de retracer ces courbes dans un système de
graduations linéaires et comparer le tracé obtenu avec celui de la figure 6.43.

Figure 6.43 — Exemple de courbe amplitude/fréquence


tracée dans le plan de Bode.

Reprenons l’exemple du filtre passe-bas du premier ordre déjà vu plus haut afin de
préciser la relation existant entre un circuit électrique et son comportement en
tant que filtre :

• sa fonction de transfert est : A = 1  ;


1 + jωRC
1
• le module est : A =  ;
1 + ( RC ω)
2

• le déphasage est : φ = –arctg(RCω).


Chapitre 6 – Notions fondamentales de l’électricité 369

Les courbes qui définissent ce filtre sont à la figure 6.44a.


On peut interpréter rapidement ces courbes. Le signal d’entrée et le signal de
sortie sont quasi égaux en amplitude, et sont quasiment en phase jusqu’à la
fréquence de coupure fC = 1/(2πRC). Pour les fréquences supérieures, l’amplitude
du signal de sortie diminue à raison de 6 dB par octave. Ceci signifie qu’elle
devient deux fois plus petite à chaque fois que la fréquence double. Quant à la
phase, on voit que sa valeur avoisine π/2. Cela signifie que le signal de sortie sera
en quadrature et en retard sur le signal d’entrée.

✦ Gabarits élémentaires
Sur l’exemple en question (figure 6.44a), on peut voir que figurent deux tracés : la
courbe réelle et une courbe constituée de segments de droite : les asymptotes qui
constituent le gabarit.
Ce sont en fait ces segments de droite qui sont faciles à obtenir mathématique-
ment. Ce sont encore eux qui permettront une première interprétation qualita-
tive et quantitative commode du comportement d’un filtre.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 6.44 — (a) Filtre passe-bas du 1er ordre.


(b) Filtre passe-haut du 1er ordre.

✧ Tracé et interprétation
Pour illustrer la méthode, nous prendrons la fonction de transfert d’un filtre
passe-haut du premier ordre :
370 Le livre des techniques du son

R
A=
1
R+
jωC
La méthode de tracé est la suivante :
(a) Obtenir une expression complexe ne faisant intervenir que des polynômes en
jω. Il faut essayer de factoriser au maximum cette expression. (On remplace très
souvent jω par la lettre p en référence à la transformée de Laplace.)
Pour notre exemple, nous obtenons :
jωRC
A=
jωRC + 1
RCp
ou bien A =
RCp +1

(b) Pour chaque polynôme : on cherche les asymptotes et la ou les fréquences de


coupure (intersection des asymptotes). Attention : il ne faut pas confondre
l’asymptote qui est une droite avec la limite de l’expression qui est une valeur.
Pour notre exemple, nous écrirons :
π
ω → 0 ⇒ A → jω RC ⇒ A = RC ω et ϕ =
2

ω → ∞ ⇒ A → 1 ⇒ A = 1 et ϕ = 0
On interprète les équations de ces asymptotes :
• l’asymptote ayant le degré le plus élevé en ω est l’asymptote basses
fréquences et ce degré est 1 ; on en déduit que l’on a affaire à un filtre du
premier ordre ;
• on cherche la fréquence correspondant à l’intersection des deux asymp-
totes : c’est la fréquence de coupure ; on constate que les deux asymptotes se
coupent quand RCω = 1 ; on en déduit la fréquence de coupure fC =
1/(2πRC) ; c’est cette fréquence qui définit la frontière entre fréquences
basses (« graves ») et fréquences élevées (« aiguës ») de ce filtre.
(c) On exprime les équations des asymptotes dans le plan de Bode :
ω = 0 ⇒ G = 20 × log(RCω) = 20 × log(RC) + 20 × logω
ω → ∞ ⇒ G = 20 × log(1) = 0
Chapitre 6 – Notions fondamentales de l’électricité 371

On remarque qu’il s’agit bien de droites. La forme mathématique est bien


y = ax + b avec y = G ; a = 20 ; x = log(ω) ; b = 20 × log(RC) pour l’asymptote
basses fréquences, par exemple.
D’autre part, étant donné que l’on aura mis la fonction de transfert sous forme
d’un rapport de deux produits de polynômes en jω, les asymptotes seront toujours
des droites dans le plan de Bode. Cette remarque simplifie grandement les tracés.
Une conséquence pratique de cette remarque est utilisée lors de l’interprétation
de courbes réelles dont on ne connaît pas le gabarit. Ce problème se pose quand
on obtient la courbe de réponse d’un appareil lors d’une mesure. On peut trouver
des asymptotes graphiquement avec une règle et un crayon car ce sont toujours
des droites. On doit se souvenir, pendant cette opération, que les pentes sont
toujours un multiple de 6 dB/octave.
(d) On trace les asymptotes et on obtient le gabarit du filtre (figure 6.44b).
Si nécessaire, on peut interpréter le gabarit obtenu :
• on peut déterminer la ou les fréquences de coupure en cherchant la ou les
fréquences pour lesquelles il y a intersection de deux asymptotes consécu-
tives ;
• on peut déterminer l’ordre du filtre à l’aide des pentes des asymptotes. Ce
sont des nombres de la forme 6n quand la pente est exprimée en
dB/octave ; ou bien 20n quand la pente est exprimée en dB/décade ; le
nombre entier n le plus grand est, en général, l’ordre du filtre.
(e) On porte la courbe réelle par rapport au gabarit en tenant compte des valeurs
remarquables (surtensions ou autres).
Ici (figure 6.44b), un calcul exact montre que la courbe réelle est à –3 dB des
asymptotes à la coupure, –1 dB des asymptotes à l’octave de la coupure, et sur les
asymptotes à la décade de la coupure.
Gabarits types : dans la pratique, on doit connaître les traces des polynômes
© Dunod – Toute reproduction non autorisée est un délit.

élémentaires afin de pouvoir accélérer l’étude. En voilà quelques-uns.

✧ Dérivateur (figure 6.45a)
Son expression est A = jωRC.
Exprimée en décibels, elle devient :
G = 20 × log|jωRC| = 20 × log(RC) + 20 × log(ω)
La pente est de +20 dB par décade, soit +6 dB par octave.
372 Le livre des techniques du son

La courbe passe à 0 dB pour ω = 1/RC.


Le déphasage vaut toujours + π .
2

Figure 6.45 — (a) Dérivateur A= jωRC. (b) Intégrateur A


1 .
j RC

Ce circuit amplifie les hautes fréquences. Il aura tendance à amplifier les para-
sites, et pour cela, il peut être dangereux de l’utiliser. Cependant, on voit sur la
courbe qu’il ne transmet pas les tensions continues. Cela peut être utile afin d’éli-
miner les tensions d’offset.

✧ Intégrateur (figure 6.45b)
1
Son expression est A = .
jωRC
Exprimée en décibels, elle devient :
1
G = 20 × log = −20 × log jωRC = −20 × log ( RC ω)
jωRC
On peut remarquer que la représentation graphique est identique à celle du déri-
vateur, avec un changement de signe.
Le déphasage est lui aussi, l’opposé du précédent : il vaut − π .
2
Celui-ci a le comportement inverse du précédent, comme le montrent les courbes
des figures 6.45a et b. Il a donc une bonne immunité aux parasites. Ce montage est
très utilisé en calcul opérationnel, dans les asservissements, dans la synthèse des
filtres paramétriques, etc. Cependant, il est sujet à des dérives de tension lentes
car, comme on peut le voir sur la courbe de réponse, il amplifie énormément les
tensions continues ou variant très lentement.
Intégrateurs et dérivateurs ne sont en fait utilisables que dans la bande de
fréquence pour laquelle ils ont été calculés.
Chapitre 6 – Notions fondamentales de l’électricité 373

✧ Polynôme du 1er ordre
Au numérateur (figure 6.46a), on étudie A = 1 + jωRC.
Il y a deux asymptotes. Les pentes sont 0 et +6 dB par octave.
1
La fréquence de coupure est fC = .
2πRC

Figure 6.46 — (a) A = 1 + jωRC. Polynôme du 1er ordre.


1
(b) A . Polynôme du 1er ordre.
1+ j RC

Au dénominateur (figure 6.46b), on étudie A = 1/(1 + jωRC). En fait, on déduit la


représentation graphique de cette expression par inversion de signe de la repré-
sentation graphique du précédent.
On reconnaît ici le filtre passe-bas du premier ordre que nous avons déjà étudié.

✧ Polynôme du 2e ordre 2
 1 jω   jω 
Au numérateur, on étudie A = 1 +  ×  +   .
 Q ωC   ωC 
On a ici aussi deux asymptotes. Les pentes sont de 0 et +12 dB par octave.
© Dunod – Toute reproduction non autorisée est un délit.

ωC
La fréquence de coupure vaut : fC = .

Pour la fréquence de coupure, on a ω = ωC et G = 20 × log(Q). Q s’appelle le coeffi-
cient de surtension.
Si on étudie Aʹ = 1/A, on obtient la courbe représentative par inversion de signe
de celle de A. On obtiendra le réseau de courbes de la figure 6.47.
La fonction de transfert A' est typique du filtre passif passe-bas du second ordre
(figure 6.48). On reconnaît là, le classique circuit R, L, C.
374 Le livre des techniques du son

Figure 6.47 — Diagrammes de Bode d’un filtre passe-bas du 2nd ordre.

Ue Us

Figure 6.48 — Schéma d’un filtre passif passe-bas du 2nd ordre.

En identifiant la fonction de transfert de ce filtre avec l’expression normalisée


qui lui correspond, on obtient :
Us 1 1
= 2 =
1 + jωRC + LC ( jω)
2
Ue  1 jω   jω 
1+  ×  +  
 Q ωC   ωC 
Chapitre 6 – Notions fondamentales de l’électricité 375

On trouve les résultats suivants :


1
ωC =
LC

LωC 1 1 L
Q= = =
R RC ωC R C
On sait que les circuits R, L, C résonnent, on reconnaît ici les résultats relatifs à
cette résonance.
La fonction de transfert du second ordre est donc une fonction importante car
c’est principalement elle qui décrira le comportement des circuits résonnants. Ils
permettent de réaliser des filtres ayant une bande passante étroite B. Cette bande
passante étant égale au rapport B  fC . Cette relation montre que le produit de
Q
la bande passante B par le facteur de surtension Q est une constante qui est égale
à la fréquence de coupure fc.
✦ Additivité des gabarits
Nous allons étudier maintenant une propriété très intéressante quant à ses consé-
quences. Elle permet de corréler l’action d’un ou de plusieurs maillons d’une
chaîne avec l’ensemble de la chaîne sonore.
Le signal sonore, tout le long de son parcours, traverse des étages qui ont tous, qu’on le
veuille ou non, une action de filtrage. Pour connaître ou prédéterminer l’action de
toute une chaîne, il est bon de connaître l’action de chaque maillon, et à partir de cette
connaissance, d’en déduire les caractéristiques de tout ou partie de la chaîne.
Pour ce faire, on décompose la chaîne en une suite de quadripôles montés en
cascade (figure 6.49). On recherche la fonction de transfert de chaque quadripôle
et on effectue les tracés correspondants. Chaque quadripôle de la chaîne ayant été
étudié comme précédemment, on peut obtenir l’action totale sur le signal en
additionnant toutes les courbes de réponse, donc les gains et atténuations.
© Dunod – Toute reproduction non autorisée est un délit.

A1 A2 A3
U0 U1 U2 U3

A
U0 U3

Figure 6.49 — Mise en cascade de quadripôles. A = A3  A2  A1 .


376 Le livre des techniques du son

Démontrons cette propriété. L’ensemble des quadripôles, figure 6.49, peut se


résumer à un seul quadripôle qui a comme fonction de transfert, le produit des
fonctions de transfert de chaque quadripôle.
On a : U 3 U 3 U 2 U1
= × ×
U 0 U 2 U1 U 0

Soit : A = A3 × A2 × A1 .
Ce sont des nombres complexes. Ils peuvent être mis sous la forme :
j ( ϕ1 + ϕ2 + ϕ3 )
Ae jϕ = A1 × e jϕ1 × A2 × e jϕ2 × A3 × e jϕ3 = A1 A2 A3 × e
On en tire les résultats très importants :
• l’amplification totale est le produit des amplifications (le gain total en dB
est la somme des gains) ;
• le déphasage total est la somme de tous les déphasages.
Regardons la conséquence au niveau des courbes de réponse :
• Pour la courbe de réponse amplitude/fréquence, on représente le gain en
fonction de la fréquence. Cela nous donne :
G = 20 × log|A3 × A2 × A1|
G = 20 × log|A3 | + 20 × log|A2 | + 20 × log|A1|
G = G3 + G2 + G1

• Le gain total est donc la somme des gains et la courbe résultante est donc
bien la somme des courbes.
• Pour la courbe de réponse phase/fréquence, on représente le déphasage en
fonction de la fréquence. Le déphasage total étant la somme de tous les
déphasages, on voit, là aussi, que la courbe résultante est la somme des
courbes.
Les courbes amplitude/fréquence et phase/fréquence sont donc additives. Cette
propriété aura les conséquences pratiques suivantes :
(a) Quand on désire tracer les courbes représentatives d’une fonction de transfert
compliquée :
• on décompose celle-ci en un produit de fonctions de transfert simples ;
• on trace chaque fonction de transfert (ce qui doit être facile) ;
Chapitre 6 – Notions fondamentales de l’électricité 377

• on fait la somme de toutes les courbes obtenues pour obtenir les courbes
résultantes.
(b) Quand on veut connaître l’action d’une chaîne électro-sonore :
• si on connaît les courbes représentatives de chaque maillon, donc de
chaque appareil ; on peut obtenir les courbes globales par sommation des
courbes de chaque appareil.

(c) Quand on veut connaître l’effet d’un maillon de la chaîne sur les courbes
globales (filtre paramétrique ou autre) :
• on trace les courbes du maillon considéré ;
• par soustraction, on en déduit la courbe représentative du reste de la chaîne ;
• on étudie les modifications apportées par le maillon au reste de la chaîne
en regardant l’influence de la courbe de réponse du maillon étudié sur la
courbe globale.

(d) Quand on a une courbe globale donnée, et que l’on désire l’adapter à ses
besoins ; il faut pouvoir la modifier :
• on peut agir sur les réglages des filtres prévus dans la chaîne audio. La
modification porte alors sur les caractéristiques de filtrage d’un ou de
plusieurs maillons de la chaîne. Ceci revient, du point de vue mathéma-
tique, au cas précédemment étudié ;
• on peut également, dans le cas où cela est nécessaire, insérer des maillons
dans la chaîne (par exemple, inserts de console) afin de pouvoir ajouter la
forme désirée aux courbes globales de celle-ci ;
• nous nous souviendrons qu’ajouter mathématiquement une courbe de
réponse revient, technologiquement, à introduire dans la chaîne un appa-
reil ou un quadripôle supplémentaire.
© Dunod – Toute reproduction non autorisée est un délit.

(e) Quand on désire construire un appareil, et en particulier un filtre (figure 6.50) :


• on trace la courbe globale désirée ;
• on décompose cette courbe en une somme de courbes simples ;
• à l’aide d’une schématèque et/ou de modules électroniques préfabriqués,
on construit les quadripôles réalisant ces courbes simples ;
• en mettant tous ces quadripôles en cascade, on réalise l’appareil envisagé.
378 Le livre des techniques du son

Figure 6.50 — Synthèse d’un filtre.

En conclusion, on peut envisager la chaîne électro-sonore comme étant une sorte


d’assemblage. Les pièces de cet assemblage seront des quadripôles aux caractéris-
tiques bien définies et aux performances les plus élevées possibles. La grosse diffi-
culté étant le bon choix du type des quadripôles et la mise en cascade de ces
quadripôles.

6.2.5 Conclusion
Nous venons de survoler dans ce chapitre, les principaux aspects de l’électronique.
Cet exposé est bref et n’a pas la prétention d’être exhaustif. Nous devons signaler que
le § 6.2.3 et le § 6.2.4 concernant les quadripôles et le filtrage sont généralisables.
En effet, tous les dispositifs que sait réaliser l’être humain sont des transducteurs,
des transmetteurs, des transformateurs ou encore des convertisseurs. Ainsi, un
microphone convertit un signal acoustique en signal électrique. Un haut-parleur
effectue la conversion inverse. Ces deux transducteurs ont pour but de changer le
support physique du signal, mais pas le signal proprement dit. Cependant, on sait
qu’ils agissent sur le signal car ils ne sont pas parfaits, et ce faisant, se comportent
comme des filtres. De même, une salle intervient sur la façon dont est transmise une
musique à un auditeur. Une suspension de groupe électrogène influe sur la trans-
mission des vibrations solides. Il en est de même pour la dalle flottante d’un studio.
On peut multiplier ainsi les exemples à l’infini. Pour tous ces exemples, on peut
considérer qu’il y a une ou plusieurs grandeurs d’entrée et une ou plusieurs gran-
deurs de sortie. Pour une cellule de platine tourne-disque, les grandeurs d’entrée
Chapitre 6 – Notions fondamentales de l’électricité 379

seront les mouvements mécaniques du diamant et les grandeurs de sortie seront les
tensions électriques des voies gauche et droite ; le signal sonore, dans cet exemple,
sera porté tantôt par une grandeur mécanique, tantôt par une grandeur électrique.
C’est donc le signal qui est important, plutôt que le type d’énergie qui le véhicule.
Lors de la constitution d’une chaîne électroacoustique, on met en cascade toute une
série d’éléments depuis l’instrument de l’artiste jusqu’aux oreilles de l’auditeur. Du
point de vue formel, on aura mis une série de quadripôles en cascade (qu’ils soient
électriques, acoustiques, électroacoustiques ou autres) et on aura additionné autant
de courbes de réponse amplitude/fréquence et phase/fréquence que de quadripôles.

6.3 Bibliographie
[1] Berkeley, Cours de physique, volume n° 2 – Électricité et magnétisme. Armand Colin,
1984.
[2] J.-L. Queyrel et J. Mesplede, Précis de physique-électronique. Classes préparatoires,
Bréal, 1988.
[3] R. Beauvillain et J. Laty. Électricité, Tome 1 et Tome 2. Classiques Hachette (1979 et
1971).
[4] G. Seguier et F. Notelet, Électrotechnique industrielle. Techniques et documentation,
1977.
[5] P. Bildstein, Filtres actifs. Éditions Radio, 1980.
[6] M. Hasler et J. Neyrynck, Filtres électriques. Dunod, 1981.
[7] J.-J. Matras, Acoustique appliquée. Coll. « Que sais-je ? », PUF, 1977.
[8] R. Boylestad, Analyse de circuits. ERPI, 2e édition, 1985.
[9] P. Barrade, Électronique de puissance : méthodologie et convertisseurs élémentaires.
Presses polytechniques et universitaires romandes, 2006.
[10] A. Brelat, N. Hulin-Jung, J. Klein et E. Saltiel, Électricité-magnétisme. Hermann,
1967.
[11] I. Jelinski, Toute l’électronique en exercices. Vuibert, 2000.
© Dunod – Toute reproduction non autorisée est un délit.

[12] R. Duffait et J.-P. Lieuvre, Expériences d’électronique. Bréal, 1999.


[13] J. L. Hood, Audio electronics. Newnes, 2e édition, 1999.
[14] G. Randy Slone, The audiophiles’s projects sourcebook. McGraw-Hill, 2002.
[15] J. Nathan, Back-to-basics audio. Newnes, 1998.
Chapitre 7

L’enregistrement magnétique

Michel Calmet
Ingénieur en chef des télécommunications.
Ancien conseiller technique à Radio France

Jacques Fournet
Ancien chef du département audio-vidéo
professionnel Agfa-Gevaert France

Certains des textes et schémas de ce chapitre (§ 7.3 à 7.7) sont extraits de l’article
« Enregistrement magnétique, étude théorique » du même auteur, paru dans la
collection des Techniques de l’Ingénieur. Nous renvoyons le lecteur à cet ouvrage
pour toutes démonstrations, normes et tableaux de valeurs.

L’enregistrement magnétique est une méthode de mise en mémoire fondée sur la


propriété que possèdent certains corps de rester aimantés. Sa difficulté de mise en
œuvre réside dans le fait qu’il doit permettre une restitution des phénomènes
enregistrés aussi précise et fidèle que possible.
L’enregistrement du son est à l’origine de l’extraordinaire développement de l’en-
registrement magnétique depuis la fin du siècle dernier. Les domaines d’applica-
tion sont désormais très vastes : audio, vidéo, informatique, instrumentation, etc.
382 Le livre des techniques du son

La diversité des supports de stockage et l’évolution constante des techniques ne


nous permettent pas de prédire les technologies de l’avenir. Nous pouvons juste
constater que les principes de l’enregistrement magnétique très utilisés sur bande
en analogique, sont aujourd’hui mis en application sur le disque dur.

Enregistreur-lecteur magnétique Stille 1930, fabrication Marconi


(à titre indicatif, les bobines font 60 cm de diamètre). (Collection et cliché,
Musée National des Techniques, CNAM, Paris.)

7.1 Principes fondamentaux de magnétisme


et électromagnétisme
Les aimants permanents, tels que la magnétite Fe3O4, connus depuis l’antiquité,
exercent leur action à distance dans l’espace environnant. Ils y créent un champ
magnétique.
Certains corps, tel que l’oxyde de fer  Fe2O3 ou le dioxyde de chrome CrO2 s’ai-
mantent lorsqu’ils sont soumis à l’action d’un champ magnétique : ce sont des
corps ferromagnétiques. La valeur de l’aimantation de ces corps, à un instant t,
dépend d’une manière très compliquée de la valeur du champ appliqué, appelé
champ magnétisant, des états antérieurs de magnétisation et de la température.
Lorsque le champ magnétisant cesse, le corps garde une certaine aimantation :
cette aimantation rémanente est utilisée pour mémoriser le phénomène à enre-
gistrer. À chaque instant t du phénomène, on fait correspondre à son amplitude
une aimantation rémanente dont la valeur est exprimée sous forme analogique
ou numérique.
Chapitre 7 – L’enregistrement magnétique 383

La lecture de l’enregistrement se fera inversement en utilisant le champ magné-


tique produit par le corps ferromagnétique ainsi aimanté pour reconstituer l’in-
formation d’origine.
Ce principe a été mis en application pour la première fois pour enregistrer le son
sur support magnétique par Valdemar Poulsen en 1898 avec le Telegraphon.
L’apparition des tubes électroniques permettant d’amplifier les très faibles signaux
électriques a fait ensuite progresser l’enregistrement magnétique.
Pfleumer, en 1927, a imaginé de coucher les particules ferromagnétiques sur un
support en papier réalisant ainsi l’ancêtre des bandes magnétiques. La machine
de Stille, en 1928, mit en œuvre d’abord un fil d’acier, puis un ruban d’acier. Elle
fut la première machine longtemps utilisée en Radiodiffusion (voir photo). Les
appareils actuels fonctionnent suivant le schéma classique : un support magné-
tique défile devant une tête d’effacement parcourue en général par un courant
alternatif et chargée de produire un champ magnétique alternatif pour amener
les particules magnétiques à un état neutre. Le support magnétique passe ensuite
devant la tête d’enregistrement qui produit le champ nécessaire à l’aimantation
requise des particules magnétiques, puis devant la tête de lecture dont le rôle est
de capter le champ magnétique produit par les particules aimantées lors du
processus d’enregistrement.
Pour bien comprendre les phénomènes entrant en jeu, il est indispensable de
préciser un certain nombre de notions et de grandeurs fondamentales.

7.1.1 Champ magnétique


Un barreau aimanté a deux pôles appelés conventionnellement pôle Nord et pôle
Sud : le pôle Nord s’oriente vers le Nord lorsque le barreau est libre de tourner
autour de son centre de gravité.
Les pôles magnétiques de même nom se repoussent : les pôles de noms différents
s’attirent. Il en résulte que le pôle Nord terrestre est « magnétiquement parlant »
© Dunod – Toute reproduction non autorisée est un délit.

un pôle Sud puisqu’il attire le pôle Nord sur le barreau.


Coulomb (1736-1806) a démontré que la force de répulsion ou d’attraction de
deux masses magnétiques m et mʹ séparées par une distance d est :
mm′
F =k
d2
où le coefficient k dépend des unités.
Oersted (1777-1851) a observé qu’un courant électrique circulant dans un fil
conducteur agissait sur une aiguille aimantée.
384 Le livre des techniques du son

On appelle champ magnétique l’espace soumis à l’action d’un aimant ou d’un


courant, ainsi que la grandeur vectorielle représentant l’intensité et la direction
de cette action (figure 7.1).
Il est possible de matérialiser les lignes de forces du champ magnétique au moyen
de limaille de fer.

Figure 7.1 — Champ magnétique produit par un barreau aimanté.

✧ Loi d’Ampère
Le champ magnétique H créé par un conducteur linéaire infini en un point situé
à une distance r de ce conducteur parcouru par un courant d’intensité I, a pour
valeur :
I
H=
2πr
I en ampères, r en mètres, H en ampères/mètre.

Figure 7.2 — Champ magnétique créé par un conducteur linéaire.


En tout point situé à une distance r du fil parcouru par un courant électrique
I
d’intensité I, il existe un champ magnétique d’intensité, H =
2πr ′
dont la direction est donnée par la règle de l’observateur d’Ampère.
Chapitre 7 – L’enregistrement magnétique 385

Un observateur couché le long du fil, le courant entrant par ses pieds et sortant
par sa tête, voit les lignes de force du champ tourner de sa droite vers sa gauche
(figure 7.2). Pour un conducteur en forme de spire (figure 7.3), le champ au centre
de la spire est :
I
H
2r

Figure 7.3 — Champ magnétique créé par un conducteur


en forme de spire.

Pour un conducteur en forme de solénoïde (figure 7.4) de longueur l très grande


par rapport au rayon et comportant N spires, le champ au centre est égal à :
N
H I
l
N
où le rapport caractérise le nombre de spires par unité de longueur.
l
© Dunod – Toute reproduction non autorisée est un délit.

Figure 7.4 — Champ magnétique créé par un conducteur


en forme de solénoïde.
386 Le livre des techniques du son

On peut classer les corps suivant leur comportement en présence d’un champ
magnétique en trois grandes familles.

a) Les corps paramagnétiques, assez rares, pour lesquels l’aimantation M est


proportionnelle à l’intensité du champ H, le facteur de proportionnalité , appelé
susceptibilité magnétique, étant positif et de faible valeur.
 
M = χH
  
H et M sont deux vecteurs de même nature.  s’exprime par un nombre.
Parmi les corps paramagnétiques, citons l’aluminium, le platine, l’oxygène,
l’air, les sels des métaux de terres rares, les sels dilués de fer, de cobalt et de
nickel.

b) Les corps diamagnétiques, les plus nombreux, pour lesquels l’aimantation M


est également proportionnelle à l’intensité du champ H, mais qui ont une suscep-
tibilité  négative et de faible valeur.
La plupart des substances entrent dans cette famille.

c) Les corps ferromagnétiques, peu nombreux, pour lesquels la susceptibilité


positive et de forte valeur dépend elle-même de la valeur du champ H. Comme
cela a été décrit précédemment, la valeur de M dépend d’une manière extrême-
ment complexe, de la valeur du champ magnétique à l’instant considéré, des états
d’aimantation antérieurs et de la température.
Citons par exemple, le fer, le cobalt, le nickel, l’oxyde ferrique  Fe2O3, la magnétite
Fe3O4, le dioxyde de chrome CrO2 et certains alliages métalliques.

7.1.2 Matériaux ferromagnétiques


On peut diviser les matériaux ferromagnétiques en deux catégories : les maté-
riaux doux, tels les alliages Fer-Nickel, pour lesquels la susceptibilité est très
élevée et qui prennent une aimantation proportionnelle au champ magnétique
M = H (figure 7.5) ; les matériaux durs pour lesquels l’aimantation est une
donnée M0 sauf au-delà de certaines limites où la variation de l’aimantation est
brutale et fortement non linéaire.
Ils gardent, lorsque le champ s’annule, une aimantation rémanente importante.
Ces matériaux ( Fe2O3, Fe3O4, CrO2) sont utilisés dans la fabrication des supports
magnétiques.
Chapitre 7 – L’enregistrement magnétique 387

Figure 7.5 — Variations de l’aimantation M en fonction du champ H pour des


corps paramagnétiques, diamagnétiques, ou ferromagnétiques.

7.1.3 Induction magnétique1


En tout point d’un champ magnétique, il existe une grandeur vectorielle appelée
induction magnétique et notée B définie par :
  
B = µ0 H + M ( )
dans le vide :
  
M  0 donc B = µ 0 H
µ0 est appelé perméabilité du vide :

µ0 = 4  10–7 henry/mètre  12,57  10–7 H/m


Or, nous avons vu pour les matériaux doux que :
     
MMM==χ
=χHχHHd’où
d’où ==µ
BBB
d’où =µ0µ0 0HHH+++( (( ) ))
MMMµµ0µ0=0=(=1(1(+1+χ
+χ)χ)H)HH
© Dunod – Toute reproduction non autorisée est un délit.

L’induction électromagnétique désigne en outre un phénomène par lequel


naissent des forces électromotrices lorsqu’on déplace un circuit dans un champ
magnétique ou lorsqu’on fait varier la valeur de l’induction B dans lequel se
trouve le circuit. Ce dernier phénomène est utilisé pour lire un enregistrement
magnétique, la variation du flux (voir ci-après) produite par le déplacement du
support magnétique devant la tête de lecture induisant une force électromotrice.
1. En dépit d’une fâcheuse tendance qui consiste à appeler champ le vecteur B et excitation le vecteur H, nous
persévérons à appeler induction le vecteur B et champ le vecteur H pour de nombreuses raisons, en par-
ticulier l’utilisation bien ancrée des appellations : champ coercitif (Hc) et champ démagnétisant (Hd).
388 Le livre des techniques du son

7.1.4 Flux d’induction magnétique


Le flux d’induction magnétique  à travers un élément de surface S plongé dans
une induction magnétique B, est :
 
Φ = B ⋅S

Figure 7.6 — Flux d’induction magnétique Φ à travers un élément de surface S


plongé dans une induction magnétique B.Φ = B × S cos .

 
Si  désigne l’angle formé par les vecteurs B et S  :

Φ = B × S cosα
B en tesla, S en m2,  en weber (Wb).
Si la surface est perpendiculaire à la direction du champ :
Φ = BS
Φ
d’où B = donc 1 tesla = 1 Wb m 2 .
S
Le flux d’induction magnétique est conservatif (figure 7.7). En d’autres termes,
le flux d’induction total à travers une surface fermée est nul.

Figure 7.7 — Le flux d’induction magnétique est conservatif : B1 s1 = B2 S2.


Chapitre 7 – L’enregistrement magnétique 389

7.1.5 Perméabilité
La perméabilité magnétique représente l’aptitude plus ou moins grande d’un
corps à se laisser traverser par un flux magnétique. La perméabilité, dénommée
aussi perméabilité absolue, est égale au quotient de l’induction magnétique B par
le champ magnétique H :

B
µ= 
H
B en tesla, H en ampère/mètre, µ en henry/mètre.
 
On a vu que dans le vide B = µ 0 H .
µ
La perméabilité relative µr = = 1 + x caractérise le milieu magnétique.
µ0

7.2 Propriétés des corps ferromagnétiques

7.2.1 Courbe de première aimantation


La température étant constante, considérons un corps ferromagnétique à l’état
neutre à l’origine, et faisons varier le champ H régnant à l’intérieur du corps : on
s’aperçoit que, pour des valeurs suffisamment importantes du champ H, l’aiman-
tation M prise par le corps présente un phénomène de saturation et ne peut
dépasser une valeur Ms appelée aimantation à saturation.
La courbe représentant les variations de M en fonction de H ainsi tracée s’appelle
courbe de première aimantation (figure 7.8).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 7.8 — Courbe de première aimantation et cycle d’hystérésis.


390 Le livre des techniques du son

7.2.2 Cycle d’hystérésis


La saturation étant atteinte, si le champ H diminue, l’aimantation M diminue
également, mais ses variations ne suivent pas la courbe de première aimantation.
Lorsque le champ s’annule, l’aimantation garde une certaine valeur MRS appelée
aimantation rémanente après saturation.
Cette valeur, pour une bande magnétique, doit être aussi grande que possible. Par
contre, pour le circuit magnétique d’une tête magnétique, elle doit être pratique-
ment nulle ; si tel n’est pas le cas, on dit que la tête est magnétisée.
Si l’on inverse le sens du champ, l’aimantation s’annule pour une valeur – HC du
champ magnétique, appelée champ coercitif.

Figure 7.9 — Exemple de cycle d’hystérésis partiel pour lequel


à partir de l’aimantation à saturation Ms on fait décroître le champ H
jusqu’à une valeur HA donnant une aimantation MA.
Puis on change le sens de variation de H en le faisant croître jusqu’à obtenir
l’aimantation Ms. On a ainsi décrit un cycle d’hystérésis partiel (Ms, MRS, MA, Ms).

En continuant à faire décroître le champ magnétique, on observe de nouveau


pour l’aimantation M le phénomène de saturation, atteint cette fois pour une
valeur égale à – MS. En inversant de nouveau le sens de variation du champ
magnétique H, l’aimantation va passer par une valeur – MRS pour H = 0, puis par
une valeur nulle pour H = + HC et va atteindre finalement la valeur MS.
Le cycle, décrit ainsi de manière expérimentale, s’appelle le cycle d’hystérésis
majeur (voir figure 7.8).
À partir de l’état neutre considéré initialement, on peut faire varier le champ H
sans atteindre la saturation : on décrit alors un cycle d’hystérésis contenu à l’inté-
rieur du cycle précédent.
On peut ainsi décrire des cycles partiels comme le montre la figure 7.9. Si par
exemple après avoir amené un matériau ferromagnétique à saturation au moyen
Chapitre 7 – L’enregistrement magnétique 391

d’un champ H alternatif, on s’arrange pour que le champ H décroisse lentement et


régulièrement, on va décrire une succession de cycles d’hystérésis de plus en plus
petits jusqu’à se retrouver au point d’origine 0 pour lequel le champ et l’aimanta-
tion sont nuls. Le matériau aura été ainsi complètement désaimanté (figure 7.10).
Ce principe est mis en application pour effacer une bande magnétique ou pour
démagnétiser certains organes d’un enregistreur/lecteur.

Figure 7.10 — Démagnétisation d’un corps ferromagnétique


par un champ alternatif décroissant.

7.2.3 Domaines de Weiss


Weiss a émis l’hypothèse qu’un corps ferromagnétique est constitué d’un
ensemble de domaines élémentaires. Chaque domaine élémentaire a des cycles
d’hystérésis rectangulaires (figure 7.11). Cette hypothèse a été vérifiée expéri-
mentalement et l’on a pu mettre en évidence la manière dont ceux-ci se compor-
taient sous l’action d’un champ magnétique.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 7.11 — Cycle d’hystérésis d’un domaine de Weiss.


392 Le livre des techniques du son

Considérons la courbe de première aimantation (figure 7.12). Lorsque le champ


est faible, le déplacement des frontières est réversible. Le champ augmentant, on
atteint des valeurs pour lesquelles le déplacement des frontières est irréversible,
puis ensuite, des valeurs pour lesquelles il y a rotation des directions d’aimanta-
tion. La saturation correspond à l’orientation de toutes les directions d’aimanta-
tion dans la direction du champ magnétisant.

Figure 7.12 — Pour des valeurs de champ faibles correspondant à la partie 1


de la courbe de première aimantation, le déplacement des frontières des domaines
de Weiss est réversible. Pour des valeurs de champ plus élevées correspondant
à la partie 2 le déplacement des frontières est irréversible. La partie 3 correspond
à des valeurs pour lesquelles il y a rotation des directions d’aimantation.

Barkhausen a mis en évidence expérimentalement la discontinuité des variations


de M en fonction du champ H, due aux changements intervenant dans la struc-
ture des domaines de Weiss.

7.2.4 Champ démagnétisant


Considérons un matériau ferromagnétique dur (aimant permanent), en forme de
barreau, créant à l’extérieur du barreau un champ magnétique He. Un pôle nord et
un pôle sud existant aux extrémités du barreau, ces pôles engendrent à l’intérieur du
matériau un champ magnétique Hd de sens contraire à l’aimantation, donc tendant
à la réduire : le champ Hd est appelé champ démagnétisant (figure 7.13).
L’aimantation rémanente est moins élevée qu’elle ne l’aurait été si le champ déma-
gnétisant n’existait pas. Le point d’équilibre se situe à l’intersection du cycle d’hys-
térésis et de la droite Hd = – kM, appelée droite de recul. Le coefficient k ne dépend
que de la forme de l’aimant et du circuit magnétique (0 ≤ k ≤ 1).
Le champ démagnétisant est plus important pour les aimants larges et courts que
pour ceux qui sont étroits et longs.
Le phénomène de champ démagnétisant joue un rôle très important dans l’enre-
gistrement magnétique.
Chapitre 7 – L’enregistrement magnétique 393

Figure 7.13 — Champ démagnétisant. L’aimantation rémanente est diminuée


par la présence du champ démagnétisant Hd. La droite Hd = – kM s’appelle droite de recul.

Les particules ferromagnétiques employées sont généralement aciculaires (c’est-


à-dire en forme d’aiguilles). Elles s’aimantent mieux dans le sens longitudinal que
transversal d’où l’intérêt de les orienter dans le sens de la vitesse de défilement.
Certaines applications, où l’on utilise la composante transversale ou perpendicu-
laire de l’aimantation, peuvent entraîner l’emploi de particules de formes diffé-
rentes ou une orientation transversale des particules aciculaires dans la couche.
La figure 7.14 représente les cycles d’hystérésis relatifs à trois types d’orientation
dans le cas d’une bande magnétique audio ou vidéo en mode d’enregistrement
longitudinal.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 7.14 — Représentation de l’influence de l’orientation des particulaires


aciculaires d’une bande magnétique en mode d’enregistrement longitudinal :
1. orientées dans la direction de l’enregistrement; 2. non orientées;
3. orientées perpendiculairement à la direction de l’enregistrement
394 Le livre des techniques du son

7.3 Généralités sur l’enregistrement magnétique

7.3.1 Les supports


Les supports massifs (fils ou rubans d’acier) ont été remplacés par des supports
couchés, généralement en matière plastique recouverte d’une couche d’oxyde
magnétique enrobé dans un liant. Il s’agit le plus souvent d’un rouleau de polyester
qui est découpé en bandes après enduction (on dit aussi couchage) et séchage ou
polymérisation. L’oxyde magnétique le plus utilisé est l’oxyde ferrique (Fe2O3).
On emploie aussi le dioxyde de chrome (CrO2) qui possède un champ coercitif et
une aimantation rémanente plus élevés. Ces deux oxydes peuvent cristalliser
sous une forme aciculaire.
Il est apparu par la suite des couches magnétiques métalliques.
Une couche magnétique peut comporter 70 % d’oxyde (en rapport des masses),
mais étant donné que les résines qui servent de liant ont une masse volumique
de l’ordre de 1,2 g /cm3, la teneur en volume est de 40 % seulement, ce qui
explique la différence de valeur de l’aimantation maximale pour l’oxyde en
poudre tassée et l’oxyde couché. La couche magnétique peut se caractériser, en
première approximation, par son champ coercitif (celui de l’oxyde) et par son
flux maximal. Le flux dépend non seulement de la nature de l’oxyde mais de la
quantité contenue dans la couche. Cependant, l’oxyde doit être accessible aux
têtes d’enregistrement et de lecture. Il faut donc que la couche magnétique ait
une teneur en oxyde aussi élevée que possible, sans être trop épaisse, et que sa
surface soit parfaitement lisse.
Citons encore, parmi les qualités ou défauts des bandes magnétiques, leur
résistance à la traction, leur résistance à l’abrasion, leur pouvoir abrasif et,
surtout, leur régularité. Toutes les caractéristiques physiques et magnétiques
des supports doivent, en effet, rester constantes tout au long d’une piste, et
même d’un échantillon à un autre d’un même lot de fabrication. Fort heureuse-
ment, les supports magnétiques offrent l’avantage de pouvoir être essayés avant
emploi.

7.3.2 Le signal enregistré


Le processus d’enregistrement consiste à aimanter la couche magnétique.
L’aimantation longitudinale (parallèle à l’axe de la piste) donne les meilleurs
résultats aux petites longueurs d’onde ( < 50 µm), surtout avec des supports
dont les aiguilles d’oxyde ont été orientées, lors du couchage, dans cette même
direction. On pourrait utiliser, indépendamment, sur une même piste, deux
aimantations, l’une transversale, l’autre longitudinale, mais le signal enregistré
Chapitre 7 – L’enregistrement magnétique 395

dans le sens transversal ne pourrait être qu’un signal auxiliaire. La bande passante
est restreinte et le rapport signal/bruit faible. Ce procédé a cependant été utilisé
pour superposer des signaux de synchronisation au signal audiofréquence.
L’aimantation longitudinale d’une piste enregistrée varie en fonction de l’abscisse
x le long de la piste. Pour un signal sinusoïdal, on peut écrire :
2πx
M = M 0 sin
λ
On peut considérer d’autres grandeurs que l’aimantation, pour caractériser le
signal enregistré (figures 7.15 et 7.16). On sait, en effet, qu’une aimantation non
uniforme est équivalente à une distribution de masses magnétiques de densité
volumique :  = – div M.
Cette formule se réduit ici à :
dM 2πM 0 2πx
ρ=− =− cos
dx λ λ
© Dunod – Toute reproduction non autorisée est un délit.

7.15 — Caractéristiques du signal enregistré. a) Cette figure représente les


variations le long de la piste de l’aimantation M (ou du flux Φ) et de l’induction
superficielle Bs (ou de la densité de masses ρ). Les trois grandeurs M, ρ et Bs
sont représentées en situation (dans ou sur la couche magnétique) respectivement en :
b) aimantation M le long de la prise; c) densité ρ de masses magnétiques;
d) induction superficielle Bs.
396 Le livre des techniques du son

Figure 7.16 — Aimantation M et induction superficielle Bs sur une


bande enregistrée. Le vecteur aimantation M est représenté par le signe >.
L’induction superficielle Bs est la composante de l’induction
perpendiculaire à la couche magnétique.

À condition de supposer que l’épaisseur  de la couche magnétique soit infini-


ment petite à la fois devant la largeur de la piste h et devant la longueur d’onde
, on peut assimiler cette distribution volumique à une distribution superfi-
cielle de charges dont la densité est σ =  . Or, une répartition superficielle de
charges magnétiques crée une induction dont la composante normale vaut
½ µ0 .
Cette composante de l’induction, perpendiculaire à la surface de la couche
magnétique, est appelée induction superficielle et notée Bs . Elle vaut :
µ0 πµ ηM 2πx
Bs = ηρ = − 0 0 cos
2 λ λ
On peut enfin considérer le flux au travers d’une section droite de la piste (aire
égale à h). L’induction au sein de la couche magnétique est B = µ0(H + M). Le
champ H, qui se réduit ici au champ démagnétisant est nul, compte tenu des
hypothèses simplificatrices faites, donc B = µ0 M et le flux de la piste est :
Φ = µ 0ηhM
Pour un signal sinusoïdal, les amplitudes de crête de M, Bs et  sont reliées par la
relation :

Φ 0 = µ 0ηhM 0 = BS 0
π
Nous introduirons ci-après la notion de flux de court-circuit qui est nécessaire
avec les petites longueurs d’onde enregistrées.
Chapitre 7 – L’enregistrement magnétique 397

Exemple : considérons une bande sonore de 6,25 mm de large dont la couche fait
15 µm d’épaisseur et contient 1,8 g/cm3 d’oxyde  Fe2 O3. L’aimantation maximale
Ms est de 70 000 A/m et le flux maximal vaut :

Φ s = µ 0ηhM s = 4 π ×10 −7 ×15 ×10 −6 × 6, 25 ×10 −3 × 70 000


= 8, 3 ×10 −9 Wb
On enregistre les signaux audiofréquences 10 dB environ au-dessous de la satura-
tion, ce qui correspond au niveau de référence de 2 nWb (valeur efficace en signal
sinusoïdal).
On a coutume de rapporter ce flux de 2 nWb à une largeur unitaire de piste, ce qui
donne 320 pWb par millimètre de piste.
Cette unité, le picoweber par millimètre, est équivalente au nanoweber par
mètre (de largeur de piste). Cette dernière unité est seule légale bien que moins
pratique.
Calculons pour terminer l’induction superficielle correspondant à ces 2 nWb
( 320 nWb/m) pour une longueur d’onde de 190 µm (1 kHz à 19 cm/s) :
π 3,14
Bs = Φ= −3 −6
× 2 ×10 −9  5mT
hλ 6, 25 ×10 ×190 ×10

7.4 Étude simplifiée des processus

7.4.1 Les têtes


La piste est parcourue par trois têtes qui assurent respectivement l’effacement,
l’enregistrement et la lecture (figure 7.17).
© Dunod – Toute reproduction non autorisée est un délit.

Figure 7.17 — Principe d’un enregistreur magnétique.


398 Le livre des techniques du son

Une tête est un circuit magnétique en forme d’anneau coupé par un entrefer
étroit. L’entrefer est obtenu par intersection d’une cale de matériau non magné-
tique, et son plan est, en principe, perpendiculaire à l’axe de la piste. Des impératifs
de construction font qu’il existe à l’arrière un second entrefer.
La piste ne passe pas à l’intérieur de l’entrefer mais devant lui (figure 7.18), ce qui
est la seule façon de réduire la zone active de la tête et d’utiliser l’aimantation
longitudinale. Le matériau constituant la tête doit avoir une grande perméabilité.

Figure 7.18 — Principe de la lecture. Cette figure


montre comment, à l’approche des pièces polaires de la tête, un dipôle porté
par la bande voit ses lignes de champ comme « aspirées ». Elles se referment
à travers la tête au moment où le dipôle passe devant l’entrefer.

On utilise du mumétal feuilleté ou de la ferrite. La ferrite a une moins bonne


perméabilité, mais elle est beaucoup plus dure (pratiquement inusable), et a peu
de pertes par courants de Foucault, d’où son intérêt dans les têtes d’effacement.
La tête comporte enfin un bobinage électrique qui, selon le cas, reçoit du courant
(enregistrement et effacement) ou fournit une force électromotrice d’induction
(lecture).
La réluctance du circuit magnétique constitué par une tête, est équivalente à celle
de son entrefer avant : R 1= δ µ 0S . La réluctance de l’entrefer arrière est en effet
petite, compte tenu de la grande section de celui-ci, sauf dans le cas où sa largeur
est beaucoup plus grande que , ce qui arrive quand on veut resserrer les tolé-
rances de fabrication.
Chapitre 7 – L’enregistrement magnétique 399

Le flux créé dans la tête par une force magnétomotrice NI est :


NI µ 0SNI
Φ= 
R δ
Le champ magnétique dans l’entrefer est :
Φ NI
H= 
µ 0S δ
La self-inductance d’une tête est enfin :

N Φ N 2 µ 0 N 2S
L= = 
I R δ

7.4.2 L’effacement
La tête d’effacement comporte au moins un entrefer large (de l’ordre de 100 µm) et
souvent même deux entrefers. Elle est alimentée en courant alternatif de haute
fréquence (60 à 120 kHz en général). En passant devant l’entrefer, la piste subit de
nombreuses alternances du champ magnétique alternatif qui règne dans cette zone.
Ce champ décroît quand la piste s’éloigne de l’entrefer. L’effacement est de bonne
qualité si l’intensité maximale du champ est suffisante pour saturer l’oxyde (plus
de 50 000 A/m) et si la décroissance du champ est suffisamment progressive.
L’oxyde décrit ainsi un cycle d’hystérésis dont l’amplitude tend lentement vers
zéro, ce qui le laisse dans un état parfaitement neutre.
Les procédés d’effacement à aimant permanent sont abandonnés car ils laissent
sur la piste une aimantation qui est modulée en amplitude par les défauts d’ho-
mogénéité de la couche d’oxyde, ce qui se traduit par du bruit de fond. Il est à noter
qu’un champ alternatif dissymétrique (oscillateur donnant des harmoniques de
rang pair) conduit au même défaut.
© Dunod – Toute reproduction non autorisée est un délit.

Exemple : une tête d’effacement comportant deux entrefers de 100 µm, et dont la


section au niveau des entrefers est de 6 mm2, a une réluctance :

δ 200 ×10 −6
R= = −7 −6
 3 × 107 A Wb
µ 0 S 4 π × 10 × 6 × 10
Pour produire un champ de 100 000 A/m, il faut une force magnétomotrice :

NI = H = 105 × 200 × 10–6 = 20 A


Ce que l’on peut obtenir avec N = 50 spires et I = 0,4 A.
400 Le livre des techniques du son

La self-inductance de cette tête est alors :

N 2 50 × 50
L= =  0, 08 mH
R 3 ×107
Son impédance à 100 kHz est de 50  environ et la tension d’effacement néces-
saire de 20 V. La puissance active dissipée par la tête n’est fort heureusement pas
de 8 W. La tête fait partie d’un circuit accordé, série ou parallèle, selon l’impé-
dance de source de l’oscillateur.

7.4.3 Enregistrement
Le champ créé dans l’entrefer par le courant d’enregistrement est H = NI/. Le
champ auquel la piste est soumise, est nettement plus faible, puisque la bande
passe à l’extérieur de l’entrefer. Cette valeur est comprise entre 0,5 H pour la
surface de la couche magnétique et 0,15 H pour les couches profondes.
Sous réserve que l’aimantation prise par l’oxyde soit proportionnelle au champ
maximal rencontré, le signal enregistré est proportionnel au signal électrique
appliqué à la tête :

M = k NI/
Cette transformation du champ en aimantation de la piste constitue une des prin-
cipales difficultés de l’enregistrement magnétique. Celle-ci a été résolue grâce à la
polarisation alternative, procédé qui consiste à superposer au signal utile un
signal haute fréquence de grande amplitude, qui est fourni généralement par l’os-
cillateur d’effacement.
Exemple : une tête d’enregistrement ayant un entrefer de 15 µm de long et de
6 mm2 de section, a une réluctance :

R = 2 ×106 A Wb

Pour produire un champ de 40 000 A/m, il faut une force magnétique NI = 0,6 A,
soit par exemple, 10 mA et 60 tours de fil. La self-inductance de cette tête est de
1,8 mH et son impédance d’environ 110  à 10 kHz et 1 100  à 100 kHz. Il lui
faut une tension de polarisation de 11 V environ.

7.4.4 Lecture
Pour la piste, la tête de lecture doit constituer un court-circuit magnétique. Dès
lors, comme le montre la figure 7.18, seule la notion de piste située en face de
l’entrefer contribue au flux utile capté par la tête.
Chapitre 7 – L’enregistrement magnétique 401

La force magnétomotrice de cet élément de piste est :

F0 = ∫ M ( x ) dx
surδ

Donc F0 = M si l’on suppose M constant d’un bord à l’autre de l’entrefer, c’est-à-
dire si  >> .
La réluctance du circuit se réduit à celle de l’élément utile de piste :
δ
R =
µ 0 ηh
et le flux dans la tête est :
F0
Φτ = = µ 0ηhM
R
donc égal au flux de la piste. La piste se déplace à la vitesse V par rapport à la tête,
et si l’aimantation varie le long de la piste (par exemple sinusoïdalement), le flux
dans la tête varie de la même façon en fonction du temps t :
2πVt
Φ τ = µ 0ηhM 0 sin
λ
Il apparaît donc une force électromotrice d’induction aux bornes de la tête :

e = −N = 2 NhVBs
dt
L’amplitude maximale du signal lu en régime sinusoïdal est :

E0 = N0 = 2NhVBso


Exemple : soit une tête de lecture dont l’entrefer a 4 µm de long, 3 mm2 de section,
© Dunod – Toute reproduction non autorisée est un délit.

et qui comporte 200 spires.


Sa self-inductance est de 40 mH et son impédance à 1 000 Hz de 250 . Sa tension
de sortie à 1 000 Hz, pour un flux de piste de 2 nWb, est :

e = N = 200 × 6,28 × 1 000 × 2 × 10–9 = 2,5 mV


402 Le livre des techniques du son

7.4.5 Égalisation de lecture


Pour un enregistrement à courant constant, l’aimantation et le flux sur la piste
sont également constants, c’est-à-dire d’amplitude indépendante de la fréquence.
En raison des pertes d’enregistrement cela n’est rigoureux que pour les grandes
longueurs d’onde.
L’induction superficielle augmente linéairement avec la fréquence du signal enre-
gistré, de même que la force électromotrice délivrée par la tête de lecture. En
coordonnées logarithmiques, la pente des courbes représentatives de e et Bs en
fonction de la fréquence est de 6 dB/octave.
Si l’on veut restituer fidèlement le signal initial, il faut faire suivre la tête de lecture
d’un préamplificateur correcteur dont le gain décroît proportionnellement à la
fréquence (figure 7.19).
Comme il est impossible d’enregistrer les fréquences élevées à un niveau aussi fort
que les fréquences moyennes et basses, on est souvent conduit à les enregistrer à
induction superficielle constante.
Les égalisations de lecture sont modifiées en conséquence, comme le montre la
figure 7.19 (courbes en tiretés).

Figure 7.19 — Égalisations de lecture. Processus idéal (sans pertes) : dans un


processus idéal, on enregistrerait à courant constant (indépendant de la fréquence)
pour obtenir une aimantation donc un flux constant : courbe I (qui est droite).
Il en résulterait pour ρ, Bs et e une croissance de 6 dB/octave : courbe II. Le gain
devrait donc décroître de 6 dB/octave : courbe III. Processus réel : en raison
d’importantes pertes d’enregistrement et malgré un courant d’enregistrement corrigé
(courbe I bis), l’aimantation et le flux décroissent avec la fréquence (courbe I ter). Il en
résulte pour Bs et e la courbe II bis et pour le gain normalisé de lecture, la courbe III bis.
Chapitre 7 – L’enregistrement magnétique 403

7.5 Théorie de la lecture


La théorie simplifiée du § 7.4.4 néglige un certain nombre de facteurs qui intro-
duisent des pertes dans le processus de captation et de transformation du flux de
la piste.
Ces pertes peuvent provenir des dimensions finies de l’entrefer, de son orienta-
tion imparfaite, du mauvais contact tête-piste, etc.

7.5.1 L’effet d’entrefer


Si la largeur  de l’entrefer n’est pas négligeable devant la longueur d’onde, on doit
tenir compte des variations de la phase du signal entre un bord et l’autre de l’entrefer.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 7.20 — Effet d’entrefer.δ largeur d’entrefer; λ longueur d’onde du signal


enregistré; φ flux dans la tête; φ(x0) flux de bande au centre de l’entrefer.
Si l’on n’a pas δ << λ, la tête lit simultanément des éléments de signal déphasés.
Le flux résultant dans la tête φ est inférieur à φ(x0) et s’annule même pour δ = λ.

On a donc, pour la force magnétomotrice d’une longueur  de piste centrée au


point d’abscisse x0 (figure 7.20) plusieurs forces magnétomotrices en série mais
déphasées les unes par rapport aux autres d’où un affaiblissement dont la valeur est
404 Le livre des techniques du son

représentée sur la figure 7.21. La longueur d’onde c = , appelée longueur d’onde


de coupure, correspond à une extinction du signal. Pour  = 2, la perte est de 4 dB.
En pratique, l’entrefer magnétique, donc aussi la longueur d’onde de coupure c
sont légèrement supérieurs (de 10 % environ) à l’entrefer géométrique de largeur .

Figure 7.21 — Courbe des effets d’entrefer et d’azimut.

Une formule d’entrefer approchée est donnée par :


2 2
λ   F
E  14, 3  c  = 14, 3  
 λ
(en dB)
 Fc 
valable lorsque  est nettement supérieur à c et dans laquelle E est exprimé en
décibels.
Les entrefers de lecture font couramment de 2 à 5 µm de large ; cela signifie que
les longueurs d’onde minimales exploitables dans ces conditions, sont de l’ordre
de 4 à 10 µm, ce qui correspond à des fréquences maximales respectives de 50 000
et 20 000 Hz pour la vitesse courante de 19 cm/s. Une bande passante jusqu’à
1 MHz exige une vitesse de l’ordre de 4 m/s.
Dans le cas de signaux rectangulaires (enregistrement numérique ou modulation
d’impulsions), l’influence de l’effet d’entrefer est évidente : les temps de montée des
fronts sont allongés et égaux à /V, durée de la traversée de l’entrefer par le front.

7.5.2 L’effet d’azimut


Dans le cas de l’enregistrement à aimantation longitudinale, les entrefers d’enre-
gistrement et de lecture sont perpendiculaires à l’axe de la piste.
Supposons que l’entrefer de lecture soit incliné par rapport à cette perpendicu-
laire, d’un angle  (figure 7.22). On dit qu’il y a erreur d’azimut. Il en résulte un
déphasage entre les flux captés sur les deux bords de la piste.
Chapitre 7 – L’enregistrement magnétique 405

Figure 7.22 — Effet d’azimut.

Les forces magnétomotrices des différents éléments de pistes sont ici mises en
parallèle mais le résultat est le même que ci-dessus pour l’effet d’entrefer, avec
toutefois deux effets supplémentaires. Du fait des instabilités de défilement du
support, l’azimut est fluctuant autour de sa valeur moyenne. Une instabilité
d’azimut a peu d’influence pour un réglage correct. Autour d’un mauvais réglage,
elle provoque une fluctuation de niveau importante.
L’autre effet se manifeste dans les systèmes multipistes et consiste en un dépha-
sage entre les signaux lus sur des pistes différentes. Si h est la distance entre les
axes des deux pistes, le décalage temporel entre les deux signaux est htg/V, soit,
pour des signaux sinusoïdaux de longueur d’onde , un déphasage angulaire de
2 htg/ (en radians).
© Dunod – Toute reproduction non autorisée est un délit.

7.5.3 Effets d’éloignement et d’épaisseur


Pour diverses raisons (mauvais état de surface de la tête ou de la piste, déforma-
tions du support, présence de poussières, etc.), le contact entre la piste et la tête de
lecture, peut être imparfait et le court-circuit magnétique évoqué au § 7.4.4
n’existe plus.
La zone d’exploration de la tête devient plus large que son entrefer et à la
réluctance de la piste, s’ajoute celle de l’espace compris entre la tête et la piste.
Il en résulte un affaiblissement du flux capté par la tête. Le calcul de cet affai-
blissement est relativement compliqué mais le résultat est remarquablement
406 Le livre des techniques du son

simple dans le cas d’un signal sinusoïdal enregistré sur une piste mince et
large (h >>  >> ) :

 ε
Φ ε = Φ 0 exp  −2π 
 λ
avec :
• ε flux capté par la tête ;
• 0 flux de la piste ;
•  distance séparant la tête de la piste.
Le facteur d’éloignement peut être évalué grâce à la formule pratique :
∆  55ε λ

dans laquelle  est exprimé en décibel.


Les conséquences de l’effet d’éloignement sont nombreuses :
• Aux petites longueurs d’onde (  ), le contact entre tête et piste est néces-
saire si l’on veut reproduire avec précision le niveau enregistré, et il subsiste
encore des pertes de niveau accidentelles dues à des défauts localisés ou à
des poussières.
• Aux grandes longueurs d’onde ( >> ), le phénomène joue en sens
inverse et on peut lire un signal à une certaine distance. La diaphonie
entre pistes vient essentiellement de là, pour les fréquences basses, de
même que certaines irrégularités constatées dans la courbe de réponse,
lorsque la longueur d’onde atteint les dimensions des pièces polaires de
la tête.
• Enfin, l’effet d’épaisseur est dû à l’éloignement systématique des zones
profondes de la couche d’oxyde. On peut le calculer, en supposant l’aiman-
tation uniforme, par sommation de l’effet d’éloignement sur toute l’épais-
seur de la couche magnétique.

7.5.4 Autres effets de lecture


Les trois effets principaux qui viennent d’être étudiés (entrefer, azimut, éloigne-
ment) ne dépendent que de la longueur d’onde du signal enregistré. Ils conduisent
à des pertes qui varient dans le même sens que le rapport f /V.
Il existe aussi des pertes en fréquence, qui peuvent provenir de l’hystérésis des
pièces polaires de la tête, des courants de Foucault et, surtout de l’adaptation de
Chapitre 7 – L’enregistrement magnétique 407

l’impédance inductive de la tête avec la capacité et la résistance d’entrée du préam-


plificateur. On limite ces pertes en utilisant, pour les têtes, des matériaux à faible
hystérésis, et feuilletés, s’ils sont conducteurs.
Le choix de l’impédance de la tête est une question de compromis. L’efficacité croît
comme le nombre de tours de fil N et l’inductance est égale à N 2/R. Il faut essen-
tiellement, éviter que la résonance ait lieu en dessous de la fréquence maximale
utilisée.
Les pertes en fréquence peuvent se mesurer en attaquant la tête à flux constant.
On utilise pour cela, une boucle d’induction alimentée à courant constant en
fonction de la fréquence.

7.6 Théorie de l’enregistrement


Le processus d’enregistrement présente deux groupes de difficultés : d’une part, la
transformation du champ produit par la tête en aimantation de la piste est non
linéaire, ce qui est inadmissible pour l’enregistrement analogique ; d’autre part, à
l’enregistrement comme à la lecture, il existe des pertes diverses, liées à la
fréquence ou à la longueur d’onde, qui doivent être évaluées et corrigées.

7.6.1 Courbe de transfert


La courbe de transfert donne l’aimantation rémanente prise par la piste en fonc-
tion du champ magnétique maximal appliqué, et après suppression de celui-ci.
Cette courbe peut se construire point par point à partir du réseau complet des
cycles d’hystérésis. Pour un matériau initialement effacé, et aux grandes
longueurs d’onde (supérieures à 200 µm) elle est très proche de la courbe de
première aimantation avec des valeurs d’aimantation rémanente légèrement
plus faibles.
Lorsque les longueurs d’ondes enregistrées sont petites ( < 50 µm), le champ
© Dunod – Toute reproduction non autorisée est un délit.

démagnétisant devient grand et la courbe de transfert, tout en gardant la même


forme, se situe nettement en dessous de la courbe de première aimantation. C’est
le phénomène de désaimantation des petites longueurs d’onde.
Pour un matériau dur, seul utilisable à des fins d’enregistrement, la courbe de
transfert a une pente très faible à l’origine et une pente maximale au voisinage du
champ coercitif. Il en résulte une distorsion importante du signal enregistré.
On a pu, dans les premiers temps de l’enregistrement magnétique, s’affranchir de
cette difficulté par le procédé de polarisation continue qui consiste à superposer
un courant continu au signal utile. On utilise ainsi la portion linéaire de la courbe
408 Le livre des techniques du son

de transfert. Les distorsions sont faibles mais le niveau de bruit de fond est relevé
et l’amplitude maximale du signal enregistré réduite, d’où un mauvais rapport
signal/bruit. De plus les crêtes positives du signal sont enregistrées sur des parti-
cules à plus fort champ coercitif que les crêtes négatives.
On peut augmenter l’amplitude du signal enregistré en partant d’un matériau non
plus effacé mais saturé dans un sens et en le polarisant dans l’autre sens par un
champ continu égal à Hc . Malgré le gain ainsi obtenu, la polarisation continue a été
rapidement abandonnée au profit de la polarisation alternative haute fréquence.

7.6.2 Polarisation alternative


Le procédé de la polarisation alternative consiste à superposer, au champ à enre-
gistrer, un champ alternatif intense (de l’ordre de grandeur de Hc) et dont la
fréquence est relativement grande. Cette fréquence et ses produits d’intermodu-
lations avec le signal utile doivent se situer au-dessus de la bande de fréquences
du signal utile.
On applique le champ de polarisation en envoyant dans la tête d’enregistrement
un courant sinusoïdal superposé au courant d’enregistrement. Le courant de
polarisation est environ dix fois plus intense que le courant d’enregistrement.
La polarisation alternative a un double effet : elle augmente l’efficacité de l’enre-
gistrement (cela, surtout, pour des signaux utiles de faible amplitude) et, corréla-
tivement, elle améliore la linéarité du processus.
Le courant de polarisation optimal est celui qui donne simultanément l’efficacité
maximale et la distorsion minimale aux fréquences basses et moyennes. L’effica-
cité maximale aux fréquences élevées correspond à un courant de polarisation
plus faible. Cela résulte du fait que le champ de polarisation créé par la tête est
plus intense à la surface de la couche d’oxyde qu’en profondeur et que c’est préci-
sément en surface que se trouvent les fréquences élevées.
Le réglage de polarisation est particulièrement important. Il dépend essentielle-
ment de la coercivité de l’oxyde et de l’épaisseur de la couche. Il influe non seulement
sur le niveau enregistré et sur la distorsion, mais aussi sur la courbe de réponse
amplitude-fréquence, et dans une certaine mesure, sur la réponse phase-fréquence.
Cette influence sur la phase provient du fait que l’inscription du signal se fait à la
sortie de l’entrefer, à l’endroit précis où le champ de polarisation devient inférieur
au champ coercitif.
Or, cet endroit est repoussé d’autant plus loin du centre de l’entrefer que le réglage
de polarisation est plus fort. Une explication sommaire du processus de la polari-
sation alternative est donnée par la figure 7.23. On voit que, grâce à la polarisa-
Chapitre 7 – L’enregistrement magnétique 409

tion, un signal de très faible amplitude arrive à atteindre des particules fortement
coercitives.
Seule la représentation de Preisach permet d’interpréter complètement le phéno-
mène, mais elle sort du cadre de cet ouvrage.

Figure 7.23 — Processus d’enregistrement (avec et sans polarisation).


I. Champ rencontré lors de la traversée de l’entrefer, sans polarisation.
© Dunod – Toute reproduction non autorisée est un délit.

II. Champ rencontré avec polarisation alternative P superposée.


III. Élément de cycle décrit sans polarisation.
IV. Cycles décrits avec polarisation : l’aimantation MR est augmentée.

7.7 Mesures et normes dans l’enregistrement


magnétique
La caractéristique représentative du signal enregistré est le flux de la piste. Or, le
flux des couches profondes n’est pas entièrement capté, pour les petites longueurs
d’onde, même avec une tête de lecture idéale. Il faut donc ne considérer que le flux
410 Le livre des techniques du son

accessible pour une tête assurant un court-circuit magnétique : c’est ce qu’on


appelle le flux de court-circuit. Il se confond, aux grandes longueurs d’onde
( >> ), avec le flux total. Pour le mesurer, on enregistre sur deux bandes
identiques, et dans les mêmes conditions (même tête, même réglage de polarisa-
tion et même courant d’enregistrement), une fréquence donnée relativement
basse (400 Hz, à 19 cm/s, par exemple) et une fréquence nulle, c’est-à-dire un
courant continu.
Étant donné que les pertes d’enregistrement ne se manifestent plus, pour ces
fréquences, le flux enregistré est le même sur les deux bandes et on le mesure sur
celle qui est aimantée uniformément de la façon suivante : on sectionne un grand
nombre de spires, sur la périphérie de la bobine, et on les déploie de façon à former
un faisceau rectiligne. On a ainsi un aimant permanent que l’on mesure au flux-
mètre, et pour avoir le flux de la bande, on divise le résultat obtenu par le nombre
de brins de bande.
La bande ainsi étalonnée permet d’étalonner des chaînes de lecture et de
mesurer, par comparaison, le niveau enregistré sur d’autres supports.
La détermination du niveau enregistré aux petites longueurs d’onde (celles
pour lesquelles on n’a pas   ) se fait de manière comparative, à l’aide d’une
tête de lecture à faibles pertes, en restant à l’intérieur de la gamme de fréquences
où ces pertes (pertes en fréquence et effet d’entrefer) sont connues et corrigées
électroniquement dans le préamplificateur de lecture. On peut, avec cette tête
de lecture corrigée, déterminer les pertes totales d’une chaîne d’enregistre-
ment. Elles englobent tout ce qui est lié au processus d’enregistrement et au
support, donc les pertes par effet d’épaisseur aussi bien à l’enregistrement qu’à
la lecture.
Les pertes de lecture sont corrigées à la lecture, mais les pertes d’enregistrement
sont, en général, trop importantes pour être corrigées intégralement à l’enregis-
trement. Cela conduirait, en effet, à enregistrer tout le spectre à flux constant,
donc à atteindre la saturation pour les fréquences élevées.
Une solution consisterait à faire le bilan des pertes du processus complet enregis-
trement-lecture et à partager ces pertes de façon à utiliser le même amplificateur
à l’enregistrement et à la lecture ; mais ce procédé n’a aucune chance d’utiliser de
façon optimale les caractéristiques du support. De plus, il ne permet pas de
normaliser une courbe du niveau enregistré en fonction de la fréquence, alors
que cette normalisation est indispensable pour les échanges de supports enregis-
trés. On est donc conduit à fixer une courbe du flux enregistré qui donne un bon
compromis entre bruit et distorsion, compte tenu du spectre et des exigences
particulières du signal. Cette courbe, doit de plus, être facile à définir et à réaliser
Chapitre 7 – L’enregistrement magnétique 411

dans les amplificateurs correcteurs. On choisit le plus souvent une courbe où le


flux des fréquences élevées décroît de 6 dB/octave, c’est-à-dire varie comme l’im-
pédance d’un circuit RC parallèle.
Selon la vitesse utilisée et la qualité recherchée, cette décroissance peut
commencer à une fréquence f0 plus ou moins élevée. Une telle norme d’enregis-
trement est entièrement définie par la constante de temps (exprimée en microse-
condes) d’un circuit RC :
1
τ = RC =
2πf 0
Les courbes correspondantes (dites courbes en microsecondes), lorsqu’elles sont
tracées en coordonnées logarithmiques (dB/log10 f  ), comportent une asymp-
tote horizontale et une asymptote oblique de pente 6 dB/octave. La courbe
passe à 3 dB du point d’intersection des asymptotes, et à 1 dB des asymptotes
pour une octave d’écart de chaque côté. À vitesse égale, une constante de temps
plus grande donne moins de distorsion aux fréquences élevées mais un plus
mauvais rapport signal/bruit. Quand on réduit la vitesse d’enregistrement, on
réduit aussi la bande passante et le niveau enregistré aux fréquences élevées, ce
qui implique une augmentation de la constante de temps. Quand on lit un
support enregistré à une vitesse différente de la vitesse d’enregistrement, la
courbe de correction de lecture doit subir la même transposition de fréquence
que le signal.
En définitive, les pertes d’enregistrement sont corrigées en partie seulement par
l’amplificateur d’enregistrement et une fraction normalisée de ces pertes est
reportée dans l’amplificateur de lecture.
Le courant d’enregistrement remonte aux fréquences élevées, mais cette remontée
n’est pas une préaccentuation ; c’est une compensation partielle de pertes, et,
malgré elle, le flux enregistré décroît avec la fréquence.
© Dunod – Toute reproduction non autorisée est un délit.

7.8 Bibliographie
[1] R. Buffard. Enregistrement magnétique – Cours de l’ENST.
[2] M. Calmet. Technique de l’ingénieur : l’enregistrement magnétique.
[3] ortf. Une nouvelle bande pour le contrôle des réglages azimut des magnétophones –
Étude ORTF no 9152.
[4] R.E.B. Hickman. L’enregistrement magnétique – Dunod (1958).
[5] C.D Mee. The physics of magnetic recording – North Holland (1964).
412 Le livre des techniques du son

[6] R.L. Wallace. The reproduction of magnetically recorded signals – Bell System Technical
J. (oct. 1951).
[7] G. Schwantke. Der aufsprechvoyang beim magnetton – Verfahren in Preisach darstellung
– Frequenz no 12 (déc. 1958).
[8] C.D. Mee et E.D. Daniel. Magnetic Recording – Mac Graw Hill (1987).
[9] E. du Tremolet de Lacheisserie. Magnétisme : matériaux et applications – Coll. Grenoble
Sciences, EDP Sciences (2000).
Chapitre 8

La technologie audionumérique

Alain Fromentel
Ingénieur diplômé Supélec.
Directeur des Études de l’EFREI – École d’Ingénieurs

Une source sonore génère une pression acoustique vibratoire variable dans le
temps. Le microphone capte ces variations, les reproduit grâce aux mouvements
de sa membrane et engendre un courant électrique dont les variations sont à
l’image des vibrations. Un amplificateur électrique augmente l’amplitude de ces
mêmes vibrations, sans pour autant en changer la nature (fréquence, spectre,
timbre, durée conservés). Enfin, la membrane du haut-parleur produit des vibra-
tions mécaniques à l’image toujours des vibrations initiales, à l’amplitude près et
génère donc un son. Ainsi, ces étapes successives produisent des signaux analo-
gues (c’est-à-dire identiques à un facteur multiplicatif près) : voilà l’origine de l’ex-
pression « techniques analogiques ». Les différents systèmes électriques et
électroacoustiques de la chaîne de traitement du son produisent constamment
une dégradation du signal sous la forme de l’addition d’un bruit (fonction aléa-
toire), d’une non-linéarité et d’une irrégularité de la bande passante (voir
chapitre 1 « Introduction à la technologie audiofréquence », tome 2). De ce fait, le
signal subira de façon incontournable et irréversible une dégradation croissante
au fur et à mesure de son trajet dans les systèmes. Toutefois, il faut remarquer que
ces dégradations entraîneront un signal modifié par rapport au signal initial, mais
414 Le livre des techniques du son

représentatif d’un son que reproduira le haut-parleur, sans qu’aucun procédé (en
général) ne puisse détecter ni, encore moins, corriger les défauts introduits : par
exemple, comment un système pourrait faire la différence entre un son déformé à
cause d’une distorsion « naturelle » d’un amplificateur (non-linéarité) et le même
son modifié volontairement grâce à un effet spécial nommé « boîte de distor-
sion » ? En effet, les seules caractéristiques que l’on peut associer à un signal analo-
gique représentant un son résident en : une fonction du temps, de valeur moyenne
nulle, dont les valeurs sont comprises entre deux extrêmes (négative et positive)
et dont le spectre est composé de fréquences comprises entre 20 Hz et 20 000 Hz.
Il y a une infinité de signaux répondant à ces critères et de même une infinité de
déformations possibles. Ces faits illustrent les limites des technologies analo-
giques en ce sens où une déformation involontaire d’un son sera en général non
détectable et encore moins corrigible (un amplificateur peut détecter une satura-
tion de ses circuits et provoquer l’allumage d’un voyant lumineux, néanmoins, le
son est déformé !). Il en est de même d’un bruit additif, qu’il est rigoureusement
impossible de soustraire… car ce bruit est une fonction aléatoire !
L’originalité des « technologies numériques » est d’introduire un déterminisme
(c’est-à-dire une connaissance a priori) le plus important possible au niveau des
signaux traités de manière à pouvoir détecter puis corriger au fur et à mesure les
défauts introduits par le système de traitement. Alors que les signaux analo-
giques, comme nous l’avons vu précédemment, n’ont pas de caractéristiques
déterminantes, il faudra au contraire définir les signaux numériques de façon
aussi précise (valeurs bien définies) et restrictive (un minimum de valeurs) que
possible. Ainsi si le signal analogique peut prendre toutes les valeurs entre deux
extrêmes, le signal numérique ne pourra prendre qu’un nombre fini de valeurs
distinctes en tentant de limiter au maximum l’incertitude, d’où le choix de la
représentation binaire qui est en plus facile à réaliser électriquement (un courant
passe ou ne passe pas). De même, si la fonction représentant le signal analogique
peut prendre une infinité de formes, celle représentant le signal numérique ne
prendra qu’une seule forme prédéfinie. Cette dernière propriété montre alors l’ai-
sance de détection d’une déformation involontaire d’un signal numérique et de
même, la possibilité de régénération de la forme « correcte ».
Ainsi, si l’on opère une transformation du signal représentatif d’un son (issu d’un
microphone par exemple), à l’origine sous sa forme naturelle de vibration (par
abus de langage, on dit « forme analogique ») en un signal numérique muni des
propriétés évoquées plus haut, ce signal numérique sera traité dans les systèmes
électriques sans subir de dégradations telles que bruit additif, distorsion et limi-
tation de bande passante. En fin de traitement, le signal numérique sera retrans-
formé en un « signal analogique » qui fera vibrer la membrane du haut-parleur.
En particulier, si le système est destiné à stocker un son ou à dupliquer un son, la
Chapitre 8 – La technologie audionumérique 415

restitution ou, respectivement, la copie seront strictement identiques à l’original,


ce qui n’est jamais le cas en technologies analogiques.
La technologie audionumérique réside en trois points :
• convertir le signal analogique d’origine en un signal numérique (suite de
nombres) ;
• réaliser les traitements qui résideront de ce fait en des calculs sur ces
nombres
• convertir le signal numérique en un signal analogique car les extrémités de
la chaîne de traitement sont analogiques puisqu’il s’agit de vibrations
acoustiques (voir chapitre 1) : en effet, les microphones et les haut-parleurs
sont des transducteurs analogiques.

8.1 Signal numérique


Les remarques précédentes conduisent à choisir un signal électrique qui soit
parfaitement identifiable et régénérable, aussi bien en valeurs qu’en durées,
associé à des valeurs en nombre fini. La caractéristique la plus basique d’un
courant (ou d’une tension) électrique étant son existence ou non ou encore sa
polarité (positive ou négative), le choix binaire s’est imposé naturellement et les
chiffres 0 et 1 ont été choisis avec la correspondance suivante :
• 0 = courant électrique (ou tension) de valeur négative ;
• 1 = courant électrique (ou tension) de valeur positive.
Remarquer que l’on évite d’employer la valeur nulle car elle n’est pas significative
d’une valeur binaire, mais plutôt d’une absence de valeur binaire (valeur nulle =
« rien » = « pas d’information » = « système à l’arrêt » = « pas de transmission »).
À ce stade, les chiffres 0 et 1 ne représentent que des symboles conventionnels,
alors que les valeurs représentent des réalités physiques, avec une règle élémen-
© Dunod – Toute reproduction non autorisée est un délit.

taire de correspondance.
Ce choix autorise à subir une modification involontaire de valeur (due au bruit
additif, à la non-linéarité, à une limitation de bande passante) sans pour autant
modifier le chiffre binaire en faisant tout simplement le choix préalable d’une
valeur de seuil de discrimination. Prenons, pour illustrer les valeurs suivantes :
chiffre binaire 0 associé à –10 V et chiffre binaire 1 associé à +10 V ; des perturba-
tions involontaires peuvent entraîner des modifications de ces valeurs (par
exemple, –10 devient –8 et +10 devient +11 à cause de perturbations électriques).
Le choix évident ici d’un seuil de discrimination égal à 0 V permet d’affirmer sans
416 Le livre des techniques du son

équivoque que le chiffre binaire 0 est bien resté 0 et que le chiffre binaire 1 est bien
resté 1. En effet, une simple évaluation du signe de la valeur permet de restituer
les chiffres binaires corrects.
En règle générale, on se fixe ainsi deux niveaux électriques notés H (High, pour
niveau haut) et L (Low, pour niveau bas) ainsi qu’une règle de correspondance
avec les chiffres 0 et 1. Ces derniers se nomment bit (contraction de binary digit)
ou e.b. (initiales de « élément binaire »). Puis on définit le signal numérique
comme étant la fonction du temps, représentative d’une suite de bits prenant
deux valeurs (H ou L) avec, en plus, une propriété de durée qui augmentera encore
plus le déterminisme : la transition entre les valeurs H et L ne pourra se faire qu’à
des instants bien précis, multiples d’un temps fondamental nommé période
d’horloge. Cette horloge (clock) cadence ainsi les variations du signal numérique
(figure 8.1). La règle de définition de la fonction du temps est nommée « codage ».
Le résultat est appelé « code » ou « représentation ».
La cadence est ici représentée graphiquement par des flèches marquant l’instant
de la transition éventuelle.

Figure 8.1 — Allure d’un signal numérique.

Il existe plusieurs codages normalisés en fonction des propriétés que l’on souhaite
adjoindre au signal numérique :
• occupation minimale de la bande de fréquences : il est toujours intéressant
que cette bande de fréquences (dite aussi « étendue spectrale ») soit mini­
male, surtout pour les systèmes de transmission pour lesquels « la fré­quence
est une ressource rare et précieuse », ce qui est le cas des télécom­
munications. Ceci s’obtient en minimisant le nombre de transitions : en
effet, la bande de fréquences occupée est significative des variations d’un
signal par unité de temps (dérivée de la fonction) – théorème de Fourier ;
• transition systématique pour chaque nouveau bit : cette propriété peut
s’avérer intéressante pour transmettre de façon sûre la cadence d’horloge
d’un système à un autre par l’intermédiaire du seul signal numérique, on
Chapitre 8 – La technologie audionumérique 417

dit alors que l’horloge est intrinsèque dans ce signal (remarquer que cette
condition entraîne une propriété inverse de la précédente) ;
• spectre nul aux basses fréquences : cette propriété est indispensable si le
signal numérique doit traverser un transformateur par exemple (il s’agit ici
d’une propriété électrique liée au transformateur), etc.
Ces différentes propriétés pouvant être contradictoires quant au choix d’un code,
ce dernier est choisi en fonction du système de traitement et peut être le résultat
d’un compromis. Il n’y a aucun caractère d’universalité car ce n’est pas nécessaire.
Au besoin, la conversion d’un type de codage à un autre est très aisée au niveau
des interfaces des systèmes.
Nous allons décrire sommairement quelques codes couramment employés
(figure 8.2).

Figure 8.2 — Exemples de codes numériques.


© Dunod – Toute reproduction non autorisée est un délit.

La représentation NRZ (no return to zero) est la plus triviale puisqu’à « 0 » elle fait
correspondre le niveau bas et à « 1 » le niveau haut. La transition se produit aux
instants d’horloge.
La représentation « biphase » (dite aussi Manchester) fait correspondre à « 0 » une
transition L  H et à « 1 » une transition H  L, ces deux transitions sont seules
significatives du bit et ont lieu à mi-temps de la période d’horloge. Il est à noter
que le choix de cette représentation entraîne l’existence systématique d’au moins
une transition par bit, quelle que soit la suite de bits (ce qui n’est pas le cas en
NRZ). Enfin, le code biphase possède un spectre nul aux basses fréquences, mais
418 Le livre des techniques du son

la bande de fréquences occupée est double de celle occupée par le codage NRZ. Ce
code biphase est particulièrement utilisé lorsque la récupération du rythme
d’horloge est fondamentale.
La représentation NRZI (no return to zero, inversion) est un codage de type
« différentiel » en ce sens qu’un « 0 » ne modifie pas l’état précédent (H ou L),
alors qu’un « 1 » provoque un changement d’état à mi-période d’horloge. Dans
la mesure où le signal numérique comprendrait un grand nombre de zéros, ce
codage apportera peu de transitions relativement aux états stables et de ce fait,
la bande de fréquences occupée sera plus faible que pour le codage NRZ. Par
ailleurs, si néanmoins, on peut garantir un certain nombre minimal de « 1 » sur
un temps donné, le rythme d’horloge pourra être transmis par ce codage. Il est
clair que le codage NRZI ne peut pas s’appliquer sur une suite quelconque de
bits au risque de perdre les propriétés énoncées. À cet effet, ce codage est
précédé d’un « pré-codage » binaire modifiant la suite binaire initiale en une
autre suite possédant les qualités requises (on parle parfois de code NRZI
modifié : M-NRZI). Lors du décodage, l’opération inverse est bien sûr réalisée.
Cette méthode est employée en particulier pour la gravure du CD audio : cas du
code nommé 4/5 M-NRZI, où chaque suite de 4 bits est modifiée en une autre
suite de 5 bits de telle façon à proscrire une longue suite de 0 (par exemple,
[0000] sera recodé [00100] pour éviter la suite de 0 alors que [1111] sera recodé
[10101] pour éviter d’avoir trop de transitions pouvant entraîner une augmen-
tation de la bande de fréquences).
La représentation AMI (Alternate mark inversion) est également d’un type
différentiel mais sur les niveaux (figure 8.3). Ce codage est ternaire : il utilise
trois états : H, 0, L (avec L = – H). Un 0 binaire est représenté par le niveau 0, un
1 binaire est représenté par H ou L alternativement. Ce codage possède un
spectre de l’étendue ce celui occupé par le codage NRZ, mais ce spectre est nul
aux basses fréquences. Si l’on peut garantir un nombre minimal de 1, la trans-
mission de l’horloge est assurée ; en revanche, ce codage ne supporte pas une
longue suite de 0 car une telle situation ne serait pas différente d’une absence ou
coupure d’information, qui produirait le même effet. Ce type de codage est très
employé au niveau des transmissions, mais en faisant précéder le codage d’un
« pré-codage » destiné à éviter une longue durée de valeur nulle, un dispositif
nommé « embrouillage » (srambling) est utilisé à cet effet ; ce dispositif s’appa-
rente à un cryptage binaire dont la clé serait normalisée (donc publique).
Enfin, la variante nommée HDB3 est également un « AMI modifié » empêchant
justement d’avoir plus que trois états successifs nuls et assurant ainsi la trans-
mission du rythme d’horloge.
Chapitre 8 – La technologie audionumérique 419

Figure 8.3 — Codes AMI et HDB3 ; problème de la


transmission du rythme d’horloge.

8.2 Conversion
Le signal d’origine, tel qu’issu d’un microphone par exemple, est une fonction
analogique du temps que l’on notera s(t). Afin d’aboutir à une représentation
numérique que l’on notera sN(t), il est nécessaire d’opérer une transformation :
cette opération de conversion de s(t) en sN(t) se nomme conversion analogique-
numérique : CAN (Analog to digital conversion : ADC).
L’opération inverse se nomme conversion numérique-analogique  : CNA
(Digital to analog conversion : DAC). Elle permettra de restituer à la fin du trai-
tement une fonction analogique propre à alimenter un haut-parleur, donc à resti-
tuer un son.

8.2.1 Conversion analogique-numérique


© Dunod – Toute reproduction non autorisée est un délit.

✦ Échantillonnage
Le signal acoustique d’origine ne possède pas a priori de cadence intrinsèque
définie. Le rythme d’horloge exigé par le signal numérique n’a pas de sens dans un
signal analogique, même si ce dernier est périodique : il n’y a pas de rapport
évident entre le futur rythme d’horloge et la période du signal original. Le conver-
tisseur va donc tout d’abord en introduire une par l’opération dite d’échantillon-
nage (voir § 5.1.4 et figure 8.4). Ceci définit une première cadence : la cadence
d’échantillonnage exprimée en hertz (symbole : Hz). Le théorème de Nyquist-
Shannon fixe la valeur minimale théorique de cette cadence à deux fois la
420 Le livre des techniques du son

fréquence maximale du spectre du signal ; le spectre audible s’étend de 20 Hz à


20 kHz (limites habituelles liées à l’audition humaine), la cadence d’échantillon-
nage devra donc être choisie supérieure ou égale à 40 kHz.

Figure 8.4 — Échantillonnage.

✦ Filtrage préalable
L’opération temporelle d’échantillonnage fait apparaître une répétition pério-
dique du spectre initial. Un recouvrement entre les spectres translatés introdui-
rait des composantes étrangères dans le spectre d’origine, rendant impossible la
restitution finale du signal analogique : ceci constitue bien sûr la condition de
Nyquist-Shannon précédemment citée. Il faut néanmoins être certain que, dans
le spectre du signal d’origine, il n’existe aucune composante ultra-sonore. Cet
événement serait sans grande importance (en général) dans un système analo-
gique, mais désastreux dans un système utilisant l’échantillonnage, cas des
systèmes numériques. L’effet obtenu est appelé repliement du spectre. Pour s’en
prémunir à tout prix, on prévoit, en amont de l’échantillonnage, un filtrage
passe-bas de fréquence de coupure égale à la moitié de la fréquence d’échantillon-
nage, ayant une pente aussi raide que possible en bande, coupée de façon à affai-
blir au maximum les éventuelles composantes ultra-sonores (figures 8.5 à 8.8).

Figure 8.5 — Aspect fréquentiel d’un signal s1 limité à 20 kHz.


Chapitre 8 – La technologie audionumérique 421

Figure 8.6 — Aspect temporel de s1, échantillonnage et reconstitution correcte.

Figure 8.7 — Aspect fréquentiel d’un signal s2 non limité à 20 kHz.


© Dunod – Toute reproduction non autorisée est un délit.

Figure 8.8 — Aspect temporel de s2, échantillonnage


et reconstitution incorrecte.
422 Le livre des techniques du son

Dans l’ensemble de ces figures, la fréquence d’échantillonnage a été prise égale à


50 kHz et notée fe.
La notation s e1 signifie « signal échantillonné issu de s1 ». De même, s1 signifie
« signal reconstitué, estimé d’après les échantillons » .
Dans le cas de la figure 8.9, le spectre du signal restitué comprendra des compo-
santes audibles (puisqu’inférieures à 20 000 Hz) issues de la partie ultra-sonore
« repliée » du signal d’origine (figure 8.10).

Figure 8.9 — Effet de sous-échantillonnage.

Figure 8.10 — Repliement du spectre.

Après un filtrage passe-bas rendu ainsi nécessaire, le signal passe dans un inter-
rupteur analogique constituant l’échantillonneur proprement dit (figure 8.11).

Figure 8.11 — Échantillonneur muni d’un filtre anti-repliement.


Chapitre 8 – La technologie audionumérique 423

✦ Quantification
Chaque valeur échantillonnée est ensuite convertie en nombre binaire. Se pose
alors le problème de la précision, donc le nombre de chiffres binaires (0 ou 1),
significatifs de la valeur considérée.
La valeur échantillonnée est, comme le signal d’origine, une grandeur continue,
alors que la valeur numérique binaire est forcément discrète, passant d’une valeur
à celle immédiatement supérieure en changeant un chiffre binaire. De ce fait,
chaque valeur échantillonnée sera approchée par la valeur correspondante
binaire la plus proche : c’est l’objet de la quantification réalisée naturellement
dans le convertisseur analogique-numérique.
Enfin, le signal audio étant essentiellement alternatif (car représentatif d’une
vibration), il faut donc traiter des valeurs positives et négatives. Or, le signe
n’existe pas en binaire ; en effet, seuls existent les chiffres 0 et 1, à l’exception des
signes, qui, s’ils existaient conduiraient à 3 valeurs (0, +1 et –1) et non plus
2 valeurs seulement. Il faudra donc convenir d’une règle afin de désigner des
nombres positifs et négatifs. Une pratique courante est d’assigner le premier bit
au codage du signe (0 signifie –, 1 signifie +) ; les bits suivants codent la valeur
absolue : ce codage est du type « amplitude-signe ».
Ceci revient à décaler le signal audio afin de le rendre constamment positif,
comme le montre la figure 8.12 (construite en prenant 4 bits, pour simplifier). La
valeur maximale négative peut ainsi se coder : 0000, celle positive : 1111 et la
valeur moyenne (repérée par le nombre 8) se code : 1000. On remarque que le
premier bit indique bien le signe du signal d’origine.
Sur l’exemple de la figure 8.12, on a représenté une échelle de 16 valeurs numérotées
de 0 à 15 et la valeur équivalente en binaire, soit respectivement de 0000 à 1111.
À chaque échantillonnage (a, b, c, d, e…) correspond une valeur que l’on
approche d’une des 16 valeurs prédéterminées en prenant, par exemple, la
valeur immédiatement inférieure quand elle ne tombe pas juste.
© Dunod – Toute reproduction non autorisée est un délit.

Par exemple, pour l’échantillon noté c, la valeur véritable est 12,5. La valeur
décimale quantifiée correspondant à l’expression en 4 bits est 12, si on décide de
quantifier par défaut.

Donc c  12,5  12  1100


424 Le livre des techniques du son

Figure 8.12 — Conversion binaire sur 4 bits.

On a alors les valeurs suivantes :

Tableau 8.1

Échantillon a b c d e f

Valeur 1000 1011 1100 1010 1100 1100

Il est clair, que les échantillons quantifiés c, e, f ont désormais la même valeur, ce
qui est faux relativement au signal d’origine : la quantification introduit ici une
erreur dite erreur de quantification qui n’est pas corrigible par la suite, donc qui
dégrade le signal audio. Par contre, cette erreur est systématique et parfaitement
chiffrable : elle représente au maximum une erreur de 1 unité sur 16 valeurs, donc
l’erreur maximale est 1/16 soit 6,25 %.
Plus on augmentera le nombre de valeurs (donc par conséquent de bits), plus
cette erreur sera faible.
On peut construire à partir de s(t) et du signal échantillonné quantifié corres-
pondant que l’on notera sq(t) un signal d’erreur (t) = s(t) – sq(t). Ce signal a les
caractéristiques d’un bruit et est perçu comme tel (bruit de quantification) :
figure 8.13.
Chapitre 8 – La technologie audionumérique 425

On peut alors définir, comme en analogie, le rapport S/B (signal sur bruit) de
l’énergie du signal audio s(t) à l’énergie du signal d’erreur  (t).
Le nombre de valeurs quantifiées pour un signal d’amplitude maximale donnée
étant fixé, le rapport S/B est parfaitement connu. Dans un système numérique, le
rapport S/B est ainsi fixé à l’origine, par choix du constructeur.

Figure 8.13 — Mise en évidence de l’erreur de quantification.

Sous réserve qu’il n’y ait pas d’autres dégradations (et la suite du système sera conçue
dans ce but), la valeur S/B choisie sera effectivement celle du dispositif global, quel
que soit le type de traitement ou de support d’enregistrement, le cas échéant.
Il faut bien prendre la mesure de la phrase précédente : en technologies analo-
giques, nous subissons le bruit et donc le rapport S/B ; en technologies numé-
riques, nous choisissons ce rapport S/B aussi grand que nous le souhaitons (au
prix certes de l’utilisation d’un codage binaire à « grand » nombre de bits par
valeur échantillonnée).
© Dunod – Toute reproduction non autorisée est un délit.

Afin de permettre une qualité supérieure à celles apportée par les systèmes analo-
giques, on choisit un rapport S/B nettement supérieur à 60 dB (qui est l’ordre de
grandeur courant pour les systèmes d’enregistrement analogique sur bande
magnétique par exemple). On retient en général la valeur de S/B = 90 dB ce qui
rend le bruit de quantification quasiment inaudible.
Le calcul du rapport signal à bruit S/B est relativement aisé dès lors que l’on se fixe
le nombre de valeurs quantifiées Q (car l’erreur est majorée par l’intervalle de
quantification) ; par ailleurs, ce nombre de valeurs quantifiées entraîne le choix
du nombre de bits n grâce à la relation : Q = 2n.
426 Le livre des techniques du son

On montre alors que le rapport S/B exprimé en décibels s’écrit :

S/B = 6,02n + 1,78
que l’on peut approcher par une expression plus simple : S/B = 6n.
Ainsi, nous pouvons élaborer le tableau 8.2 :

Tableau 8.2 — Rapport signal à bruit en fonction de la quantification.

Nombre de bits (n) 8 10 12 14 16

Rapport signal à bruit (S/B) 48 dB 60 dB 72 dB 84 dB 96 dB

La haute-fidélité numérique imposera ainsi le choix de 16 bits.


Toutefois, ce bruit de quantification a une particularité en ce sens que, contraire-
ment au bruit de fond naturel des systèmes, il est lié au signal qui lui donne nais-
sance : comme le montre la figure 8.13 précédente, le bruit ε(t) est parfaitement
déterminé par le signal initial s(t), le choix de nombre de valeurs Q et la fréquence
d’échantillonnage. Cette propriété fait que, contrairement à un bruit indépendant
du signal, le bruit de quantification se révèle être plus perceptible (par son carac-
tère « d’accompagnement » du son : si le son est rythmé, le bruit de quantification
le sera aussi). Afin de lutter contre cela, deux solutions s’offrent : ou bien augmenter
encore le nombre de valeurs quantifiées de manière à réduire encore la puissance
de ce bruit, ce qui amènerait à des choix allant jusqu’à 20 bits ou plus, ou bien
adopter une technique originale consistant à supprimer la dépendance entre le
bruit et le signal qui lui donne naissance (on dit que l’on « décorrèle » le bruit du
signal). Pour cela, une technique consiste à ajouter au signal analogique, avant sa
conversion numérique, un signal aléatoire (donc un « vrai bruit ») dont l’ampli-
tude est bien sûr inférieure à l’intervalle de quantification (dither noise). Cette
opération donne alors au nouveau bruit de quantification un caractère lui-même
aléatoire vis-à-vis du son initial.
De façon pratique, la quantification et la conversion binaire sont simultanées.
L’ ensemble de ce dispositif quantification-conversion et de l’échantillonneur qui
précède se nomme convertisseur analogique-numérique (figure 8.14).
L’entrée reçoit le signal audio d’origine, préalablement filtré (anti-replie-
ment), la sortie comporte autant de bornes électriques que de bits (sortie dite
parallèle).
Chapitre 8 – La technologie audionumérique 427

Figure 8.14 — Synoptique de la conversion A-N.

✦ Sérialisation
La valeur quantifiée binaire apparaît électriquement sur n fils électriques
(n = nombre de bits). Cette forme est commode pour effectuer des calculs (donc
pour exécuter un traitement en temps réel). En revanche, dès qu’il s’agit d’enregis-
trer sur support (disque optique ou magnétique) ou de transmettre (radiodiffu-
sion), il est préférable d’avoir à chaque instant un seul bit et non pas n (sinon il
faudrait n disques affectés à s(t) ou n canaux de radiodiffusion !).
Pour remédier à cela, il est possible de stocker à un instant donné les n valeurs
binaires et de les exploiter une par une, dans un ordre défini (en commençant par
le bit le plus à gauche par exemple), sachant que l’on a le temps séparant deux
échantillons successifs (la période de la cadence d'échantillonnage) pour réaliser
cette opération.
La cadence binaire est donc au minimum n fois la cadence d’échantillonnage.
Pour effectuer une conversion A-N série (figure 8.15), reprenons l’exemple de la
figure 8.12 et du tableau 8.1.
Le signal numérique est alors prêt à être stocké ou transmis sur un seul support
ou canal. La fréquence d’horloge de bit (Hb) vaut n fois la fréquence d’horloge
d’échantillonnage. Par exemple, avec fH = 50 kHz et n = 12 bits, on obtient
fHb = 600 kHz et 600 000 bits par seconde sont présents sur la sortie série, ce qui
constitue un débit numérique de 600 000 bits/s.
© Dunod – Toute reproduction non autorisée est un délit.

Noter enfin que si le signal numérique est destiné à des traitements, il est au
contraire plus indiqué de le conserver en format parallèle : ce signal numérique
consiste alors en des « nombres binaires » de n bits, qui participeront à des opéra-
tions arithmétiques.
428 Le livre des techniques du son

Figure 8.15 — Synoptique de la conversion A-N série.

8.2.2 Conversion numérique-analogique


L’opération inverse (ou réciproque) de la précédente est beaucoup plus aisée.
Chaque valeur numérique représentant un échantillon (donc 12, 14 ou 16 bits à
chaque fois) sera maintenue jusqu’à l’instant de l’échantillon suivant. Le conver-
tisseur numérique-analogique présentera ainsi une grandeur constante d’échan-
tillon à échantillon. Le signal reconstitué est alors sous forme de « marches
d’escaliers », le pas entre chaque marche étant au minimum l’intervalle entre
deux valeurs binaires consécutives. Le signal restitué n’est exactement égal au
signal d’origine qu’aux instants précis d’échantillonnage. Ailleurs, il y a une
erreur : c’est l’erreur de quantification évoquée précédemment.
Le composant « convertisseur numérique-analogique » convertit la valeur binaire
(forme parallèle) en tension analogique correspondante et la maintient jusqu’à
l’échantillon suivant : opération dite de blocage qui réalise le signal sb(t).
On passe de sb(t) à une estimation s(t) en effectuant un lissage du graphique de
s(t), cela signifie électriquement qu’il faut réaliser un filtre passe-bas dont le rôle
spectral est d’éliminer les composantes autres que celles du spectre d’origine (le
lissage représente un ralentissement des variations). On a ainsi de nouveau un
filtre dont la fréquence de coupure vaut la moitié de la fréquence d’échantillon-
nage, de pente raide. Le signal est alors disponible de nouveau sous sa forme
analogique : figures 8.16 et 8.17.
Chapitre 8 – La technologie audionumérique 429

Figure 8.16 — Synoptique de la conversion N-A.

Figure 8.17 — Étapes de la conversion N-A : aspect temporel.

8.2.3 Système numérique


Lorsque le signal est sous forme numérique, chaque traitement devra s’effectuer
© Dunod – Toute reproduction non autorisée est un délit.

sous forme d’un calcul numérique. Le signal numérique ayant une représenta-
tion électrique, ce calcul se fera lui-même grâce à des circuits électroniques
développés à cet effet : la famille des circuits logiques. Ceux-ci opèrent sur des
tensions binaires et retournent également des tensions binaires. Les opérations
élémentaires sont au nombre de deux : l’inversion logique et le produit logique.
L’inversion logique opère sur un bit et retourne le bit inverse : 0  1 et 1  0. Le
produit logique opère sur deux bits et retourne un bit qui est la multiplication
des deux bits d’entrée : 00  0, 01  0, 10  0, 11  1. On montre (théorèmes
de De Morgan) que de ces deux opérations se déduisent toutes les autres (addi-
tion avec ou sans retenue de deux bits, addition, soustraction, multiplication et
430 Le livre des techniques du son

division de nombres binaires de plus qu’un bit). Les fabricants de circuits


logiques ont ainsi, au fil des ans, construit des circuits permettant toutes les
fonctions précédentes par combinaison des deux circuits de base (dits aussi
« portes élémentaires »). Selon la complexité de la fonction, un circuit intégrera
un nombre plus ou moins grand de portes élémentaires : on parlera alors de
circuits SSI (Small scale integration, pour les fonctions arithmétiques de base),
de MSI (Medium scale integration, pour une unité arithmétique et logique
universelle par exemple, permettant un grand nombre d’opérations différentes),
de LSI et VLSI (Very large scale integration pour un microprocesseur par
exemple).
Une autre fonction essentielle de la circuiterie logique est la bascule dont le prin-
cipe est de provoquer un changement d’état en sortie. La bascule T (Time)
provoque un changement d’état en sortie à chaque période d’horloge en entrée (il
s’agit d’un compteur par 2, dit aussi compteur « modulo 2 »). On réalise ainsi des
compteurs par mise en cascade de bascules T. La bascule D (Data) copie l’entrée
sur la sortie à chaque période d’horloge. On réalise ainsi des registres à décalage
par mise en cascade cette fois des mêmes bascules D : ce sont de tels registres qui
sont utilisés pour la sérialisation vue au § 8.2.1.
On réalise également des registres par mise en parallèle de bascules D (une
bascule par bit) : un registre est lui-même la base d’une mémoire numérique.
Pour réaliser une mémoire RAM (Random access memory), il faut un élément
de mémorisation (c’est la bascule élémentaire pour un bit et le registre parallèle
pour 16 bits par exemple) et un système d’adressage qui indexe la donnée
binaire stockée. En fait, l’adresse (nombre binaire) validera ou non (grâce à un
système simple de portes élémentaires) l’accès aux données (le registre désigné
par l’adresse sera suivi d’une porte « ouverte », toutes les autres seront
« fermées »).
L’ensemble des fonctions qui viennent d’être décrites permet de réaliser les trai-
tements souhaités, comme le retard (base de l’écho et de la réverbération), le
filtrage (base de la modification de timbre), une compression ou expansion de
l’axe des temps (principe de l’harmoniseur), etc. ; certains de ces traitements exis-
tant déjà avec les techniques analogiques (comme le filtrage, les techniques
numériques le rendant plus performant), d’autres se faisant difficilement et/ou de
manière imparfaite en techniques analogiques (comme le retard qui nécessitait
une chambre d’écho, une bande magnétique sans fin ou un système à ressorts),
d’autres enfin ne pouvant se concevoir qu’avec les techniques numériques comme
l’harmoniseur par exemple (voir tome 2, § 5.3.3).
Compte tenu de cela, une chaîne de traitement numérique se présentera toujours
de façon homogène pour une famille de traitements donnés. On peut ainsi
Chapitre 8 – La technologie audionumérique 431

distinguer deux types fondamentaux de traitements : le traitement local (au


niveau d’un studio de production par exemple, pour lequel le mode binaire série
n’est pas nécessaire en général) et le traitement en vue de transmission (bande ou
disque magnétique, disque à gravure mécanique, transmission par câble, fibre
optique ou hertzienne) pour lesquels le mode série est indispensable (à chaque
instant, il y a transmission d’une seule valeur de courant électrique, donc d’un
seul bit). La figure 8.18 illustre ces aspects.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 8.18 — Bloc diagramme d’un système de traitement numérique.

8.3 Traitement de l’information audionumérique


Le signal numérique électrique obtenu par conversion est représentatif d’une
information audio issue d’un microphone ou de toute autre source sonore. Toute
dégradation du signal numérique peut entraîner potentiellement une dégrada-
432 Le livre des techniques du son

tion de l’information. Si la première est inévitable (perturbations, non-linéarités,


bruit de fond, diaphonies, etc.), il faut que la deuxième soit préservée : c’est tout
l’avantage annoncé par les techniques audionumériques.
Il est donc nécessaire à présent de caractériser précisément le signal numérique,
d’identifier les dégradations qui peuvent advenir et d’imaginer des procédés
permettant de minimiser voire d’éliminer leurs influences sur l’information. En
résumé, il est acceptable que le signal numérique soit altéré, mais pas que l’infor-
mation (donc le signal analogique restitué) le soit.

8.3.1 Caractérisation électrique


Un signal numérique est caractérisé par :
• la fréquence d’échantillonnage : fe ;
• le nombre de bits par échantillon : n ;
• la forme du message : série ou parallèle ;
• la représentation électrique (ou « code »).
La fréquence d’échantillonnage fixe la limite supérieure de la bande passante
audio :
1
f max  fe
2
Le nombre de bits détermine le rapport signal à bruit théorique, exprimé en déci-
bels : S/B = 6n (voir « Quantification », § 8.2.1).
Si le message est sous forme parallèle, on aura n voies de traitement différentes,
chacune des voies recevant un seul bit par échantillon. La cadence binaire sur une
voie coïncide donc avec la cadence d’échantillonnage. On dira que le débit binaire
(D) est égal à la valeur de la fréquence d’échantillonnage :
Dp = (fe) bits/s (message parallèle)

Exemple
Avec fe = 50 kHz, le débit binaire vaut, dans le cas d’un message parallèle :

Dp = 50 000 bits/s
Remarque
On utilise parfois les notations kbit (kilobit), Mbit (mégabit) ou Gbit (gigabit). Il ne
faut pas confondre ces multiples avec les multiples décimaux habituels. En effet, nous
sommes en système binaire, donc les multiples sont toujours des multiples de 2.
Chapitre 8 – La technologie audionumérique 433

• 1 kbit = 210 bits = 1 024 bits ;


• 1 Mbit = 220 bits = 1,048  ×  106 bits ;
• 1 Gbit = 230 bits = 1,074  ×  109 bits ;
Ainsi Dp = 50 000 bits/s s’écrirait rigoureusement :
50 000

Dp  48, 8 kbit/s
1024
Lorsque le message est sous forme série, une seule voie de traitement reçoit les n
bits successifs entre deux échantillons. Le débit binaire est donc égal à n fois la
valeur de la fréquence d’échantillonnage :

Ds = (n  ·  fe) bits/s (message série)


Exemple
Avec fe = 50 kHz et n = 16 bits :

Ds = 800 000 bits/s
800 000

soit Ds  781 kbit/s
1024
Enfin, la représentation électrique va déterminer, entre autres, la rapidité de
modulation (R).
Cette grandeur est, par définition, l’inverse de la durée du signal élémentaire
significatif d’un bit (Tse). La rapidité de modulation est exprimée en baud (les
multiples kbaud, Mbaud et Gbaud suivent la même règle que les multiples du bit).
Reprenons les exemples du NRZ et du biphase.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 8.19 — Représentation des codes NRZ et biphase.

Dans le cas d’un message parallèle, la représentation est en général NRZ, la valeur
de R coïncide avec celle de Dp ; soit en reprenant l’exemple précédent :
Message NRZ parallèle : Dp = 48,8 kbits/s ; il vient R = 48,8 bauds.
434 Le livre des techniques du son

Dans le cas d’un message série, on choisit une autre représentation, où les valeurs
ne sont pas identiques :
Message biphase série  Ds = 781 kbits/s ; R = 1 562 kbauds (R = 2Ds car
: 
Tse = 1/2 période d’horloge de bit).
Un système (de traitement, d’enregistrement ou de diffusion) accepte des
signaux de rapidité de modulation maximale limitée.
Pour un débit binaire fixé, on a intérêt à avoir une rapidité de modulation la plus
faible possible, (donc une bande passante réduite), sinon il y a risque de détério-
ration de l’information, hypothèse que l’on a voulu écarter depuis le départ, en
fixant le rapport S/B par la simple connaissance de la quantification lors de la
conversion analogique-numérique.
Il existe, à cet effet, des représentations pour lesquelles R est inférieure à D.
Citons par exemple le cas du HDM-1 (High density modulation).

Figure 8.20 — Représentation du code HDM-1.

Au prix d’une complication de procédure faisant correspondre les bits avec la


représentation, (on raisonne ici sur des suites de bits : suite 01, suite 00, suite 11
ou 1111, etc.), on arrive à :

Tse = 1,5 période d’horloge de bit


Donc message HDM-1 série : Ds = 781 kbits/s ; R = 521 kbauds.
En comparant cette valeur avec celle obtenue, pour le même débit binaire avec
une représentation biphase (R = 1 562 kbauds), on voit que l’on gagne un facteur
3 en choisissant convenablement la représentation électrique.
Néanmoins, le système générateur HDM-1 est plus complexe que celui du
biphase.
Il existe bien d’autres représentations [1].
En résumé, un format de système numérique sera défini par :
Chapitre 8 – La technologie audionumérique 435

• Fréquence d’échantillonnage :
Valeurs : 32 kHz ; 44,1 kHz ; 48 kHz ; 96 kHz, choisies suivant une norma-
lisation internationale, parfois dans un souci de compatibilité avec d’autres
équipements (vidéo en particulier).
• Nombre de bits :
Valeurs : 12, 14, 16, 24 ou 32 bits.
• Message parallèle dans le cas de traitement de l’information sans enregis-
trement sur support mécanique, ni transmission. La représentation élec-
trique est alors NRZ pour tous les bits parallèles.
• Message série dans le cas de l’enregistrement sur support mécanique
(bande magnétique en stéréophonie ou multipiste, disque audionumé-
rique…) ou dans le cas de la transmission (radiodiffusion directe ou par
satellite, liaison inter-studio…). Les représentations électriques sont alors
NRZ, biphase, HDM-1, modulations et autres…

8.3.2 Dégradation de l’information numérique


Lors du traitement de l’information numérique binaire, il peut y avoir dégrada-
tion de la représentation électrique, de la même façon que pour un signal
analogique.

Figure 8.21 — Dégradation par bruits et par parasites.


© Dunod – Toute reproduction non autorisée est un délit.

Figure 8.22 — Dégradation par déformation due à la limitation de bande passante.

Figure 8.23 — Effets cumulés des dégradations.


436 Le livre des techniques du son

Il y a en général addition de bruit et parasites divers d’une part, et déformation


systématique des signaux numériques à cause de la limitation physique de la
bande passante du système numérique d’autre part (c’est le problème de la rapi-
dité de modulation évoquée précédemment) : les transitions brutales théo-
riques des niveaux L à H seront ainsi « ralenties » (figures 8.21 à 8.23).
L’allure du signal sN (t) ressemble plus à un signal analogique qu’à des transitions
entre deux niveaux distincts. D’autre part, un système logique (c’est-à-dire utili-
sant des signaux numériques), est incapable de traiter correctement ce genre de
signal perturbé.
Il est nécessaire d’effectuer une régénération (« remise sous forme numérique »).
Cette opération est possible grâce au caractère très particulier du signal d’origine
sN(t). Prenons le cas d’une représentation NRZ : un bit 0 est représenté par un
niveau bas (par exemple égal à –5 V), un bit 1 est représenté par un niveau haut
(par exemple égal à +5 V). La transition ne peut se produire qu’en synchronisme
avec l’horloge. Donc, les niveaux sont stables entre deux coups d’horloge.
Ceci permet de définir un instant caractéristique qui, dans le cas du NRZ, est
choisi à mi-temps d’horloge, et d’aller tester à cet instant précis le niveau du signal
perturbé. On compare cette valeur à la moyenne des niveaux H et L (dans notre
exemple 0 V, ce qui revient à tester la polarité). On a ainsi une nouvelle informa-
tion binaire et on reconstruit alors sa représentation NRZ : le signal est ainsi régé-
néré (figure 8.24).

Figure 8.24 — Reconstitution d’un signal numérique.


Chapitre 8 – La technologie audionumérique 437

Ce procédé n’est pas sans faille : si le bruit est trop important ou si un parasite
arrive juste à l’instant caractéristique, la reconstitution est erronée. Mais alors,
indépendamment de la représentation, le résultat est qu’un bit à 0 initialement a
été reconstitué en 1 ou inversement.
Il faut remarquer qu’une erreur résiduelle après reconstitution n’est qu’un échange
entre les valeurs binaires 0 et 1. Cette remarque est fondamentale car elle va
permettre le processus de correction d’erreur.
En effet, s’il existe une procédure permettant de contrôler la vraisemblance du
message binaire (succession de 0 et 1), on peut imaginer de faire un contrôle
systématique. Ce contrôle peut alors déceler une erreur : on dit que l’on détecte
l’erreur. Si en plus, on arrive à localiser le bit faux, on dit que l’on corrige l’erreur
puisqu’il suffit de changer le 0 faux en 1 ou inversement.

8.3.3 Détection et correction d’erreurs


Comme dit précédemment, il est nécessaire de construire des procédés de détec-
tion d’erreurs binaires par test de vraisemblance du message reçu puis des
procédés de correction de ces erreurs par localisation de l’ (ou des) erreur(s)
suivie d’un échange de valeur binaire pour chaque bit erroné localisé.
Afin de détecter une erreur, il est nécessaire d’avoir une possibilité de contrôle de
manière à tester la vraisemblance du message reçu relativement à une règle
prédéfinie. Un message binaire issu par exemple d’une conversion analogique
numérique ne suit pas a priori une règle puisqu’il est l’image d’un son qui peut
lui-même être de toute nature. Il est donc nécessaire de modifier ce message
initial de manière à arriver à un autre message (appelé mot-code) intégrant cette
règle prédéfinie. On dit que l’on effectue une redondance en ce sens que le mot-code
contient l’information sur le message initial augmentée d’une règle sous forme
d’un résultat de calcul sur ce même message initial (à l’image de la preuve par 9
réalisée après une multiplication).
© Dunod – Toute reproduction non autorisée est un délit.

La correction de l’erreur détectée suit le même principe ; en effet, lors de la procé-


dure de détection, on est amené à réaliser un calcul de vérification de la règle utilisée
pour le codage. Suivant le résultat de ce calcul, on déclarera le message correct ou
affecté d’une ou plusieurs erreurs sur des positions binaires définies dans ce
message. Pour cela, il est nécessaire d’avoir une condition de dénombrement : il faut
que le total de toutes les erreurs possibles sur le message soit inférieur ou juste égal
au nombre de résultats différents possibles du calcul de vraisemblance, de façon à
ce qu’à chaque position d’erreur corresponde un résultat différent. De ce fait, lors du
calcul de vérification, tout écart par rapport à la règle de codage permettra de
pointer une erreur (c’est-à-dire de désigner sa position dans le mot binaire). Le ou
438 Le livre des techniques du son

les bits ainsi désignés seront alors simplement inversés (un 0 deviendra un 1 ou
inversement) pour rétablir le message initial.
La réalisation pratique de ces codages repose sur deux principes différents [2].
Le premier principe engendre un mot-code séparable, c’est-à-dire comprenant
une première partie constituée du message initial et une deuxième partie (dite
« clé » ou « contrôle ») calculée à partir de la première (famille des codes
« linéaires », tels que ceux utilisés pour le calcul de clé d’un RIB, d’un numéro de
carte bancaire, d’un numéro de sécurité sociale…). Ce premier principe fournit
des codes sûrs (détection et correction à coup sûr) mais limités en performance
(comportement aléatoire si dépassement de la capacité de correction).
Le deuxième principe engendre un mot-code non séparable, c’est-à-dire qu’il
substitue le message initial par un mot-code à plus de bits, mais d’une seule partie,
bits calculés à partir de ceux du message initial (famille des codes convolutifs). Ce
deuxième principe engendre des codes plus performants face à des erreurs multi-
ples, même en grand nombre, mais moins sûrs (probabilité de fausse correction :
le message restitué est faux alors que le décodeur le considère juste).
Le choix d’un type de codage se fera alors suivant le type d’erreurs attendues
(dépend du système) et la tolérance que l’on peut accepter sur les erreurs non
corrigées. Cette tolérance n’est pas choquante car, dans le cas des systèmes analo-
giques, les défauts et perturbations engendrent des erreurs qui ne peuvent jamais
être corrigées, alors que dans le cas des systèmes numériques, les mêmes défauts
et perturbations engendrent des erreurs qui peuvent parfois ne pas être corrigées.

✦ Contrôle de parité
La procédure de contrôle de parité est un codage très élémentaire car uniquement
détecteur d’une seule erreur binaire par message.
La clé est ici le résultat sur un bit de l’addition modulo 2 de l’ensemble des bits du
message.
Cette opération réside en une simple addition sans tenir compte de la retenue.
Elle se désigne par le signe .
La table d’addition modulo 2 est la suivante :
0 ⊕ 0 = 0

0 ⊕ 1 = 1  addition ordinaire
1 ⊕ 1 = 1 
1 ⊕ 1 = 0 car 1 + 1 = 10 (en binaire), donc le résultat vaut 0 sans retenue.
Chapitre 8 – La technologie audionumérique 439

Exemple
mot initial de 4 bits, génération d’un 5e bit égal à la somme modulo 2 des
4 premiers :

1000  1000 1
0110  0110 0
1111  1111 0

Dans cet exemple, le fait d’ajouter le cinquième bit modifie forcément le débit
binaire : il est augmenté dans le rapport 5/4 : c’est le prix à payer pour pouvoir
effectuer un contrôle. On dit aussi que la redondance est de 1 pour 4 soit 25 %
(1 bit rajouté à chaque séquence de 4 bits).
Le contrôle du message se fait en comptant le nombre de 1 du message redon-
dant : il doit forcément être pair étant donné le calcul qui est fait pour le 5e bit. On
remarque que cela est équivalent à faire le calcul de la somme modulo 2 de
l’ensemble des 5 bits et à vérifier que ce résultat est nul.

Exemple

émis → reçu
,
1001 0 → 1001 0 1 ⊕ 0 ⊕ 0 ⊕ 1 ⊕ 0 = 0 : pas d erreur
1101 1 → 1101 1 1 ⊕ 1 ⊕ 0 ⊕ 0 ⊕ 1 = 1 : erreur détectée
Le contrôle de parité constitue un code détecteur d’erreur, non correcteur
(puisque l’on ne peut pas déterminer la position dans le message du bit erroné).
Ce code a des limites : si le message est perturbé par deux erreurs (ou un nombre
pair d’erreurs en général), le contrôle ne signale rien !

Exemple

émis → reçu
© Dunod – Toute reproduction non autorisée est un délit.

,
1001 0 → 1010 0 1 ⊕ 0 ⊕ 1 ⊕ 0 ⊕ 0 = 0 : pas d erreur
Le message est reconnu bon malgré les deux erreurs.
Aussi, l’efficacité d’un code à détecter et éventuellement corriger, est une notion
statistique liée au nombre d’erreurs estimées dans un message.

✦ Code de Hamming
Le codage de Hamming est destiné à permettre la localisation d’un bit erroné (un
seul par mot binaire), donc de conduire à sa correction.
440 Le livre des techniques du son

Le principe de ce codage repose sur une généralisation du codage de parité


précédent. Pour le codage de parité, le bit supplémentaire s’obtient en faisant
une somme modulo 2 des bits initiaux ; ceci se généralise en écrivant non
plus une somme simple, mais une combinaison linéaire définie de la façon
suivante :
Considérons d’abord 4 bits initiaux (avant codage) que nous noterons symboli-
quement a, b, c et d (ces bits ont bien sûr comme valeurs possibles 0 ou 1).
Une somme simple (mais modulo 2) s’écrirait alors :

a + b + c + d = P


Une combinaison linéaire s’écrira :

l1 a + l2 b + l3 c + l4 d = L


les valeurs l1, l2, l3 et l4 étant également binaires (valant donc 0 ou 1).
Une autre combinaison linéaire des 4 mêmes bits initiaux s’écrira :

m1 a + m2 b + m3 c + m4 d = M


Et encore une autre :

n1 a + n2 b + n3 c + n4 d = N


Toutes les additions étant modulo 2, il est aisé de conclure que les trois dernières
relations peuvent aussi s’écrire respectivement :

l1 a + l2 b + l3 c + l4 d + L = 0


m1 a + m2 b + m3 c + m4 d + M = 0
n1 a + n2 b + n3 c + n4 d + N = 0
Il suffit en effet pour cela d’additionner, pour la première équation, la valeur L à
chaque membre et de bien considérer que L + L = 0 (propriété de la somme
modulo 2, pour laquelle, rappelons-le, 1 + 1 = 0).
Ce calcul permet d’obtenir un nouveau mot binaire de 7 bits à partir d’un mot
binaire de 4 bits :

abcdabcdLMN
avec la propriété importante que les valeurs LMN dépendent des valeurs abcd.
Lors du traitement ou du stockage de ce mot binaire de 7 bits, il peut y avoir
des défauts ou altérations conduisant à une ou plusieurs erreurs binaires, une
Chapitre 8 – La technologie audionumérique 441

ou plusieurs des valeurs abcd LMN peut ou peuvent être erronées. Si tel est le
cas, les équations établies précédemment ne seront plus vérifiées. Ceci
signifie que si, après traitement ou stockage, nous faisons à nouveau les
calculs précédents, il y a « peu de chance » que ces équations soient toutes
vérifiées.
En général, ce n’est pas le cas (sauf s’il n’y a aucune erreur) et on obtient alors les
résultats suivants :

l1 a + l2 b + l3 c + l4 d + L = z1


m1 a + m2 b + m3 c + m4 d + M = z2
n1 a + n2 b + n3 c + n4 d + N = z3
Ce calcul met en évidence un triplet binaire noté Z = (z1, z2, z3) et nommé
syndrome d’erreur.
Z vaut (0 0 0) s’il n’y a pas eu d’erreurs, dans le cas contraire, Z ne vaut pas (0 0 0)
et peut donc valoir toutes les autres valeurs possibles :

(0 0 1) (0 1 0) (0 0 1) (0 1 1) (1 0 1) (1 1 0) (1 1 1), soit 7 valeurs.


Or, il y a justement 7 bits dans le mot binaire, ce qui répond à la condition de
dénombrement (voir début du § 8.3.3) : il est donc envisageable qu’à chaque
valeur non toute nulle de Z, corresponde la position d’un bit erroné, à condition
également qu’il n’y ait qu’un seul bit faux, mais c’était l’hypothèse faite pour le
code de Hamming.
Il n’y a plus maintenant qu’à choisir convenablement les valeurs l1 l2 l3 l4 m1 m2 m3
m4 n1 n2 n3 n4 pour qu’à chaque valeur différente de Z corresponde une position et
une seule associée. Le calcul de Z « pointera » alors la position de l’erreur binaire
et la correction sera immédiate.
Ce choix convenable est du ressort d’une condition d’indépendance linéaire (dite
aussi d’orthogonalité) entre les 3 combinaisons linéaires ; on montre mathémati-
© Dunod – Toute reproduction non autorisée est un délit.

quement que cette condition est vérifiée si l’on fait le choix suivant (écriture
compacte) :

l1 l2 l3 l4 = 1 1 0
m1 m2 m3 m4 = 0 1 1
n1 n2 n3 n4 = 1 0 1
On obtient enfin la correspondance entre toutes les valeurs possibles non toutes
nulles de Z et les positions d’erreurs :
442 Le livre des techniques du son

Z = (0 0 0)  pas d’erreur


Z = (1 0 0)  erreur en première position

Z = (1 0 1)  erreur en sixième position
Z = (1 1 1)  erreur en septième position
Le code de Hamming peut être construit à partir de mots initiaux plus grands que
4 bits, toutefois, la condition de dénombrement impose une relation entre le
nombre de bits après codage n et le nombre de bits supplémentaires (donc le
nombre de combinaisons linéaires) k ; cette relation est :

n = 2k – 1
Cette dernière relation impose donc le choix de la longueur du mot binaire
d’origine m :

m = n – k
Ainsi, avec k = 3, on obtient n = 7 et m = 4, ce qui fut notre exemple.
Avec k = 4, on obtient n = 15 et m = 11…

✦ Code cyclique
La limitation des codes de Hamming tient au fait qu’ils ne peuvent localiser
qu’une erreur par mot binaire. Or, nous sommes incapables de savoir s’il y a eu
une ou plusieurs erreurs, sauf par des tests statistiques qui peuvent nous donner
une indication sur le nombre moyen d’erreurs par mots. Il est donc nécessaire de
prévoir des codes correcteurs multi-correcteurs, le cas échéant.
Un code cyclique résulte d’un codage linéaire séparable multi-détecteur et
multi-correcteur. Selon leur capacité de correction, on distingue les codes cycli-
ques simples (qui sont en réalité des codes de Hamming mono-correcteurs), les
codes BCH (multi-correcteurs orientés bits) et RS (multi-correcteurs orientés
octets).
Le code cyclique simple est également appelé CRCC (Cyclic redundancy correc-
ting code). Son principe est basé sur l’arithmétique des polynômes et la règle
utilisée est celle de la divisibilité. Pour cela, le message est d’abord écrit sous une
forme dite polynômiale : chaque bit (0 ou 1) devient le coefficient d’un des termes
de ce polynôme, la puissance de x de chaque terme indique l’emplacement du bit
correspondant (en partant de 0 pour le bit le plus à droite). On transcrit ainsi
aisément un message binaire en un polynôme en x :
Chapitre 8 – La technologie audionumérique 443

message : 1 0 1 0
polynôme correspondant : m( x ) = 1x 3 + 0 x 2 + 1x + 0 = x 3 + x
La technique du codage cyclique est alors de modifier ce polynôme m(x) (donc le
message binaire) de façon à le rendre divisible par un polynôme choisi appelé « poly-
nôme générateur » g(x). La théorie [2] impose un choix de ce polynôme compte tenu
en particulier de la longueur du message. En suivant notre exemple de message de
4 bits, la théorie nous conduirait à choisir un polynôme g(x) = x3 + x2 + 1.
Le codage consiste alors à faire les opérations successives suivantes :
• multiplier m(x) par x3 (3 est le degré de g(x)) ;
• diviser x3 m(x) par g(x) et noter le reste de cette division r(x) ;
• ajouter r(x) à x3 m(x) pour obtenir un nouveau polynôme p(x).
Alors, on montre que p(x) est à présent divisible par g(x) (ceci constitue la règle
qui sera à vérifier lors du décodage).
Dans notre exemple, on aura successivement :
• x3 m(x) = x6 + x4
• (x6 + x4)/g(x)  r(x) = 1
• p(x) = x6 + x4 + 1 = 1x6 + 0x5 + 1x4 + 0x3 + 0x2 + 0x + 1
Il suffit à présent de retranscrire p(x) sous forme binaire pour obtenir le mot-code.
Il contiendra 7 bits, ses 4 premiers bits seront forcément les 4 bits du message
initial, les trois derniers seront la clé.
Dans notre exemple le message 1010 devient 1010 001.
Ce code sera noté C(7,4) : code cyclique à 7 bits dont les 4 premiers de message
(code séparable).
Imaginons que lors d’un traitement, le signal numérique correspondant au
© Dunod – Toute reproduction non autorisée est un délit.

mot-code subisse une altération telle que le mot-code devienne 1000 001 (c’est-à-
dire que le troisième bit en partant de la gauche se soit modifié).
En aval de ce traitement, le système décodeur va effectuer un contrôle de la vrai-
semblance de ce mot-code, donc le respect de la règle de divisibilité du polynôme
associé par g(x). Pour cela, il suffit d’effectuer la division du polynôme reçu par
g(x) et de noter le reste de cette division. Deux cas peuvent alors se présenter :
• le reste est nul : c’est donc qu’il n’y a pas d’erreurs, le message sera alors tiré
du mot-code ;
444 Le livre des techniques du son

• le reste est non nul : la valeur de ce reste indiquera de façon biunivoque la


position de l’erreur, le message sera alors corrigé en inversant la valeur du
bit ainsi repéré.
Le reste n’est autre que le syndrome d’erreur.
La relation de correspondance entre les différents restes non nuls et la position de
l’erreur binaire est sous forme d’une table, calculée une fois pour toutes avec le
choix de g(x).
Dans notre exemple :
• 1000 001  p’(x) = 1x6 + 0x5 + 0x4 + 0x3 + 0x2 + 0x + 1 = x6 + 1
• (x6 + 1)/g(x)  reste = x2 + x  0  erreur
La table donnera la correspondance x2 + 1  position « 3 » (à chaque reste diffé-
rent sera associée une position différente).
D’où la correction : 1000  1010.
Ce procédé est absolument sûr s’il n’y a qu’une seule erreur maximum estimée,
cette estimation se faisant par mesure (tests) et calcul statistique. Il faut noter que
s’il y a plus qu’une erreur, le code de Hamming ne fonctionne plus. Toutefois,
comme il est impossible de savoir a posteriori, le nombre d’erreurs qui affecte un
mot-code, la procédure de correction va néanmoins s’appliquer (comme s’il n’y
avait qu’une seule erreur) et la localisation sera forcément différente des erreurs
effectives (ce qui veut dire que la procédure de correction inversera un bit correct,
donc rajoutera une erreur !).
Ce codage cyclique simple est donc très limité et peut s’avérer très rapidement
dangereux, voilà pourquoi, on utilise des codes cycliques plus performants tels
que les codes BCH et RS [3].
Le code BCH (Bose Chauduri Hocquenguem) est un code cyclique multi-correc-
teur de bits erronés sur un même mot-code. Son principe est le même que pour le
code de Hamming à la différence près que le polynôme g(x) précédent est
lui-même un produit de polynômes (autant de facteurs que d’erreurs à corriger).
Ces facteurs composant le polynôme g(x) doivent être calculés de façon à être
indépendants (racines distinctes).
Le code RS (Reed-Solomon) est également un code cyclique multi-correcteur de
mots de 8 bits (en général). Cela veut dire que le mot-code est organisé en une
séquence de mots de 8 bits et que le polynôme g(x) a maintenant des termes qui
sont aussi des mots de 8 bits. Pour résumer, on peut dire que l’on a transposé la
problématique de la dimension 1 (bit) à la dimension 8 (l’octet), mais les prin-
cipes restent toujours les mêmes.
Chapitre 8 – La technologie audionumérique 445

✦ Codes convolutifs
Les codes vus précédemment généraient un mot-code avec une structure parti-
culière en ce sens où celui-ci était composé de deux parties : la partie message
initial et la partie contrôle.
Les codes convolutifs, au contraire, opèrent une transformation d’un bloc binaire
en un autre bloc binaire dans lequel tous les bits sont différents des bits initiaux
(le message initial n’apparaît donc plus). Le bloc final est plus long que le bloc
initial pour apporter la redondance indispensable à la procédure de détection et
de correction d’erreurs. On appelle « rendement » le rapport entre la longueur du
bloc initial et celle du bloc transformé. On utilise couramment les valeurs 1/2
(1 bit initial en engendre 2) et 2/3 (2 bits initiaux en engendrent 3). Ce sont ainsi
des codes très redondants pour lesquels on attend alors de très bonnes perfor-
mances de correction. Pour cela, on établit une règle de vraisemblance d’une
séquence reçue grâce aux calculs réalisés pour obtenir les blocs finaux. À la récep-
tion après traitement, on examine cette séquence et on vérifie ou non cette vrai-
semblance. Dans la positive, la séquence est déclarée sans erreurs et dans la
négative, on recherche une séquence « proche » qui suit la règle de vraisemblance
(c’est-à-dire avec un minimum de modifications, suivant un algorithme, dit de
Viterbi) ; cette nouvelle séquence est la correction estimée. Il faut noter que la
correction ne se fait pas de façon certaine (à l’inverse de ce qui se passait pour les
codes cycliques), mais ce système supporte bien plus d’erreurs.
Pour illustrer ce procédé, nous allons construire un code convolutif 2/1 avec un
calcul opérant sur 3 bits consécutifs initiaux (on dit alors que le code a une
« contrainte » de 3) :
Soient a, b, c trois bits consécutifs. Le bit c sera alors remplacé par deux bits c1 c2
grâce au calcul suivant :

c1 = a ⊕ b ⊕ c c 2 = a ⊕ c (⊕ étant une addition binaire modulo 2)


Cette opération sera réitérée pour chacun des bits précédents et suivants. Ces
© Dunod – Toute reproduction non autorisée est un délit.

suites d’opérations prennent le nom de « convolution », d’où l’intitulé de ce


code.
On peut voir ainsi que, si la suite initiale (…a b c…) peut être « quelconque »
(à l’image du son que cette suite représente), la nouvelle suite (…a1 a2 b1 b2 c1 c2…)
ne peut pas prendre n’importe quelle valeur, car le calcul précédent a imposé ses
conditions.
Par exemple, avec la suite initiale 0 0 0 1 1 0 1, on obtient la suite finale :

00 00 00 11 01 01 00
446 Le livre des techniques du son

Ce qui est remarquable de voir, c’est que le quatrième doublet (11) ne peut pas
valoir autre chose que (11) ou (00), cette dernière valeur serait apparue si le
quatrième bit initial avait été 0, il en est de même pour le cinquième doublet qui
ne peut valoir que (01) ou (10), cette dernière valeur serait apparue si le cinquième
bit initial avait été 0 également (mais le quatrième à 1), et ainsi de suite. Ainsi, la
séquence binaire générée par le code convolutif est remarquable et guidée de
proche en proche par le passé : on dit qu’elle suit une « trajectoire » parmi un
ensemble de trajectoires possibles.
Alors, toujours dans notre exemple, la réception après traitement d’une suite telle
que 00 00 00 11 00 01 00… révèle une erreur car il est impossible que le cinquième
doublet soit « 00 » connaissant ceux d’avant. Il y a deux possibilités : « 01 » ou
« 10 », le choix se fera alors en essayant chacune des deux solutions et en exami-
nant la vraisemblance future (par exemple, si l’on choisit de corriger par « 01 », est
ce que les doublets suivants de la suite « 01 00… » sont sur une « bonne trajec-
toire » ? Si oui, la solution de correction envisagée est « certainement » la bonne,
sinon, il faut prendre l’autre solution de correction « 10 »).

✦ Procédure d’effacement et de substitution


On combine en réalité les codes de contrôle de parité et les codes cycliques. Pour
cela, on rassemble un certain nombre de mots de longueur identique en un
« bloc ». Pour la clarté de la procédure, il est pratique de présenter le bloc sous
forme d’un tableau où les mots munis de leur code pointeur d’erreurs sont écrits
ligne après ligne.
Dans l’exemple qui suit, les termes ai, bi, ci, di représentent les bits du message et
les termes a’i, b’i, c’i, d’i les bits de contrôle.

Le mot supplémentaire est obtenu en faisant, verticalement dans le tableau, les


sommes modulo 2. Cela revient à dire que les bits pi et p’i réalisent un mot de
parité verticale.
Chapitre 8 – La technologie audionumérique 447

Dans ce bloc, supposons que la séquence C soit reconnue fausse après contrôle,
alors que les autres sont reconnues bonnes. On peut alors ignorer toute la séquence
C reçue effectivement, (opération d’effacement), et la remplacer par une séquence
obtenue en faisant, verticalement dans le tableau, les sommes modulo 2 des
autres séquences A, B, D, P.
Ceci découle en effet de la propriété de la somme modulo 2 :
Si pi = ai ⊕ bi ⊕ ci ⊕ di

alors ci = ai ⊕ bi ⊕ ci ⊕ pi

Ainsi, dans un bloc muni d’un code de pointage d’erreur, il est possible de substi-
tuer le mot reconnu faux par une combinaison des autres.
On corrige, de cette façon, à coup sûr un mot faux par bloc.
La capacité de correction est ainsi augmentée par rapport à un code simple, au
prix d’une redondance plus élevée (adjonction du mot P).

✦ Extension des procédures de détection et correction d’erreurs par blocs


Le principe décrit précédemment est largement utilisé avec quelques extensions.
D’abord, il est possible de créer un deuxième mot, noté Q, en plus de P, ce qui
permet alors de substituer deux mots reconnus faux par bloc.
Le mot P est toujours obtenu par somme modulo 2, effectuée verticalement. Le
mot Q est obtenu en faisant une somme modulo 2 pondérée, effectuée verticale-
ment. La pondération signifie que chaque bit sera d’abord multiplié par 1 ou 0,
suivant une procédure fixée, avant d’être additionné.
En reprenant les notations de l’exemple précédent, on aurait :
pi = ai ⊕ bi ⊕ ci ⊕ di
© Dunod – Toute reproduction non autorisée est un délit.

et qi = z Aai ⊕ z Bbi ⊕ z C ci ⊕ z D di
La séquence Q est une combinaison linéaire des séquences A à D, dont les coeffi-
cients sont les mots respectifs ZA à ZD.
Si la séquence de contrôle associée à chaque message détecte deux erreurs par
tableau, il est alors possible d’effacer deux mots entiers et de les remplacer par
deux combinaisons linéaires des mots justes et de P et Q.
448 Le livre des techniques du son

Enfin, et ceci constitue la dernière extension, tout ce qui a été fait (parité, code
cyclique, mots P et Q) en raisonnant sur des mots constitués de bits, peut être
repris en raisonnant de la même façon sur des blocs constitués de mots.
Le code cyclique contrôle alors globalement un bloc de mots.
La substitution éventuelle se fait de même sur un bloc entier.
Cela revient à dire que les mots (de 16 bits par exemple) sont regroupés en « super-
mots » (de N  16 bits).
Cette procédure est employée lors de l’enregistrement sur support mécanique
parce que l’on s’attend à des erreurs groupées par paquets, c’est-à-dire qu’un
défaut sur le support provoquera des erreurs sur plus d’un mot.
Le tableau de l’exemple précédent devient alors un « super-tableau » où chaque
lettre représente maintenant un mot (code de Reed-Solomon généralisé [2]).

8.3.4 Entrelacement
La procédure précédente n’est pas toujours suffisante lors d’un enregistrement
sur support mécanique ou lors d’une transmission hertzienne. En effet, les défauts
éventuels du support mécanique sont en général relativement localisés, mais
importants : absence locale d’oxyde magnétique sur le disque ou la bande magné-
tique, rayure ou poussière sur le disque… De même les altérations lors de la trans-
mission hertzienne sont localisées dans le temps : parasite atmosphérique, écho
ponctuel par réflexion locale de l’onde sur un obstacle…
Lorsque ces défauts localisés n’ont pas lieu, la procédure de correction est inutile,
tout au moins largement sous-employée. Par contre, quand on arrive sur un
défaut, il se peut que l’ensemble du bloc, y compris les mots de substitution (P et
Q), soient faux, ce qui rend toute correction impossible. Dans ce cas, la procédure
de correction n’est pas suffisante.
L’idée est de trouver la « bonne moyenne ».
On utilise pour cela le procédé d’entrelacement dit aussi « propagation d’er-
reurs » qui consiste à ne pas présenter dans l’ordre les informations au
support, mais étaler dans le temps (et donc sur le support) des mots initiale-
ment successifs (de même pour les mots de contrôle et de substitution) :
figures 8.25 et 8.26.
• Cn et Pn : mots de contrôle et de substitution de la séquence, n à (n + 4).
• Les cases numérotées représentent les mots successifs.
Sur la figure 8.25, les mots « 16 » à « 18 » sont faux. Cela dépasse la capacité de
correction : P15 ne peut remplacer qu’un mot parmi les cinq de la séquence.
Chapitre 8 – La technologie audionumérique 449

Figure 8.25 — Enregistrement sans entrelacement.

Sur la figure 8.26 les erreurs localisées sont réparties dans des blocs différents
après désentrelacement.

Figure 8.26 — Enregistrement avec entrelacement.


© Dunod – Toute reproduction non autorisée est un délit.

On arrive alors à n’avoir qu’un mot faux maximum par bloc, ce qui est facilement
corrigible.
En effet, le mot « 10 » est le seul faux détecté par C10, il sera remplacé par la somme
modulo 2 de P10 et des mots « 11 » à « 14 ».
Idem pour le mot « 20 » détecté faux par C20 et remplacé à l’aide de P20.
450 Le livre des techniques du son

8.3.5 Interpolation
✦ Interpolation linéaire
Malgré tous les procédés successifs, il peut arriver que la correction soit impos-
sible. On fait appel alors à une dernière technique dite d’interpolation, basée sur
le seul fait que l’information numérique traduit toujours un son, phénomène
physique continu à variations continues.
De ce fait, la valeur analogique ne peut pas varier de manière très significa-
tive d’un échantillon à l’autre, ce qui fait que les valeurs binaires correspon-
dantes ne sont pas très différentes d’un échantillon au suivant. Dans ces
conditions, si on constate qu’un mot n’a pas été corrigé, on le supprime et on
le remplace par la moyenne de ceux qui l’encadrent (donc les échantillons
précédant et suivant).
Cette opération ne constitue pas une correction, mais une simple approximation.
Elle est souvent appelée compensation : figure 8.27.

Figure 8.27 — Compensation par interpolation.

✦ Interpolation et entrelacement initial


Le système précédent est mis en défaut si plusieurs échantillons successifs sont
faux. On a alors recours à un entrelacement initial des échantillons avant tout
traitement numérique (cet entrelacement est différent de celui vu au § 8.3.4 qui
intervient lui, juste avant l’inscription sur le support ou juste avant la transmis-
sion hertzienne ou sur câble).
De cette façon, on augmente encore le taux d’erreurs compensables (mais non
corrigibles) : figures 8.28 et 8.29.
Chapitre 8 – La technologie audionumérique 451

Le message de la figure 8.28 est mal compensé : les échantillons 3’ et 4’ construits


par interpolation entre 2 et 5 ont des valeurs éloignées de leur valeur initiale
(figurée en pointillés).

Figure 8.28 — Interpolation sans entrelacement initial.

Le message de la figure 8.29 est bien compensé, grâce à l’entrelacement initial. En


effet, lors du traitement, deux échantillons 7 et 10 sont perdus ; mais comme on
effectue la « remise en place » (désentrelacement final), ils peuvent être remplacés
par la moyenne entre 6 et 8 d’une part, 9 et 11 d’autre part, ces quatre derniers
échantillons étant intacts.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 8.29 — Interpolation avec entrelacement initial.


452 Le livre des techniques du son

8.4 Traitement du signal numérique


Il s’agit à présent de travailler sur le signal numérique de manière à introduire des
traitements sur le signal destinés à modifier volontairement l’information audio-
numérique.
On peut classifier ces traitements en cinq catégories principales :
• l’amplification ou l’atténuation,
• le retard,
• le filtrage linéaire,
• le filtrage non linéaire,
• la commutation.
8.4.1 Module d’amplification ou d’atténuation
Amplifier un signal c’est multiplier ses valeurs par un facteur constant supérieur
à 1 ; atténuer un signal, c’est multiplier ses valeurs par un facteur constant infé-
rieur à 1. Ces deux opérations sont strictement identiques, à la valeur du facteur
constant près.
Pourtant, en technologies analogiques, les circuits employés sont différents
(respectivement amplificateur et atténuateur), alors qu’en technologies numé-
riques, le procédé utilisé est le même : multiplier chaque valeur échantillonnée
quantifiée par un nombre binaire. L’opération est alors élémentaire ; de surcroît,
elle n’introduit aucune perturbation systématique alors que les amplificateurs ou
atténuateurs analogiques introduisent systématiquement du bruit.

8.4.2 Module de retard


Retarder un signal audiofréquence, c’est le stocker pendant un certain temps, et le
restituer ensuite.
En technique analogique, cette opération ne peut être réalisée que par le truche-
ment d’un support magnétique : magnétophone à plusieurs têtes. Ce système a le
double inconvénient d’altérer le signal (bande passante limitée, dégradation du
rapport signal à bruit) et de ne pouvoir réaliser que des retards prédéterminés
(fixés par les positions relatives des têtes et la vitesse de défilement de la bande).
Il n’existe aucun autre moyen de retarder un signal sous sa forme analogique d’ori-
gine. (En effet, les appareils dits à « retard analogique » passent par un échantil-
lonnage du signal.)
En technique numérique, le stockage se réalise aisément grâce à un circuit logique
particulier nommé « mémoire » ; l’opération de retard consiste alors à stocker
l’information numérique dans une mémoire (écriture dans la mémoire) puis à la
restituer plus tard (lecture de la mémoire).
Chapitre 8 – La technologie audionumérique 453

✦ Organisation d’une mémoire


Sous forme numérique (après échantillonnage), l’information devient discrète et
non plus continue. Chaque valeur échantillonnée est représentée par un certain
nombre de bits. On peut imaginer ranger chacun de ces bits dans une case-
mémoire.
t 
Stocker t secondes, revient à stocker   échantillons, Te étant la période
 Te 
 t 
d’échantillonnage. Il faut donc disposer de  n ×  cases-mémoires si chaque
 Te 
échantillon est représenté par n bits.
La case-mémoire élémentaire est un circuit électrique nommé bascule, dont la
sortie ne peut présenter que deux niveaux « bas » ou « haut » (respectivement
« 0 » et « 1 » en binaire). De même l’entrée reçoit ces mêmes niveaux.
L’opération d’écriture-mémoire consiste à rendre la sortie égale à l’entrée. Cette
opération n’est effective que pendant un court instant : c’est un ordre d’écriture
fugitif qui est un signal de commande. L’écriture est une opération active en ce
sens qu’elle nécessite une commande. Ensuite, la sortie de la bascule reste stable
(d’où le nom de bascule) jusqu’au prochain ordre d’écriture éventuel. Cette situa-
tion est alors celle de la lecture mémoire qui est une opération passive car la sortie
est toujours disponible, sans qu’une commande ne doive opérer (figure 8.30).

Figure 8.30 — États successifs d’une bascule.


a) Pour écrire, on saisit de façon fugitive par la commande 0 le chiffre
à l’entrée. Ici le 1 est mis en mémoire. b) Le chiffre en mémoire est
© Dunod – Toute reproduction non autorisée est un délit.

disponible à la sortie quelle que soit l’entrée.

L’effacement d’une mémoire est, en réalité, la réécriture de nouvelles données


aux mêmes adresses que les anciennes, ce qui fait disparaître les anciennes. Il n’y
a pas (ou très rarement) de véritable opération d’effacement (qui consisterait
d’ailleurs à remplir toutes les cases-mémoires de 0 ou de 1 – car il n’y a pas d’autre
valeur possible !).
454 Le livre des techniques du son

Ainsi, stocker un message numérique consiste à avoir beaucoup de bascules


élémentaires et à générer des ordres d’écritures sur les bascules concernées. Ceci
nous amène à la nécessité de repérer chaque bascule en les numérotant. Ce
numéro est appelé « adresse ».
Écrire dans une case-mémoire, c’est définir une adresse et donc aiguiller l’ordre
d’écriture au bon endroit. Les adresses sont numérotées en binaire.
Un circuit de mémoire n’est autre qu’un certain nombre de bascules, munies d’en-
trées et de sorties, d’adresses et d’un ordre d’écriture (il n’y a qu’un ordre d’écri-
ture, l’aiguille sert à aiguiller sur la bonne bascule).
Un circuit de mémoire peut ainsi être représenté comme des cases rangées dans
un carré, chaque case étant repérée par son « abscisse » et son « ordonnée »
(figure 8.31). On dit que l’adressage se fait par ligne et colonne.

Figure 8.31 — Organisation d’une mémoire.

À un instant donné, on ne peut écrire qu’un bit. Le message numérique doit donc
être impérativement en série.
Il est préférable de conserver le message échantillonné sous forme parallèle (le
débit est moins important).
Aussi, il est pratique d’avoir autant de circuits que de bits par échantillon. Ceci ne
change rien à l’organisation de la mémoire, mais multiplie simplement le nombre
de circuits. L’adresse est commune à tous les circuits ; chaque bit du message a
son propre circuit : c’est une organisation parallèle (figure 8.32).
Chapitre 8 – La technologie audionumérique 455

Figure 8.32 — Organisation parallèle d’une mémoire.

✦ Taille d’une mémoire


La taille d’une mémoire est le nombre maximum de bits stockables, donc le
nombre de cases-mémoires (exemple : mémoire 1 024 bits). La taille est toujours
une puissance de 2 à cause de l’adressage binaire.
Pour avoir un ordre d’idée, nous allons évaluer la taille que doit avoir une
mémoire, afin de réaliser un retard d’une seconde. On choisit une fréquence
d’échantillonnage de 50 kHz, avec 16 bits par échantillon. Pour stocker 1 s de
signal, il faut donc 50 000 échantillons. Il est nécessaire d’avoir une taille
mémoire de 64 k  16 (en effet 64 k est la puissance de 2 immédiatement supé-
rieure à 50 000).

✦ Les différents types de mémoire


L’organisation précédente permet d’adresser à n’importe quel moment, une case
quelconque. On les appelle pour cela « mémoire à accès aléatoire » (en anglais :
RAM, Random access memory).
Il existe une autre organisation où les bits « inscrits » sont rangés dans les cases
© Dunod – Toute reproduction non autorisée est un délit.

d’adresses croissantes (en commençant par l’adresse a0). De même, la lecture ne


peut se faire qu’en suivant le même ordre (la lecture commence par l’adresse a0 et
se poursuit par adresses croissantes). Ce type de mémoire, aussi parfois appelé
« registre » a pour nom FIFO (First input first output). La mémoire FIFO est très
pratique pour réaliser un retard numérique.
On emploie plus généralement une mémoire RAM quand on désire réaliser des
effets spéciaux (c’est-à-dire que l’ordre de lecture ne suit pas nécessairement
l’ordre d’écriture).
456 Le livre des techniques du son

Il existe également des mémoires où un message est figé une fois pour toutes, sans
aucune possibilité d’écrire : ce sont les mémoires à lecture seule (ROM, Read only
memory). Ces mémoires conservent essentiellement des processus : c’est-à-dire
le cadencement des opérations à effectuer pour un traitement spécifique (ordres
d’écriture, recopie de mémoire à mémoire, adresses de lecture…) et plus généra-
lement des logiciels de base, comme le logiciel de démarrage d’une machine
numérique, dit programme boot.
Une variante de ces mémoires ROM existe sous la forme de mémoires qui peuvent
être effacées et reprogrammées (EPROM) par l’intermédiaire d’un appareil spéci-
fique, extérieur au système audionumérique : c’est un travail essentiellement
informatique, qui ne peut être exécuté en temps réel, c’est le cas, par exemple,
d’une mise à jour de logiciel de base.
Il existe enfin des mémoires identiques aux mémoires RAM, mais ne nécessitant
pas d’alimentation électrique continue en dehors des opérations d’écriture et de
lecture : ce sont les mémoires dites communément flash qui équipent les cartes à
puce, les cartes mémoire d’appareils photographiques, les clés USB… Le principe
est de « piéger » une charge électrique dans un « puits de potentiel » de manière à
ce que cette charge ne puisse plus s’échapper. (L’image que l’on pourrait donner
serait celle d’une bille pouvant tomber dans un creux ou dans un autre creux, en
l’absence d’énergie, la bille est piégée dans son creux et ne peut pas remonter sur
la bosse toute seule !)

8.4.3 Module de filtrage numérique


Un filtre analogique est essentiellement caractérisé par sa bande passante. On
travaille donc dans le domaine fréquentiel. De plus, un filtre analogique déphase
le signal et ceci d’une façon totalement dépendante de la caractéristique d’atté-
nuation du filtre. Les grandeurs d’atténuation et de déphasage sont en effet liées
par la fonction de transfert.
Toutefois, la transformée de Fourier (voir § 5.2.3) permet le passage fréquence-
temps. Ainsi, on peut caractériser complètement un filtre par sa réponse tempo-
relle à un signal caractéristique qui est l’impulsion de Dirac = fonction qui vaut 1
juste pour l’instant origine (t = 0) et 0 partout ailleurs. Cette réponse impulsion-
nelle est la véritable « signature » du filtre.
Le principe du filtre numérique repose sur l’échantillonnage de la réponse impul-
sionnelle du filtre analogique correspondant (figure 8.33).
Pour réaliser une copie numérique de ce filtre, il suffit alors d’échantillonner (et de
numériser) le signal d’entrée et de faire l’opération de convolution (voir § 5.2.2)
avec la réponse impulsionnelle échantillonnée (et numérisée). Le résultat de cette
Chapitre 8 – La technologie audionumérique 457

opération représente le signal de sortie. Ceci implique que la période d’échantil-


lonnage de la réponse impulsionnelle soit la même que celle du signal. L’opéra-
tion de convolution se résume ainsi à une suite d’additions de produits de la valeur
d’un échantillon d’entrée par la valeur d’un échantillon de la réponse impulsion-
nelle et ceci suivant la règle de la convolution. Dans le domaine analogique, la
convolution s’écrit :
+∞
s(t ) = ∫ r (t − τ)e(τ)dτ
−∞

Figure 8.33 — Réponse impulsionnelle échantillonnée d’un filtre analogique.

L’équivalent dans le domaine numérique est :


N
sn = ∑ rn−k ⋅ ek
k =0

où N est le nombre d’échantillons retenus (à partir de t = 0) sur la réponse


impulsionnelle.
Cette opération est aisée à réaliser en techniques numériques puisqu’elle ne
comporte que des multiplications par des constantes (rn – k) et des additions.
© Dunod – Toute reproduction non autorisée est un délit.

Il faut pouvoir disposer des valeurs des échantillons ek . À l’instant t3 par exemple,
on dispose de l’échantillon d’entrée présent noté e3.
En supposant que la réponse impulsionnelle du filtre se résume à 4 valeurs non
nulles, il faut avoir conservé les 3 échantillons précédents (e2 à l’instant t2, e1 à
l’instant t1, e0 à l’instant t0).
On peut alors faire les produits suivants :

p0 = e0  r3
458 Le livre des techniques du son

p1 = e1  r2
p2 = e2  r1
p3 = e3  r0
L’échantillon à la sortie au même instant t3 sera s3 :
s3 = p0 + p1 + p2 + p3
s3 est un échantillon de la réponse du filtre numérique au signal d’entrée échantil-
lonné. À l’instant suivant t4, e4 est le nouvel échantillon d’entrée, les trois précédents
sont alors e3, e2 et e1 ; la même série d’opérations conduit à l’échantillon de sortie s4.
Ainsi, on construit, échantillon par échantillon, le signal de sortie du filtre numérique.
Une structure d’un filtre numérique est celle du filtre dit transversal de la figure 8.34.

Figure 8.34 — Filtre numérique transversal.

Les cases Te représentent un retard d’une période d’échantillonnage. Ce sont des


cases-mémoires où la lecture s’effectue Te après l’écriture, ou encore on peut dire
que l’écriture se fait tous les Te. L’ensemble des cases-mémoires est organisé en
registre à décalage.
Il y a autant de structures identiques que de bits par échantillons.
Les coefficients ri (sous forme binaire parallèle) déterminent le type de filtre, et
cela est la grande nouveauté par rapport au filtrage analogique conventionnel :
une même structure sert à plusieurs types de filtres (passe-haut, passe-bas, passe-
bande), on peut même imaginer des filtres impossibles à réaliser en analogique,
par exemple des filtres qui ne déphasent pas (néanmoins, il existe un retard systé-
matique entre l’entrée et la sortie du filtre numérique).
Chapitre 8 – La technologie audionumérique 459

Dans le filtre transversal, la sortie n’est fonction que de l’entrée et des entrées
précédentes. Il faut d’autant plus remonter dans le temps que la réponse r est
longue. Ceci n’est possible que si la réponse impulsionnelle est finie. Si cette
dernière est infinie (ou très longue), ce sera le cas de filtres très sélectifs
(« pointus ») ou à pente très raide, le filtre transversal conduit à un nombre prohi-
bitif d’opérations et le retard global s’accroît.
On fait alors appel à des filtres récursifs, dont la sortie sn est fonction des entrées
immédiates et précédentes, ainsi que des sorties précédentes :

sn = anen + an – 1en – 1 + an – 2en– 2 +…+ bn – 1 sn – 1 + bn – 2 sn – 2 +…

Le calcul montre qu’on peut ainsi réaliser des filtres à réponse impulsionnelle
infinie (on fait en réalité un bouclage sortie-entrée). La réalisation découle de l’ex-
pression de sn et fait toujours intervenir des retards, additions et multiplica-
tions [3].
Enfin, tous ces calculs peuvent être réalisés facilement avec les techniques infor-
matiques, ce qui signifie que les filtres numériques ne sont pas nécessairement
des circuits électroniques, mais peuvent se réaliser grâce à des algorithmes de
calcul implémentés sur une machine informatique (ordinateur).
L’opération de filtrage devient alors une programmation logicielle et acquiert de
ce fait sa souplesse, en particulier, la mise en mémoire de programmation de
filtres et l’intervention quasi immédiate sur les caractéristiques d’un filtre pré­­
programmé ou non.

8.4.4 Module de filtrage non linéaire


Le filtrage linéaire n’introduit aucune composante spectrale nouvelle car il n’opère
que sur l’amplitude et la phase des composantes spectrales existantes. À l’opposé,
le filtrage non linéaire introduit des composantes spectrales nouvelles, certes, en
général, en relation avec les composantes déjà existantes. Il en va ainsi pour les
décaleurs de fréquence (frequency shifter – « anti-Larsen »), les octaveurs, les
© Dunod – Toute reproduction non autorisée est un délit.

harmoniseurs, les « boîtes » de saturation ou de distorsion, les compresseurs ou


extenseurs, etc. Une opération de filtrage non linéaire réside ainsi, comme pour le
filtrage numérique, en une suite de calculs numériques suivant des algorithmes
adaptés à l’effet attendu.
De la même façon que pour le filtrage numérique, ces calculs sont réalisés sur une
machine informatique (ou sur un microprocesseur intégré dans un périphérique
audio) qui permet une programmation logicielle.
460 Le livre des techniques du son

8.4.5 Module de commutation


La commutation permet de définir le chemin que va emprunter le signal au
travers des différents modules précédents : ouverture de voie, insertion d’effet,
groupage de voies, mixage de voies, duplication de voies (split), etc.
Ici encore les techniques numériques sont particulièrement performantes, la fonction
à réaliser étant une simple multiplication binaire du signal de la voie considérée par ‘1’
(voie ouverte) ou par ‘0’ (voie fermée), les valeurs notées ‘1’ et ‘0’ étant constituées
elles-mêmes respectivement d’autant de 1 ou de 0 que de bits du signal numérique.
Illustration avec un format de 8 bits notés a b c d e f g h (* représente la multipli-
cation bit à bit) :

abcdefgh * 00000000 = 00000000 (voie fermée)


abcdefgh * 11111111 = abcdefgh (voie ouverte)
Cette opération se fait naturellement sans aucune perturbation ni « bruit de
commutation ».

8.4.6 Console de production numérique


Une console de production a les fonctions essentielles suivantes :
1. Amplification ou atténuation (mixage) vues au § 8.4.1.
2. Filtrage (corrections) linéaire et non linéaire (§ 8.4.3 et § 8.4.4). De plus, il faut
noter qu’un dispositif de filtrage peut servir à plusieurs voies simultanément (par
multiplexage, voir § 5.1.3). On perd ainsi la notion de tranche de console figée et
on gagne en efficacité et disponibilité.
3. Groupage : il s’agit d’une somme pondérée du même ordre que le point 1.
4. Affectations qui résident en un ensemble de commutations, donc assurées par
les modules déjà cités.
5. Entrées et sorties : le signal présent sur l’entrée « microphone » est analogique.
Il faut donc le convertir avant tout traitement. Or, cette conversion n’est technolo-
giquement possible que si l’amplitude nominale du signal est assez grande, en
tout cas bien plus que le millivolt, niveau que fournit habituellement un micro-
phone électrodynamique. Il est ainsi nécessaire de conserver un étage de préam-
plification analogique, muni de son traditionnel réglage de gain (ou sensibilité).
Par contre, les entrées « lignes » sont convertibles immédiatement. Il en est de
même des sorties qui peuvent aussi bien être préparées dans un format audio­
numérique (AES, ADAT, MADI, TDIF...) que converties en analogique.
Chapitre 8 – La technologie audionumérique 461

Si l’ensemble des périphériques (effets spéciaux, correcteurs, enregistreurs et


autres moyens de stockage) est numérique, il n’est point besoin de revenir en
analogique sur les sorties de consoles et autres insertions. La console numérique
s’intègre alors naturellement dans un ensemble de production « tout numérique »
où les parties analogiques se réduisent aux microphones et systèmes d’écoute,
étages d’entrée « micro » (l’amplificateur de puissance fonctionnant en commuta-
tion : classe « D », donc avec des signaux à deux niveaux).
Afin de converser avec ses périphériques, la console peut créer des liaisons en
mode série (bit par bit) ou parallèle (mot par mot). Le support mécanique de
transmission qui était jusqu’à présent le câble (mono ou multiconducteur) est
remplacé avantageusement par la fibre optique, celle-ci étant insensible aux para-
sites électromagnétiques et capable d’assurer des débits binaires très importants
(par l’intermédiaire d’un modulateur optique).
Enfin, un microphone peut être muni de son propre préamplificateur, de son conver-
tisseur analogique-numérique et de son modulateur optique. La liaison à la console
se faisant alors par fibre optique, cela met un terme à tous les problèmes de perturba-
tions. Vu de l’extérieur, le microphone devient alors un système numérique lui aussi.

8.4.7 Station de travail audionumérique


Nous avons vu que l’ensemble des fonctions était réalisables grâce à des modules de
traitement numériques qui réalisent eux-mêmes des calculs numériques sur des
circuits logiques tels que les microprocesseurs, spécialisés (DSP, Digital signal
processor) ou non (ALU, Arithmetic and logic unit), et les mémoires.
Or, ces circuits sont aussi les composants d’un ordinateur dont les fonctions de
base sont précisément les calculs et le stockage, l’ensemble étant orchestré par des
algorithmes de calcul qui forment les « logiciels ». Ainsi, pour autant que l’ordina-
teur soit assez puissant en termes de rapidité de calcul (liée en particulier au
cadencement du processeur) et de capacité de stockage (mémoires RAM et
disques internes ou externe), cet ordinateur peut assurer l’ensemble des fonctions
© Dunod – Toute reproduction non autorisée est un délit.

requises, mis à part, bien entendu, les entrées et sorties analogiques. En effet, les
« cartes son » traditionnelles sont loin d’être suffisantes en dehors d’un seul trai-
tement assez sommaire sur une information stéréophonique.
La console de production numérique peut donc se matérialiser sous forme d’un
ordinateur, de modules d’entrées et sorties analogiques ou numériques et d’un logi-
ciel spécialisé permettant d’effectuer les traitements propres à la production audio-
numérique. Le logiciel ProTools, une fois installé sur un ordinateur ayant une
configuration adaptée et accompagné de modules d’entrées-sorties tels que les
Mbox, constitue une « station audionumérique » (DAW, Digital Audio Workstation).
462 Le livre des techniques du son

Toutefois, le clavier alphanumérique d’un ordinateur n’étant pas adapté aux


commandes d’une console de production audio et la souris n’étant pas la plus
ergonomique sur ce sujet, un certain nombre d’interfaces spécialisées viennent
compléter le dispositif :
• des interfaces graphiques tactiles (nommées « surfaces de commandes »)
permettant de créer un environnement virtuel qui, graphiquement, pourra
reproduire, au moins en partie, l’environnement traditionnel d’un studio
de production ;
• des extensions logicielles (nommées plug-in) qui viennent s’interfacer
avec le logiciel de base, pour accéder à des fonctions particulières ou des
effets spéciaux, comme on le fait sur des consoles traditionnelles grâce aux
inserts et périphériques matériels, aux différences près que ces extensions
sont des logiciels et surtout que chacune des extensions permet d’effectuer
un traitement sur un ensemble de voies audio, grâce au multiplexage (alors
que sur une console traditionnelle, un périphérique n’étant opérant que
sur une seule voie, il faut autant de périphériques identiques en insert que
de voies concernées par le traitement) ;
• des sources logicielles de manière à créer des sons synthétisés (et/ou d’in-
terfacer un synthétiseur numérique via les entrées numériques du module
d’entrées-sorties) ;
• des interfaces matérielles (« contrôleurs ») si cela s’avère pratique, par
exemple, une rangée de « faders » linéaires, plus ergonomique que des
réglages sur une surface de commande, dont la seule fonction est de
générer un nombre binaire représentatif d’une atténuation de voie audio,
ou de toute autre chose, par simple programmation. Bien sûr, dans ce
contexte, l’automatisation (« automation ») est accessible, toujours par
simple programmation (logiciel de contrôle et commande) ;
• des interfaces matérielles de type clavier piano MIDI, etc.
Cette station audionumérique permettra ainsi de constituer un environnement
de travail évolutif grâce notamment aux catalogues de plug-in sans cesse enrichis
et améliorés en performance [4].

8.5 Compression de l’information numérique


Il s’agit à présent d’évaluer les volumes d’information (en bits et en global) et les
débits des signaux numériques (en bits/s, en moyenne ou en instantané) face,
respectivement, aux capacités maximales des systèmes de stockage de l’informa-
tion et aux bandes passantes des canaux de transmission de l’information.
Chapitre 8 – La technologie audionumérique 463

Pour effectuer ces évaluations correctement, il convient de bien faire la différence


entre les données « brutes » (issues de l’information et des signaux numériques)
et les données « nettes », incluant, le cas échéant, les opérations de codage détec-
teur et correcteur d’erreurs et, en règle générale, toutes les opérations qui sont
susceptibles d’augmenter le volume d’information et le débit numérique (tels que
les « données annexes », commentaires et autres données d’indexation).
Il peut ainsi arriver que le volume de l’information à stocker dépasse la capacité
maximale du système de stockage. L’opération est donc rigoureusement impos-
sible à réaliser sauf à mettre en œuvre un dispositif conçu spécialement pour cette
situation : le dispositif de « compression » de l’information qui consiste plus exac-
tement à mettre en œuvre un système de réduction de débit numérique ayant
pour rôle de diminuer la taille des fichiers en modifiant le moins possible (idéale-
ment pas du tout) le rendu perceptif.

8.5.1 Débit numérique et capacité


Nous avons vu au § 8.2.1 que le théorème de Nyquist-Shannon sur l’échantillon-
nage nous impose de choisir une fréquence d’échantillonnage d’au moins 40 kHz.
Nous avons vu également que l’existence du bruit de quantification et la qualité
souhaitée nous entraînaient à faire le choix de 16 bits au moins par échantillon. Le
mode série binaire amène donc à un débit de 40 000  16 = 640 kbit/s au minimum
pour une voie monophonique et donc à un débit de 1,28 Mbit/s au minimum
pour un canal stéréophonique. Si l’on emploie en plus les techniques de codage
correcteurs d’erreurs, les débits précédents peuvent alors augmenter jusqu’à
doubler. Il faut alors rapprocher les débits obtenus aux capacités des systèmes,
notamment de stockage et de transmission.
Pour illustrer, nous pouvons prendre les capacités des systèmes de transmissions
numériques publics :
• une voie téléphonique raccordée sur un modem numérique permet jusqu’à
56 kbit/s (cas des liaisons internet domestiques) ;
© Dunod – Toute reproduction non autorisée est un délit.

• un raccordement numérique RNIS permet 128 kbit/s ;


• un accès ADSL numérique sur câble peut aller jusqu’à 1 Mbit/s ;
• un accès primaire E1 permet 2 Mbit/s.
Ces exemples montrent bien que le débit relatif à un son stéréophonique numé-
risé est important relativement aux capacités des réseaux de transmission, d’où la
recherche de moyens de « compression », c’est-à-dire de procédés permettant de
réduire ce débit [5].
464 Le livre des techniques du son

8.5.2 Techniques de réduction de débit du son


Les procédés de réduction de débit sont employés essentiellement pour le stoc-
kage numérique (dans le but de diminuer le volume binaire) et pour la transmis-
sion (dans le but de diminuer le débit nécessaire, donc la bande passante du
canal). Ces procédés résident en un traitement préalable au stockage ou à la trans-
mission (codage) et un traitement à la restitution (décodage).
Il existe fondamentalement deux classes de procédés de réduction de débit du
son : les techniques sans perte d’information (sans aucune altération : le signal
restitué après décodage est identique en tout point au signal avant codage) et les
techniques avec perte d’information (le signal après décodage n’est pas identique
à celui avant codage, mais le son produit est perçu par l’humain de la même façon
que le son initial ou au pire, la différence est quasiment inaudible).
Il existe trois principes de base pour assurer la réduction de débit :
• les méthodes différentielles : sans pertes ;
• les méthodes perceptuelles (ou « psychoacoustiques ») : avec pertes ;
• les méthodes paramétriques (ou « à modèles ») : avec pertes.

✦ Méthodes différentielles
Le principe de ces méthodes est de coder non pas les échantillons successifs, mais
la différence entre l’échantillon actuel et le précédent. Le son étant un phénomène
physique, il ne peut pas y avoir de très grandes différences entre valeurs succes-
sives, ce qui fait que le nombre de bits alloués à la différence pourra toujours être
inférieur au nombre de bits que l’on devrait allouer pour chacune des valeurs :
c’est le principe DPCM (Differential pulse coded modulation). Ce principe a été
utilisé la première fois pour la téléphonie en passant de 8 bits par échantillon à
4 bits par différence. Bien entendu, il est nécessaire, de temps en temps, de trans-
mettre la valeur isolée d’un échantillon, pour éviter qu’il y ait une dérive acciden-
telle qui se propage (car si une différence se trouve être erronée, toutes les valeurs
restituées suivantes sont fausses !).
Toutefois, dans le cas pratique où le nombre de bits alloué à la différence est fixé,
il y a risque de dépassement accidentel (lors d’un son bref et impulsionnel par
exemple). Pour contourner cette difficulté, on introduit une quantification non
linéaire sur la différence, l’intervalle de quantification étant fonction de la diffé-
rence effectivement constatée lors du codage et de l’évolution dans le temps de
cette différence ; ainsi un même mot binaire peut signifier des valeurs différentes
de différence suivant le « contexte » : c’est le principe ADPCM (adaptative DPCM).
Par exemple si le système codeur enregistre 5 fois de suite une différence qui croît,
Chapitre 8 – La technologie audionumérique 465

il y a risque de dépassement pour les fois suivantes et donc il transmettra non plus
la valeur des différences suivantes, mais de celles-ci divisées par 2 et ainsi de suite
(division par 4, par 8… si la croissance continue). Au contraire, étant dans cette
situation, si le codeur enregistre à présent des différences qui décroissent, il
reviendra à la situation initiale. Le décodeur appliquera le même principe dès lors
qu’une normalisation fixera le « protocole » employé par le codeur (au bout de 5
croissances consécutives, diviser par 2, puis au bout de 3 autres, diviser par 4…).
Cette technique est employée dans les normes G721 et G722 de téléphonie numé-
rique à application de transmission audio de qualité « améliorée » (audioconfé-
rence par exemple).

✦ Méthodes perceptuelles
Ces procédés reposent sur l’effet de masque de l’audition humaine (voir § 4.2.1).
En effet, quand on fait le choix de 16 bits par échantillon, on se base sur la présence
systématique du bruit de quantification que l’on veut rendre inaudible dans toute
situation, ce qui amène à faire le choix d’un rapport S/N d’au moins 90 dB. Toute-
fois, en présence de sons « forts », on sait que l’effet de masque fera que des sons
« faibles » (et en particulier le bruit de quantification) seront parfaitement inau-
dibles même si leur puissance est de 30 ou 40 dB inférieure (selon le son
masquant). Dans ces conditions, il peut paraître intéressant de n’employer que le
nombre de bits juste nécessaire pour assurer un rapport S/N des mêmes 30 ou
40 dB.
Ce principe peut être affiné en considérant l’effet de masquage fréquentiel :
certaines composantes de « fortes » amplitudes d’un son peuvent alors masquer
physiologiquement d’autres composantes « plus faibles » de ce même son. Afin de
tirer le meilleur profit de cet effet de masquage, il est avantageux de diviser
le spectre audio en un certain nombre de sous-bandes, afin de préciser au mieux
le niveau de masquage dans chacune des ces sous-bandes et ainsi réaliser une
allocation binaire juste suffisante pour chacune d’entre elles.
© Dunod – Toute reproduction non autorisée est un délit.

Dans la figure 8.35, on a représenté un son qui serait composé de 8 sons purs


(8 composantes spectrales), chacun étant accompagné de sa courbe de masquage.
L’ensemble des courbes de masquage détermine une zone inférieure dans laquelle
aucune composante sonore (y compris le bruit de quantification) ne serait
audible. Cette zone est majorée par un niveau Lmin, ce qui signifie que le bruit de
quantification peut atteindre, au pire, cette valeur de Lmin. Plus cette dernière
valeur sera élevée, plus le bruit de quantification pourra l’être et, par conséquent,
plus le nombre de bits alloués à la quantification pourra être réduit. L’exemple de
la figure 8.35 montre, de plus, l’intérêt à faire cette détermination en divisant la
466 Le livre des techniques du son

bande 20 Hz-20 kHz en sous-bandes (4 dans notre figure, 32 dans la réalité) de


manière à avoir des valeurs de Lmin les plus grandes possibles, donc des allocations
binaires par sous-bandes plus réduites qu’elles ne pourraient l’être par détermina-
tion en bande entière.

Figure 8.35 — Effet de masquage d’un son composé de 8 sons purs :


valeurs de Lmin dans le cas d’une bande entière ou de 4 sous-bandes.

Ces techniques sont à la base des procédés MUSICAM, DOLBY AC3 et MPEG
Audio.

✧ Procédé MPEG Audio


Il existe actuellement trois niveaux de compression (layers) : 1, 2 et 3 qui vont en
croissant, mais le principe de base reste le même. Il est à noter que le procédé de
niveau 3 utilise en complément une technique de compression utilisée couramment
en informatique : le codage statistique (codage à longueur variable consistant à attri-
buer une longueur de mot d’autant plus courte que le mot initial se répète souvent).
Chapitre 8 – La technologie audionumérique 467

Les opérations successives destinées à réaliser cette compression sont :


• Numérisation en 16 bits avec un échantillonnage de 48 kHz.
• Calcul du spectre instantané du son chaque 24 ms (FFT), soit 1 152 échan-
tillons.
• Déduction de la courbe de masque entre 20 Hz et 20 kHz.
• Division du signal en 32 sous-bandes.
• Évaluation du niveau maximal atteint dans chaque sous-bande et durant
24 ms, notons ce niveau : Lmax en décibels.
• Grâce à la courbe de masque, évaluation du niveau de bruit de quantifica-
tion juste inaudible, notons ce niveau : Lmin en décibels.
• Allocation binaire de B bits par la formule : B = (Lmax – Lmin)/6. Cette
formule est directement issue de la relation donnant la dynamique en
fonction du nombre de bits utilisé pour le codage (voir § 8.2.1).
• Ceci signifie alors que pour les échantillons concernés, il n’est besoin que
de transmettre B bits et non plus 16.
• On fait alors la transmission de la valeur de B (nombre de bits dans la sous-
bande considérée), la valeur de Lmax (facteur d’échelle de façon à pouvoir
restituer au décodage la bonne valeur absolue des échantillons) et enfin
des valeurs sur B bits des échantillons.
• Ces données sont encapsulées en une trame de données qui se répète
chaque 24 ms.
Cette technique conduit alors à un débit binaire variable selon la composition
instantanée du son : en particulier, une phase de silence conduira naturellement
à une affectation binaire minimale (car alors Lmax = Lmin), de même que pour un
son spectralement peu étendu (car alors, il y aura des sous-bandes « vides ») ; au
contraire un son complexe pourra conduire à un débit plus grand. Les systèmes
de stockage, de transmission et de traitement ne pouvant en général qu’accepter
© Dunod – Toute reproduction non autorisée est un délit.

un débit fixe, il est nécessaire de réaliser une opération complémentaire à cette


fin. Pour cela, le train binaire à débit variable est stocké temporairement dans un
tampon réservoir (buffer) et ce tampon est vidé (lu) avec le rythme correspondant
au débit fixe souhaité. Bien entendu, il ne faut jamais que ce tampon se vide ou
déborde, pour cela, il y a surveillance constante de son état de remplissage et s’il
s’approche des limites haute ou basse, il y a réaction sur l’allocation binaire (viola-
tion momentanée de la relation donnant la valeur de B : si le tampon tend à
déborder, on diminue B par rapport à la valeur théorique, ce qui entraîne certes
une légère dégradation temporaire du son, mais qui évite le pire qui est une perte
de données).
468 Le livre des techniques du son

Tableau 8.3 — Résumé des standards de transmission de son sans réduction de débit.

Bande Débit de
Standard Techniques Utilisation
passante transmission

EBU stéréo numérisation radiodiffusion


896 kbit/s
32 kHz 50 – 15 000 Hz 14 bits sonore

IEC stéréo numérisation


1,41 Mbit/s CD-audio
44,1 kHz 20 – 20 000 Hz 16 bits

traitements et
AES/EBU stéréo numérisation
1,54 Mbit/s enregistrements
48 kHz 20 – 20 000 Hz 16 bits
professionnels

Tableau 8.4 — Résumé des standards de transmission avec réduction de débit.

Format Débit de
Standard Techniques Utilisation
d’origine transmission

numérisation
NICAM radiodiffusion
EBU 32 kHz codage par plages 728 kbit/s
(32 kHz) télévisuelle
14 puis 10 bits

filtrage 32 bandes
MPEG numérique évaluation
32 à 448 kbit/s stockage
Audio I 48 kHz – 16 bits mas­quage,
bon à 192 kbit/s* mémoires
« mp1 » (AES/EBU) allocation binaire
adaptée

filtrage 32 bandes radio et TV


MPEG numérique
calcul masquage 32 à 384 kbit/s numériques
Audio II 48 kHz – 16 bits
par FFT, allocation bon à 128 kbit/s* DAB, DVB,
« mp2 » (AES/EBU)
binaire adaptée disque DVD

filtrage 32 bandes
calcul masquage
MPEG numérique par FFT, quantifica­
32 à 320 kbit/s multimédia
Audio III 48 kHz – 16 bits tion non linéaire,
bon à 64 kbit/s* Internet
« mp3 » (AES/EBU) allocation binaire
adaptée, codage
statistique

*Les deux valeurs de débit indiquent les bornes inférieures et supérieures en fonction de la composition
du son; « bon à » signifie que le débit indiqué est celui d’un canal qui permettra une « bonne » restitution
du son, en tolérant donc quelques imperfections (car comme cette valeur est inférieure à la valeur
maximale du débit possible, il arrivera que le tampon de sortie ait tendance à déborder ce qui entraînera,
comme nous l’avons vu, une légère dégradation de qualité).
© Dunod – Toute reproduction non autorisée est un délit.
Chapitre 8 – La technologie audionumérique

Figure 8.36 — Synoptique du traitement MPEG-Audio.


469
470 Le livre des techniques du son

✦ Méthodes paramétriques
Cette méthode consiste, contrairement aux autres, à ne pas transmettre les
échantillons du son, mais les caractéristiques (paramètres) de ce son, propres
à pouvoir le reconstituer à l’arrivée. De façon simpliste, si un son n’était
composé que de sons purs, on pourrait alors lui associer l’ensemble des
données (amplitude, fréquence) qui décriraient parfaitement son spectre,
donc le son associé. On réalise ainsi une analyse du son, un codage et une
transmission des paramètres associés, puis enfin une synthèse du son pour la
reproduction. Cette méthode nécessite d’avoir des systèmes d’analyse et de
synthèse performants afin de pouvoir restituer un son (même très complexe)
avec une fidélité absolue. Cette méthode est actuellement employée pour la
voix exclusivement dans la mesure où le processus de la création de la voix est
bien connu. Il existe ainsi un « modèle de production de la parole » constitué
principalement de trois objets : la production d’air (poumons), la création de
la vibration (cordes vocales), le filtrage (cavité bucco-nasale) ; à ces trois
objets, on peut associer assez facilement un certain nombre de paramètres
déterminants. Pour la reproduction, on fait alors appel à un synthétiseur vocal
composé des mêmes objets (ou plutôt de leur réalisation électronique)
commandé par les paramètres reçus.
Cette méthode est utilisée notamment pour la transmission de la parole en télé-
phonie mobile cellulaire (GSM), mais n’a pas encore d’applications pour le stoc-
kage ou la transmission de la musique, étant donné la grande complexité des sons
musicaux et le grand nombre de modèles qu’il faudrait pouvoir répertorier et
appliquer (instruments de musique, voix chantée).

8.6 Enregistrement et reproduction


Historiquement, l’enregistrement sonore se réalisait sur trois types de supports et
de manière analogique : la bande magnétique, le disque à gravure mécanique
(disque vinyle) et la pellicule photo-chimique (enregistrement optique sur film).
La bande magnétique subit une magnétisation de ses particules proportionnelle
au courant électrique qui passe dans la tête d’enregistrement, lui-même représen-
tatif du son ; à l’inverse, la tête de lecture produit une tension électrique propor-
tionnelle aux variations de magnétisation de la bande et reproduit alors le son
(voir chapitre 7). Le disque à gravure mécanique porte l’information produite par
le son à la manière d’une déformation de la position du sillon et de sa profondeur
(gravure universelle) ; la tête de lecture capte ces écarts et en génère deux tensions
proportionnelles : une par canal stéréophonique (voir chapitre  2, tome 3). La
piste optique d’un film est constituée d’une zone dont la transparence est fonction
Chapitre 8 – La technologie audionumérique 471

linéaire de l’amplitude instantanée du son ; un dispositif de lecture utilisant une


ampoule lumineuse focalisée qui éclaire cette zone et une cellule photo-électrique
qui récupère la lumière transmise, restitue une tension électrique proportion-
nelle au niveau de transparence, donc proportionnelle au son enregistré. Ces trois
procédés sont donc bien analogiques dans la mesure où les grandeurs successives
mises en jeu sont toutes proportionnelles entre elles. Ainsi, toute déformation ou
toute perturbation lors des opérations d’enregistrement, de lecture et toute alté-
ration due au temps se révèlent être irréversibles.
C’est pour cette raison que les techniques numériques ont été en priorité appli-
quées à l’enregistrement.
Les supports physiques sont pourtant du même ordre : on utilise en effet la
bande magnétique (mais alors sa magnétisation est binaire) et le disque à
gravure mécanique (mais alors il n’y a que des « trous et des bosses » repré-
sentant les valeurs binaires). Ce dernier est de plus avantageusement conçu
pour permettre une lecture optique (donc sans contact mécanique) permet-
tant une grande longévité de ce support face aux agressions : il s’agit du
CD-audio, du DVD ou du Blu-Ray.
Un autre avantage est la possibilité de multiplexage de plusieurs canaux. Par
exemple, pour la stéréophonie, il est tout à fait envisageable d’imbriquer les
échantillons « gauche » et « droite » (figure 8.37) pour ne former qu’un seul train
binaire, certes de débit double et au prix d’une technique de repérage pour pouvoir
les séparer lors de la lecture.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 8.37 — Multiplexage stéréophonique.


472 Le livre des techniques du son

8.6.1 Exemples de formats utilisés sur bande magnétique


Un calcul préalable du débit d’information est nécessaire afin de pouvoir le
comparer aux capacités acceptables par les appareils à bande magnétique. En
effet, quand on utilise le procédé d’enregistrement magnétique, deux facteurs
principaux limitent la capacité en débit (bande passante) : la qualité du support
magnétique et, pour une taille d’entrefer de tête donnée, la vitesse relative de la
bande par rapport à la tête (voir le chapitre 7). Ce dernier facteur est déterminant,
ainsi il existe deux types de procédés d’enregistrement : les systèmes pour lesquels
la tête est fixe (préfixe « S- » pour Stationnary), la vitesse relative est alors celle de
la bande et les systèmes pour lesquels la tête est solidaire d’un tambour rotatif
(préfixe « R- » pour Rotary), la vitesse relative est alors la somme de la vitesse de
la bande et de la vitesse tangentielle du tambour.
Avec une bande magnétique de bonne qualité, on arrive ainsi aux ordres de gran-
deurs suivants : bande passante de l’ordre de 30 kHz avec un système à tête fixe et
une vitesse de bande de 38 cm/s (magnétophone analogique) ; bande passante de
l’ordre de 5 MHz avec un système à tête rotative (25 tr/s) et une vitesse de bande
de 2,34 cm/s, ce qui avec un tambour de 62 mm de diamètre conduit à une vitesse
relative de 5 m/s (magnétoscope de type VHS). Ainsi, suivant le système employé,
on pourra utiliser l’enregistrement numérique pour des débits de l’ordre de
30 kbit/s (systèmes « S- ») ou de l’ordre de 5 Mbit/s (systèmes « R- ») avec une
représentation électrique série de type NRZ.
Ainsi, en adoptant une fréquence d’échantillonnage de 48 kHz avec un codage sur
16 bits, le débit arrive à une valeur de 750 kbit/s environ (sans compter le débit
supplémentaire occasionné par le codage correcteur d’erreurs). Cette valeur
montre que l’utilisation d’un système à tête fixe nécessitera un codage particulier
de manière à réduire la rapidité de modulation, mais aussi d’une vitesse de bande
élevée et d’un entrefer de tête très réduit. Par contre, un système à tête rotative
permettra l’enregistrement de plusieurs voies par piste (stéréophonie en particu-
lier en imbriquant les échantillons successifs « gauche » puis « droite »).
Différentes réalisations technologiques se sont succédé avec, à chaque fois, des
avantages mais aussi des inconvénients. La nécessité d’un défilement mécanique
régulier pour les systèmes à tête fixe est une contrainte non négligeable. Ainsi les
systèmes DASH de Sony, mais aussi PRODIGI de Mitsubishi et Otari ont permis la
mise en fonctionnement de machines multipistes allant jusqu’à 24 puis 32 et enfin
48 pistes. La difficulté de monter dans la bande et la fragilité du support n’ont pas
rendu pérenne cette technologie devant les avancées majeures de l’informatique.
Quant aux réalisations sur tête tournante, les premiers enregistreurs utilisaient
des magnétoscopes du type U-matic puis Béta (PCM 1600 et 1630), ensuite PCM
Chapitre 8 – La technologie audionumérique 473

F1 pour enfin devenir un standard avec la DAT (Digital Audio Tape). Ce format
fonctionnel 2 pistes devait remplacer la cassette analogique du grand public mais
a été détourné par les professionnels pendant quelques temps pour servir d’enre-
gistreur de masters. Le montage s’effectuait avec des bancs vidéo et nécessitait la
recopie d’une machine sur l’autre. Il était long et ne permettait pas l’erreur car il
fallait alors tout recopier… Mais les premiers CD sont sortis avec ce type de
machine.

8.6.2 Exemples de formats utilisés sur disque à gravure mécanique


✦ Format CD
CD est le sigle déposé du Compact Disc. Il est destiné à l’enregistrement d’un
signal stéréophonique sur un disque à lecture optique.
La fréquence d’échantillonnage est de 44,1 kHz (identique aux formats EIAJ) et le
codage est sur 16 bits. Le format est défini par deux adjonctions de codes cycli-
ques par bloc, l’un avant entrelacement, l’autre après.
De plus, avant tout codage, les échantillons sont eux-mêmes entrelacés afin de
permettre, a posteriori, une compensation par interpolation.
Ceci permet de corriger jusqu’à 4 000 bits successifs sur le disque et de com-penser
jusqu’à 12 000 bits (soit une longueur de 7,7 mm de la spirale sur laquelle sont
rangés les bits).
Le transcodage final va transformer des paquets de 8 bits en paquets de
14 bits (ce procédé est appelé EFM : Eight to fourteen modulation). Au prix
d’un débit apparent plus élevé, on va s’attacher à réduire le nombre de transi-
tions 0  1 ou 1  0 en séparant deux « 1 » successifs par deux à dix « 0 ».
Ceci permet d’abaisser la rapidité de modulation, seul critère important pour
la gravure.
Le disque est ensuite gravé sous forme de « cuvettes » de largeur et de profondeur
© Dunod – Toute reproduction non autorisée est un délit.

constantes, rangées en spirale à partir de l’intérieur du disque. La longueur de ces


cuvettes correspondant à l’intervalle séparant deux « 1 » consécutifs.
La lecture est alors très simple : le « bord » d’une cuvette représente « 1 ». Une
surface plane représente des « 0 ».
Compte tenu de ce type de codage, la taille minimale des cuvettes vaut 0,8 m et
le pas de la spirale vaut 1,6 m (ce qui permet la faisabilité de la lecture, liée au
diamètre du spot du rayon laser, et ce qui permet aussi la reproduction méca-
nique par pressage à partir d’un disque gravé en relief) [6].
474 Le livre des techniques du son

Figure 8.38 — Gravure du disque audionumérique.

✦ Format DVD
Le standard DVD (Digital versatile disc) est le successeur du CD-audio. Il a été
conçu pour permettre de stocker un programme vidéo et plusieurs programmes
audio sur un disque de 12 cm de diamètre. Suivant sa fabrication (1 face ou
2 faces, 1 ou 2 couches par face), sa capacité varie de 5 Go (gigaoctets) jusqu’à
17 Go. Pour cela, la gravure mécanique est du même type que celle utilisée pour
le CD-audio, mais est beaucoup plus fine : cuvette de dimension minimale
0,4 m et pas de la spirale de 0,7 m. Ceci a été rendu possible grâce à l’évolution
technologique de la lecture laser ainsi que du pressage). Les programmes sont
bien sûr compressés (procédé MPEG) et un système de correction d’erreurs
(similaire à celui utilisé pour le CD) a été mis en place [7].

F Format Blu-Ray
Le procédé Blu-Ray fonctionne suivant le même principe général de la gravure
mécanique et de la lecture optique à la différence près que la gravure est encore
plus fine : cuvette de dimension minimale 0,15 μm et pas de la spirale de 0,32 μm.
Ces dimensions permettent une densité de gravure plus importante et donc une
capacité typique de 50 Go. Le suivi de piste et la lecture d’une cuvette ne sont
optiquement possibles que si la longueur d’onde de la lumière produite par le
laser est de l’ordre de grandeur du pas de spirale (0,32 μm), ce qui a conduit à
adopter un laser de lecture de longueur d’onde 0,4 μm, cette lumière est bleu
violacé, d’où le nom de ce format (« rayon bleu »), alors que le DVD utilise un laser
rouge de longueur d’onde 0,65 μm, suffisant relativement à la gravure du DVD,
mais trop grande pour la lecture d’un Blu-Ray, d’où l’impossibilité de lire un
Blu-Ray avec un lecteur DVD, l’inverse étant naturellement possible.

8.6.3 Enregistrement sur support informatique


L’évolution de la vitesse de traitement des ordinateurs et l’évolution de la capacité
des mémoires permanentes (disques durs, mémoires flash, clés USB) permet
maintenant de réaliser enregistrement et traitement numérique du son à l’aide
Chapitre 8 – La technologie audionumérique 475

d’un ordinateur spécialisé, c’est-à-dire muni d’interfaces son de haute qualité (à


accès analogiques et numériques) et de processeurs spécialisés dans le traitement
du son (filtrage, retards…) : ces processeurs s’appellent des DSP (Digital signal
processor).
Les traitements sont toujours réalisés en mode parallèle (sur 16, 24 ou 32 bits,
voire 64 bits) et nécessitent donc des cadences liées à la fréquence d’échantillon-
nage, soit 48 kHz, vitesse « lente » relativement aux possibilités des processeurs,
même s’il est nécessaire de faire de nombreux calculs entre deux échantillons
successifs (un processeur cadencé à 1 GHz =109 Hz permettrait ainsi de réaliser
environ 20 000 opérations élémentaires entre deux échantillons successifs).
Le nombre de bits par échantillon ne découle pas de la numérisation du signal
audio (16 bits suffisent), mais de la précision des calculs, surtout s’ils sont
nombreux. En effet, chaque calcul, puisqu’il est limité en nombre de bits, intro-
duit systématiquement une erreur d’arrondi (il n’y a pas de « virgule » dans les
nombres numériques !) ; ces erreurs se cumulent au fur et à mesure des opéra-
tions de traitement et engendrent ainsi ce que l’on peut qualifier de « bruit de
traitement numérique » qui, si l’on n’y prend pas garde, pourrait devenir compa-
rable aux bruits des circuits de traitement analogiques, ce qui enlèverait un des
gros avantages des technologies numériques ! Pour éviter cela, il faut que les
erreurs d’arrondi ne concernent que des bits « invisibles » par le convertisseur
numérique/analogique final, ces bits seront en effet « invisibles » s’ils sont en rang
17 et plus par rapport aux 16 premiers bits pris en compte dans le convertisseur.
Les enregistrements sont également effectués en mode parallèle, couramment
sous forme d’octets (8 bits). À titre d’exemple, une heure de programme mono-
phonique avec un échantillonnage à 48 kHz et un codage sur 16 bits (2 octets)
représente un volume de 3 600  48 000  2 = 350 Mo (mégaoctets) alors que les
disques durs classiques actuels permettent plusieurs dizaines de gigaoctets, soit
l’équivalent de 32 programmes de 1 heure par disque de 10 Go environ : c’est
l’équivalent ce que l’on faisait auparavant grâce à un magnétophone multipistes.
© Dunod – Toute reproduction non autorisée est un délit.

L’intérêt supplémentaire de l’outil informatique réside dans les fonctionnalités


associées au traitement ou à l’enregistrement, comme l’automatisation et le
séquencement des tâches, la sauvegarde et le rappel de configurations de traite-
ment, l’association de données (partitions, textes, clips vidéo, etc.)…

8.6.4 Interconnexions numériques entre machines


De manière à ne pas dégrader inutilement l’information, il est nécessaire de
réaliser le moins de conversions possibles (analogique-numérique et inverse). En
particulier, les liaisons entre équipements ont avantage à être sous forme numé-
476 Le livre des techniques du son

rique. Afin de pouvoir connecter des équipements de constructeurs différents, il


est nécessaire d’adopter une normalisation au niveau des entrées et sorties dites
interfaces. Deux normalisations sont couramment employées, l’une pour la
liaison stéréophonique (AES/EBU), l’autre pour les liaisons multicanaux (MADI).
La normalisation AES/EBU (Audio engineering society/European broadcaster’s
union) est une liaison série sur un seul câble (coaxial ou fibre optique) avec un
débit binaire de 48 kHz et une représentation de type biphase. L’organisation des
bits est sous forme d’un bloc constitué de 192 trames contenant chacune 2 sous-
trames. Une sous-trame représente un ensemble de 32 bits, dont 20 sont réservés
au codage du signal audio (on utilise couramment les 16 derniers) et dont les 12
restants forment trois séries de 4 bits destinés respectivement à l’identification
(type) de la sous-trame, aux données auxiliaires (voie audio auxiliaire de type
« voie d’ordre » par exemple ou données numériques de type « horodatage » par
exemple) et au contrôle (supervision de la transmission, données numériques
d’accompagnement comme titre, durée, commentaire…) de la transmission. Une
trame rassemble une sous-trame « gauche » et une sous-trame « droite » néces-
saire à la transmission d’un programme stéréophonique. La notion de bloc de 192
trames intervient uniquement au niveau des bits de contrôle et permet de grouper
192 fois ces 4 bits de manière à former un message numérique qui sera codé et
décodé par un système informatique et destiné à l’utilisateur (voir tome 2, annexe
A.1).
La normalisation MADI (Multichannel audio digital interface)1 prévoit une
liaison numérique de 56 canaux multiplexés, chaque canal portant un mot de
24 bits maximum, avec un signal numérique NRZ après transcodage « 4B/5B »
(transformation de paquets de 4 bits en paquets de 5 bits : voir § 8.6.2 pour une
justification de ce procédé). La fréquence d’échantillonnage peut être comprise
entre 32 et 48 kHz, une marge de ± 12,5 %, autorisant ainsi la variation de vitesse
(varispeed). Le support physique est un câble coaxial ou une fibre optique.
La normalisation S/PDIF (Sony/Philips Digital Interface Format) est une liaison
série dont le format est issu de la normalisation AES/EBU. La fréquence d’échan-
tillonnage est de 96 kHz et la quantification est sur 24 bits (version profession-
nelle). Le support physique est un câble coaxial (équipé de fiches RCA) ou une
fibre optique (équipée de fiches TOSLINK).

1. Mis au point par Mitsubishi Electric UK, Neve Electronic International, Solid State Logic et Sony Broad-
cast & Communication Ltd.
Chapitre 8 – La technologie audionumérique 477

8.6.5 Transmission numérique


✦ Principes de la transmission
La transmission numérique peut se réaliser suivant deux modes : la transmission en
bande de base ou la transmission en bande transposée. La transmission en bande de
base est utilisée notamment lors de la transmission sur câble en cuivre et emploie
une représentation électrique conventionnelle (NRZ, NRZI, biphase, AMI…
voir § 8.1). La transmission en bande transposée est indispensable lors d’une trans-
mission hertzienne (« sans fil »), lors d’une transmission optique sur fibre (« fibre
optique »), mais s’utilise aussi sur un câble dans le but de pouvoir réaliser une
transmission multi-programmes (multiplexage). Dans les trois cas, ce mode de
transmission a recours à un procédé de modulation sur fonction sinusoïdale, dite
onde porteuse. Il s’agit d’une fonction sinusoïdale dont le signal numérique fera
varier un ou plusieurs des paramètres de cette fonction : amplitude, fréquence,
phase. La fréquence moyenne de cette fonction sinusoïdale définira un « canal »,
ainsi on peut transmettre dans l’espace libre (diffusion hertzienne) ou dans une
fibre optique ou encore sur un câble (réseau câblé) plusieurs programmes indé-
pendants dont le choix à l’arrivée sera fait par celui de la fréquence porteuse.
Les modulations couramment utilisées sont les suivantes [8] :
• FSK (Frequency shift keying) : aux deux états du signal numérique binaire,
on associe deux écarts de fréquence (faibles) par rapport à la fréquence
porteuse (modulation de fréquence) ;
• DPSK (Differential phase shift keying) : aux deux états du signal numérique
binaire, on associe deux déphasages différents par rapport à l’état de phase
précédent (d’où le qualificatif de différentiel) ;
• DPSK-N : plutôt que de réaliser l’association bit par bit, on peut grouper les
bits par paquets de B = 2, 3 ou 4, ce qui permet de leur associer respective-
ment N = 4, 8 ou 16 états de déphasage (N = 2B) ; l’intérêt de cette opéra-
tion est de pouvoir augmenter le débit binaire sans pour autant modifier la
rapidité de modulation (et donc la bande passante occupée par le
© Dunod – Toute reproduction non autorisée est un délit.

programme). La DPSK-4 se nomme aussi QPSK (Quadrature PSK) ;


• QAM-N : le principe est le même que précédemment en associant aux
paquets de B bits une combinaison parmi N d’états d’amplitude et de dépha-
sage (N = 2B) ; le fait de modifier aussi l’amplitude permet un nombre N plus
grand (donc aussi un nombre B plus grand). Cette technique est utilisée pour
le procédé DVB utilisé notamment pour la transmission hertzienne numé-
rique terrestre (TNT) et permet ainsi de réaliser un multiplexage numérique
de plusieurs programmes sur un même canal (une seule fréquence porteuse) :
ce principe se nomme MCPC (Multiple channel per carrier).
478 Le livre des techniques du son

Il faut noter que ces modulations, produisant un signal électrique, sont appli-
cables directement pour une transmission hertzienne ou sur câble en cuivre ; ce
sont des méthodes qui relèvent de l’électronique. En revanche, dans le cas d’une
transmission par une fibre optique, ces mêmes modulations sont intermédiaires,
le résultat de cette première modulation (signal électrique) étant à son tour
modulé en amplitude de lumière, grâce à une diode laser, la fréquence de cette
lumière laser jouant le rôle de nouvelle « onde porteuse » qui va se propager dans
la fibre jusqu’à la réception par une photodiode ; ce sont des méthodes qui relèvent
ici de l’optoélectronique.
Enfin, ces méthodes optoélectroniques via la propagation dans une fibre optique
ont un avantage considérable par rapport à la transmission hertzienne ou la
transmission sur câble en cuivre : c’est la quasi-insensibilité aux parasites électro-
magnétiques, la fibre optique (matière plastique) étant un milieu confiné et
insensible aux inductions électriques.

✦ Exemples de formats de transmission


DAB (Digital audio broadcasting) et DVB (Digital video broadcasting) sont les
standards utilisés pour la transmission numérique de programmes audio et vidéo
respectivement. Ces transmissions numériques empruntent les canaux hertziens
terrestre ou satellite, le câble cuivre ou la fibre optique. Le principe est celui d’un
multiplexage temporel de paquets de données numériques ; chacun de ces
paquets représente une partie d’un programme : les programmes (sonores,
visuels ou multimédias) sont fragmentés et intercalés entre eux pour former un
train multiplex. Ce dernier est ensuite codé (codage correcteur d’erreurs) puis
modulé pour former un signal MCPC qui est alors transmis.
En outre, les canaux de transmission étant forcément limités en bande passante
et le nombre des programmes étant de plus en plus important, la « compression »
des programmes s’est rapidement imposée. En Europe, le procédé MPEG Audio
est employé pour le DAB et pour la partie son du DVB. La transmission du DVB
se fait sur plusieurs canaux : hertzien terrestre (TNT) ou via satellite (antennes
paraboliques d’émission et de réception dirigées vers un satellite géostationnaire
situé à 36 000 km d’altitude), câble cuivre ou fibre optique (distribution locale à
partir d’une tête de réseau). La modulation employée est la QPSK (satellite) ou la
QAM-16 à 64 (câble) avec un mode MCPC.
Pour permettre de réaliser le démultiplexage (c’est-à-dire pour récupérer un
programme donné), il est nécessaire de repérer les différents paquets de données.
À cet effet, des informations particulières sont envoyées également dans le train
multiplex. Ces informations sont reconnues grâce à un mot binaire particulier
(dit « en-tête ») derrière lequel on va trouver des informations qui seront inter-
Chapitre 8 – La technologie audionumérique 479

prétées comme étant des tables : PAT (Program allocation table : table des numéros
de chaîne) et PMT (Program map table : table des contenus vidéo, audio et infor-
mations associées). Ces tables indiquent les numéros des paquets suivants qui
correspondent à des programmes et contenus précis, ce qui permet de reconsti-
tuer les programmes à partir des paquets qui sont intercalés entre eux et de les
diriger vers la « bonne » chaîne de traitement (son, image, texte…) [9].

8.7 Bibliographie
[1] G. Mahé, Systèmes de communications numériques, Ellipses, 2012
[2] J.-G. Dumas, J.-L. Dumas, J.-L. Roch, É. Tannier et S. Varette, Théorie des codes, compres-
sion, cryptage, correction, Dunod, 2e édition, 2013.
[3] E. Tisserand, J.-F. Pautex et P. Schweitzer, Analyse et traitement des signaux, méthodes et
applications au son et à l’image, Dunod, 2e édition, 2009.
[4] C. Leider, Digital Audio Workstation, Mc Graw Hill, 2004.
[5] N. Moreau, Outils pour la compression des signaux, application aux signaux audio,
Hermès Lavoisier, 2009.
[6] J.-C. Hanus et C. Panel, Le Compact Disc, ETSF, 1985.
[7] G. Zenatti, Le DVD, Hermès, 1997.
[8] A. Glavieux et M. Joindot, Introduction aux communications numériques, Dunod, 2007.
[9] H. Benoit, La télévision numérique, satellite, câble, TNT, ADSL, TV mobile, Dunod,
5e édition, 2010.
Annexes

Rappel de notions
de mathématiques,
physique, mécanique

A.1 Rappel de quelques définitions

A.1.1 Fonctions Dérivées - Moyennes


Signal : grandeur physique (optique, acoustique, radioélectrique…) dont les
variations sont détectables par l’homme ou des instruments, susceptible de
donner une information, suivant un code. Le traitement du signal consiste à
obtenir le maximum d’informations utiles.
Bruit : grandeur de même nature que le signal, capable de perturber ou masquer
celui-ci. Pour le preneur de son, le « bruit » (au sens du chapitre 1) est parfois le
« signal » caractéristique d’une ambiance qu’il faut transmettre !
Au sens du « bruit perturbateur », le rapport signal/bruit (en % d’intensité ou en
décibels) mesure la qualité de transmission.
Fonction : relation entre une grandeur (y) et une ou plusieurs autres (variables
indépendantes), x1, x2…
Fonction continue : à chaque accroissement x d’une variable correspond une
variation y de la fonction, et le rapport y/x tend vers une valeur déterminée
quand x  0.
482 Le livre des techniques du son

Dérivée d’une fonction y(x) : c’est la limite du rapport :


∆y dy
→ = y′ ( x ) quand ∆x → 0  (A1)
∆ x dx
La dérivée indique le sens et l’importance de la variation de y en fonction de x,
autour de ce point (figure A1).

Figure A1 — Dérivée d’une courbe y = f(x).


La variation de y est elle-même indiquée par la dérivée seconde y, etc.
Fonction périodique : elle reprend identiquement la même valeur en ajoutant
une constante convenable à la variable x, longueur d’onde par exemple si x est une
longueur, période T pour une fonction du temps (figure A2).

y(t + n T) = y(t)  n entier  (A2)

Figure A2 — Fonction périodique de période T.


Moyenne de n grandeurs x1, x2… xi, xn…
1 n
n∑
x= xi
1

Moyenne d’une fonction dans un intervalle, par exemple fonction du temps y(t)
entre t1 et t2 où y prend la valeur yi dans chaque intervalle t :
1 t2
y= ∑ yi ∆ti  (A3)
t 2 − t1 t1
Annexes – Rappel de notions de mathématiques, physique, mécanique 483

Si la variation de y est continue en fonction de t, la moyenne de y est la limite de


cette expression lorsque les ti sont infiniment petits :
t
1 2
y (t ) dt   (A3 bis)
t 2 − t1 ∫t1
y=

Valeur quadratique moyenne : c’est la racine carrée de la moyenne des carrés :


 1 t2 2 
y =
2
∫ y ( t ) d t   (A4)
 t 2 − t1 t1 

c’est la valeur efficace de y.

A.1.2 Scalaires - Vecteurs - Tenseurs


Un scalaire est une grandeur algébrique qui se repère par un seul nombre sur une
échelle. Exemples : pression, masse, quantité de chaleur. Elle est invariante lors
d’un changement de systèmes de références.

Un vecteur désigné par U ou U est une grandeur géométrique caractérisée par
une longueur, une direction et un sens. Le vecteur libre a une origine arbitraire ;
exemple : champ de pesanteur, vitesse d’un flux d’air. Le vecteur glissant est assu-
jetti à une droite imposée : tension d’une corde. Le vecteur lié a une origine fixée :
exemple : force appliquée à un point.
Un vecteur U est caractérisé par deux composantes dans le plan, ou trois compo-
santes dans l’espace, par exemple Ux, Uy, Uz ou Ui avec i = 1, 2, 3. La longueur ou
module du vecteur est U = U x2 + U y2 + U z2 (figure A3).
© Dunod – Toute reproduction non autorisée est un délit.

Figure A3 — Représentation vectorielle dans un plan.


484 Le livre des techniques du son

On peut aussi le désigner par rapport à des vecteurs unitaires appelés par exemple,
e1, e2, e3 de longueur égale à l’unité et portés par les trois axes :
    
U = u1 e1 + u2 e2 + u3 e3 = ∑ i ui ei  (A5)
l’indice i indiquant qu’il faut faire la sommation sur les trois valeurs de i.
Un tenseur d’ordre k est une grandeur résultant de nk composantes dans un espace
à n dimensions : 4 dans un plan, 9 dans notre espace, pour un tenseur d’ordre 2.
Le tenseur d’ordre 2 est désigné par deux indices : Tij avec i, j = 1, 2, 3. Exemples :
contraintes dans un solide.
Il résulte de ces symboles que toute équation vectorielle écrite avec un indice i
représente en fait trois équations scalaires, écrites chacune avec i = 1, 2, 3, ce qui
correspond en fait aux projections sur les trois axes.
Une équation comportant un tenseur Tij représentera trois équations (i ou j = 1, 2,
3), les termes à double indice étant la somme de termes écrits avec j (ou i) = 1, 2, 3.
Le gradient d’un scalaire , défini en chaque point x, y, z, de l’espace est un vecteur
qui mesure les variations de cette grandeur  suivant les directions de l’espace.
En coordonnées cartésiennes, ces composantes sont donc :
δΦ δΦ δΦ δΦ
, , , ou  (A6)
δx δy δz δxi
On écrit :
grad  =   (A7)
L’opérateur  est dit « nabla ».

A.1.3 Quelques fonctions utiles en acoustique


Fonction inverse : la relation y = f (x) entraîne la relation inverse de x à y, x = g(y).
À une relation directe peut correspondre un ensemble de plusieurs fonctions
inverses et réciproquement. Si une seule valeur de y correspond à un x donné et
réciproquement, la relation est dite biunivoque.
Fonction algébrique : la ou les variables n’interviennent que par les puissances
entières : x, x2, x3, xn… L’exposant le plus élevé donne le degré de l’équation. La
plus simple est l’équation du 1er degré :
y = ax ou y = ax + b (A8)
dite relation linéaire (c’est l’équation de la ligne droite dans le plan x, y).
L’équation du 2e degré y = ax2 + bx + c est dite parabolique.
Annexes – Rappel de notions de mathématiques, physique, mécanique 485

La plupart des fonctions usuelles sont représentables par un nombre fini ou infini
de termes, dits développements en série de puissances :

y = a0 + a1x + a2x2 +… + anxn +… (A9)


dans un certain intervalle de la variable x. La condition de convergence est celle
qui permet à cette série de termes de tendre vers une valeur finie quand n
augmente indéfiniment.
Si e est petit (< 1), les termes du degré élevé tendent rapidement vers zéro. On
peut alors, avec une approximation physique désirée, ne conserver qu’un nombre
limité de termes (développement limité) ou même le seul terme du 1er degré,
y = a0 + a1x, c’est la linéarisation de l’équation. Il est évident que cette approxima-
tion n’est valable que dans un intervalle déterminé (au plus – 1 < x < 1).
Fonctions trigonométriques (circulaires) : elles sont définies géométriquement
à partir du cercle comme les rapports au rayon de ce cercle des projections de
celui-ci sur deux axes rectangulaires (figure A4). Analytiquement, ce sont les
solutions particulières d’une équation différentielle y + y = 0.

Figure A4 — Cercle et fonctions trigonométriques.

Ces différentes fonctions sont reliées par :


sin α 1 cos α
cos2 α + sin 2 α = 1,   tgα = ,   cot g= =  (A10)
cos α tgα sin α
© Dunod – Toute reproduction non autorisée est un délit.

Ces fonctions sont périodiques, de période 2 (l’angle étant mesuré en radians).


Si le vecteur OA (figure A4) tourne avec la vitesse angulaire ,  = t, et ceci
montre la signification physique de la pulsation  = 2f ; d’où cos  = cos 2(t/T),
forme qui met en évidence la période T.
Cosinus et sinus sont limités aux valeurs numériques – 1, + 1, tangente et
cotangente varient de –  à + .
La fonction cosinus est paire (elle ne change pas si on change x en – x, comme
y = x2 ou y = ax2n). Les fonctions sinus, tg, cotg sont impaires : elles changent de
signe avec x.
486 Le livre des techniques du son


On voit sur la figure que les courbes cos et sin sont décalées de  : on dit qu’elles
 2
sont en quadrature ou déphasées de .
2
 π  π  π
cos x = sin  x +  ,   sin x = − cos  x +  = cos  x −   (A11)
 2  2  2
On démontre que ces fonctions s’échangent l’une l’autre par dérivation, avec un
changement de signe :
d sin x d cos x d 2 sin x
 cos x ,    sin x ,   = − sin x  (A12)
dx dx dx 2
Les développements en série de puissance de ces fonctions sont :
x3 x5 x 2n+1
+ +  + ( −1) +   (A13)
n
sin x = x −
3! 5 ! (2n + 1) !
x2 x4 n x
2n
cos x = 1 − + +  + ( −1) +
2! 4 ! (2n) !
(la notation « factorielle n », n ! désigne le produit n ! = 1  2  3… (n – 1)  n).
On voit que pour des angles x très petits, sin x équivaut à x et cos x est voisin de 1.
Bien d’autres relations classiques sont données dans les cours et formulaires.
Fonction exponentielle : c’est la solution particulière de l’équation y = y.
(De ce fait, toutes les dérivées d’ordre quelconque, sont égales à la fonction :
y = y = y, etc.)
La résolution de cette équation par une série de puissance donne la solution sous
forme d’un développement dont les termes sont proportionnels à a0, valeur
restant arbitraire (en raison de la forme linéaire de l’équation). Si on choisit a0 = 1,
on définit par cette série, la fonction exponentielle (figure A5) :
x2 x3 xn
exp ( x ) = 1 + x + + +  +  (A14)
2 3! n!
Cette série essentielle est convergente pour – 1 < x < 1.
Pour x = 1, cette série tend, quand n  , vers un nombre incommensurable (qui
comporte un nombre infini de décimales) dit nombre e :
1 1 1 1
e = 1 + 1 + + + +  + +  = 2, 71828  (A15)
2 6 24 n!
Annexes – Rappel de notions de mathématiques, physique, mécanique 487

La fonction exponentielle s’écrit aussi :


exp(x) = ex (A16)
Cela permet de généraliser la fonction exponentielle de base quelconque, « a »
positif au lieu de « e », soit :
y = ax (A17)
Par continuité, on démontre que pour x = 0, a0 = 1, quel que soit a non infini.

Figure A5 — Fonction exponentielle (en électroacoustique,


on rencontre généralement l’exponentielle décroissante représentée à droite).

On remarquera la ressemblance des développements en série des fonctions


cosinus, sinus et exponentielles, mais avec des changements de signe sur les
termes impairs (sinus) ou pairs (cosinus).
Fonctions logarithmiques : ce sont les fonctions inverses des exponentielles, obte-
nues en intervertissant y et x :

y = ax  x = loga y (logarithme de base a) (A18)


qu’on écrira pour conserver la tradition de désigner par x la variable et y la fonc-
tion : y = logx.
© Dunod – Toute reproduction non autorisée est un délit.

La base a peut être quelconque ; on utilise pratiquement :


• a   = 10, qui donne le logarithme décimal ou « vulgaire »
• a   = e, qui donne le logarithme népérien ou « naturel ».
On écrira :
y = e x ⇔ x = Ly ou log e y ou Ln y
y = 10 x ⇔ x = log10 y ou simplement x = log y

s’il n’y a pas de confusion possible.


488 Le livre des techniques du son

Les logarithmes de rapports, exprimés avec la base 10, conduisent aux bels et
décibels ; avec la base e, on obtient les népers et les décinépers. Les logarithmes de
base 2 définissent les octaves, tiers d’octave des intervalles fréquentiels.
De même que la fonction exp x est la solution de l’équation différentielle y = y, la
fonction inverse est solution de l’équation intégrale :

dy d
 d
x (log e y ) (A19)
y dx

d’où le nom de dérivée logarithmique (dérivée du logarithme).


La dérivée de la fonction exponentielle de base a, ya(x) = ax, est dya/dx = ax logea
et les dérivées des fonctions logarithmiques x = logay sont :

dlog a y 1 1
  log a e (A 20)
dy log e a y

Les divers logarithmes sont reliés par des formules usuelles :

log e x = log e 10 ⋅ log10 x 



log e 10 = 1 / log = 2, 302585 = 1 / 0, 434294 
e
10 ( A21)
log a a = 1,log a 1 = 0, quel que soit a 

Mais les relations les plus importantes sont :

log(A · B) = log A + log B  log An = n log A (A22)


qui permettent de remplacer une multiplication par une addition et une élévation
à la puissance par une multiplication (c’est le principe de l’ancienne règle à calcul).
Fonction de Bessel : elles sont aussi les solutions particulières d’équations diffé-
rentielles linéaires du 2e ordre qui apparaissent dans tous les problèmes physiques
de rayonnement à symétrie cylindrique et dans lesquels un paramètre m définit
l’ordre de la fonction (0, 1, 2) et conduira aux modes vibratoires de même ordre.
Ces fonctions sont définies numériquement par des tables de valeurs des coeffi-
cients de leurs développements en série. Nous ne donnons ici, à titre indicatif, que
les formes graphiques de ces fonctions (voir figure 1.10).
Annexes – Rappel de notions de mathématiques, physique, mécanique 489

A.1.4 Rapport des deux vecteurs - Nombre complexe



Soit un vecteur U d’origine O, repéré dans le plan des coordonnées Oxy .
Il est défini par ses composants Ux, Uy , en coordonnées rectangulaires, ou par sa
longueur  et son angle  avec Ox ; on a la relation :
1/2
U x = ρ cos θ, ρ = U = U x2 + U y2 
U y = ρ sin θ, (A 23)
On repérera également, sur Ox , Oy  , les longueurs des vecteurs Ux, Uy , par rapport
à la longueur unité sur un axe, soit ex, de longueur unité et porté ux ey obtenu par

rotation de de ex. On passe de ex à U par multiplication par  de la longueur, et
2
rotation de . Le nombre () est un nombre complexe (il porte deux informa-
tions).
Plus généralement, le nombre R est le rapport de deux vecteurs U, V ; R étant le
module ou rapport des longueurs, et  l’argument ou angle des vecteurs :
U
R=, ϕ = U ⋅V (A24)
V
et on écrit V = RU. On passe de ex à V par les deux multiplications :
V = e x ρθ Rϕ donc ρθ Rϕ = ρ ⋅ Rϕ+θ (A 25)
Le module du produit de deux (ou plusieurs) nombres complexes est le produit
des modules, l’argument est la somme des arguments ( et  étant définis à 2
près).
En particulier le passage du vecteur unité ex de Ox à celui ey , de Oy se fait par multi-
plication par le nombre complexe élémentaire 1π/2 et on pose :
1π/2 = j
(on écrit parfois i au lieu de j) donc ey = j ex.
© Dunod – Toute reproduction non autorisée est un délit.

Si on tourne ce vecteur ex de deux fois /2, on obtient sur Ox le nombre – 1, donc :
1
1π/2 ×1π/2 = j 2 = −1 et = − j (A 26)
j
On appelle axe réel l’axe Ox, Oy étant l’axe imaginaire.
Le vecteur U s’écrira d’après ces définitions :
U = Ux + Uy = uxex + uyey (A27)
ou plus simplement :
z = ux + j uy avec |z| = |U| = (ux2 + uy2)1/2 (A28)
490 Le livre des techniques du son

ou encore :

z = |Z| (cos  + j sin ) = X + j Y (A29)


X est dite la partie réelle (portée par l’axe réel), Y la partie imaginaire du nombre
complexe z.
Les calculs des nombres complexes se font comme ceux des nombres réels en
remplaçant partout j 2 par – 1.
L’introduction des nombres complexes permet de trouver des solutions dites
« complexes » à des équations conduisant à des radicaux de nombres négatifs, puisque :

−a2 = ja (A30)

En comparant les développements en série des fonctions trigonométriques et


exponentielles, on voit que le nombre j permettra par les changements de signe
de j 2, de passer de l’un à l’autre. On en déduit les formules dites d’Euler, qui expri-
ment ces relations :

cos x + j sin x = exp (jx) (A31)


cos x – j sin x = exp (– jx)
C’est pourquoi l’équation des ondes est souvent représentée en fonction de
exp(jt) au lieu de cos t,  étant la pulsation,  = 2f. En effet, une pression
sonore p, variable en fonction du temps, suivant une loi circulaire, pour être
représentée par le vecteur qui définit ces fonctions, soit :

Px = P cos t  Py = P sin t


De même, la vitesse vibratoire, de même pulsation  mais déphasée de  par
rapport à la pression est :

ux = U cos (t – )  uy = U sin (t – ) (A32)


d’où par l’addition vectorielle et les relations d’Euler :

P = Px + j Py = P exp(jt) (A33)


U = ux + juy = U exp(jt – )
De même l’impédance en un point de l’onde est le rapport complexe :
p P
Z = = exp(− jϕ) = Z exp(− jϕ) (A34)
u U
qui met en évidence la valeur absolue |Z| de l’impédance et la variation de phase
 que celle-ci impose.
Annexes – Rappel de notions de mathématiques, physique, mécanique 491

Le calcul des fonctions de variables complexes f (z) = f (x + jy) permet d’opérer
instantanément sur les deux composants d’un vecteur, donc à la fois sur les gran-
deurs et les phases.

A.2 Grandeurs physiques - Unités

A.2.1 Unités fondamentales


La valeur d’une grandeur physique est mesurée par comparaison à un étalon de la
même grandeur pris comme unité. Les diverses grandeurs physiques et méca-
niques n’étant pas indépendantes, le système des unités choisies doit en tenir
compte pour être cohérent. Il suffit d’ailleurs de quelques unités fondamentales
pour définir toutes les autres.
Les grandeurs fondamentales sont :
Longueur L mesurée en mètres 

Masse M mesurée en kilogrammes  Système international SI ou MKS
Temp T en secondes 

auxquelles les électriciens doivent ajouter :
l’intensité électrique mesurée en ampères (MKSA).

A.2.2 Unité dérivées


On en déduit :
• Surface S = L2 en m2
• Volume V = L3 en m3
• Vitesse v = L/T en m/s
• Accélération  = L/T2 en m/s2
© Dunod – Toute reproduction non autorisée est un délit.

On sait qu’un mobile parcourant l’espace x dans le temps t a pour vitesse


(moyenne) x/t, et si t est infiniment petit.
dx
u (A35)
dt
dérivée de l’espace par rapport au temps. De même :
dv d 2 x
γ= = 2 (A36)
dt dt
Si la masse est scalaire, L, v, , sont évidemment des vecteurs.
492 Le livre des techniques du son

D’après la loi élémentaire de la mécanique, la force est par définition l’action qui
donne à une masse M une accélération , d’où :

d2x
F = Mγ = M (A37)
dt 2
mesurée en newtons.
C’est un vecteur, comme la vitesse et l’accélération. Dans le système dit « pratique »
l’unité de force donne à cette masse l’accélération g de la pesanteur. C’est la force
de pesanteur ou kilogramme-force, avec g = 9,81 m/s2.

1 kgforce = 1  9,81 N
De ce fait, pour les ordres de grandeur, les mécaniciens disent :

1kg force  1 DN (décanewton)


Le travail d’une force est l’opération de déplacement du point d’application de la
force sur la longueur L dans sa direction :
 
τ = F ⋅ L mesur
mesurée
Øe en
en joules newton ×m
joules ((newton mètre)
Łtre)
Si le déplacement n’est pas colinéaire au vecteur force, mais fait un angle , le
« produit des vecteurs » précédents s’exprime :

 = FLcos
La pression p sur une surface S est un ensemble d’efforts répartis sur elle, telle que
la résultante normalement à chaque élément de surface est une force F cos.

F
P = cosϕ mesurée en pascals (newton/m2)
s
 étant l’angle de F avec la normale à s.
Il faut noter que ces grandeurs : newton, pascal, sont très petites. Elles conviennent
pour l’acoustique, où les forces et pressions sont faibles, mais beaucoup moins
pour la mécanique générale. La pression atmosphérique est de l’ordre de
105 pascals (100 000).
Si le rapport F/s est une pression, le produit F  ·  s est un flux de force.  = F  ·  S cos ,
 étant toujours l’angle de F avec la normale à la surface.
P et  (résultat d’un produit scalaire de deux vecteurs, force et normale à la
surface) sont des grandeurs scalaires.
Annexes – Rappel de notions de mathématiques, physique, mécanique 493

La puissance mécanique d’un système capable d’exécuter un travail T pendant un


temps t est le quotient :

W = /t mesuré en watts (joules par seconde) unité dont le symbole est W.

A.2.3 Équation de dimension


Toute grandeur ou expression physique a une « dimension » en ce sens qu’elle
représente une longueur, une force, etc., ou des produits ou des rapports de gran-
deurs définies. On exprime ceci par l’équation de dimension, par exemple :

Surface = L2, Volume = L3, Force = MLT–2, Pression = ML–1T–2, etc.


Dans un calcul, il faut s’assurer que l’équation reste homogène : sans cela, il y a une
erreur. Seuls les rapports (tels que L/) sont sans dimensions et ne dépendent pas
des unités choisies.

A.3 Transformation de Fourier - Analyse fréquentielle


Cette transformation a pour but de remplacer toute fonction du temps g(t) par
une fonction de fréquence G( f  ) et réciproquement.
Le principe de base est que toute fonction périodique de période T, g(t) = g(2 ft),
f =1/T, est égale à une somme, au besoin infinie, de fonctions sinusoïdales, de
période f (fondamentale), 2f, 3f, nf… (harmoniques), ce qu’on écrit :
∞ ∞
g ( x ) = a0 + ∑ am sin mx + ∑ bm cos mx (A38)
1 1

m = 1, 2… les coefficients a0, am étant calculés à partir des théorèmes de Fourier sur
les valeurs des moyennes des produits de fonctions trigonométriques, en multi-
pliant la fonction initiale g, successivement par toutes les fonctions sin mx, cos mx.
Si la fonction g est initialement une sinusoïde, de fréquence f, seul a1 (et b1)
© Dunod – Toute reproduction non autorisée est un délit.

existent, tous les autres coefficients sont nuls. Cette transformation donne donc
la série des fréquences qui composent le signal g(x) ou g(2 ft).
Ce calcul est fait dans l’intervalle représentant la période T du phénomène,
puisqu’il suffit de connaître g dans cet intervalle pour le connaître partout :
g(t + nT) = g(t).
Plus la période T est grande, plus la fréquence fondamentale f = 1/T est petite, et
plus les intervalles entre les différentes fréquences composant ce phénomène,
égaux aussi à f, sont petits, donc le nombre d’harmoniques nécessaire pour définir
g, est grand.
494 Le livre des techniques du son

À la limite, pour un signal non périodique, dans un intervalle T augmentant indé-


finiment G sera représenté par une somme infinie, qu’on peut écrire mathémati-
quement ainsi :

+T
G( f ) = F[ g (t )] = lim ∫ g (t )exp(− j 2πft )dt (A39)
T →∞
−T
f

g (t ) = F −1
f →∞ [G( f )] = lim ∫ G( f )exp( f 2πft )df (A40)
f →∞
−f

Les fonctions exponentielles expriment, sous forme condensée les fonctions


trigonométriques (éq. A31) et les opérateurs F et F–1 symbolisent le calcul indiqué,
de la transformation de Fourier et son inverse.
La détermination des coefficients a0, am de l' équation A38 ou le calcul de la fonc-
tion de fréquence G (limitée à un nombre fini de termes, suivant l’approximation
désirée) se fait par moyens analogiques (filtres de fréquences électriques, tels
qu’ils sont dans les sonomètres analyseurs), soit par des moyens numériques sur
des ordinateurs spécialement programmés. Des calculs plus rapides sont faits par
des programmes spéciaux dits FFT (Fast Fourier transform) ou Transformée
rapide de Fourier.
Les analyseurs « analogiques » (filtres électriques) ne sont pas parfaits : ils ont des
temps de « réponse », des réponses en amplitude et phase, qui donnent de petites
erreurs ; de même les moyens numériques ne donnent que des approximations,
d’autant meilleures qu’on fait des calculs plus fins et plus détaillés, donc plus
longs. Un problème important de métrologie est de définir les conditions où l’er-
reur qu’on ne peut éviter est inférieure à une limite choisie. Sans entrer dans les
détails, indiquons seulement que la définition d’une composante sonore de
fréquence f demande un temps de l’ordre de 50 à 100 fois la période 1/f et que
l’analyse d’une bande de fréquence B (en Hz) demande un temps T tel que le
produit BT soit au moins égal à 1 ou 2.
On ne peut avoir rapidement une analyse fine… Ces conditions de précision
d’analyse se transposent à la fidélité des enregistrements et reproductions
sonores : on sait qu’on ne peut enregistrer des sons aigus sur une bande magné-
tique à vitesse trop lente…, il faudra la faire défiler vite et y consacrer une bonne
longueur, malgré l’accroissement de qualité des appareils.
Annexes – Rappel de notions de mathématiques, physique, mécanique 495

A.4 Mouvements vibratoires :


l’oscillateur élémentaire à un degré de liberté
A.4.1 Oscillateur libre
Le système oscillant le plus simple est représenté (figure 1.1)1 par une masse M
suspendue à un ressort, lui-même accroché à un support infiniment rigide. Le
ressort a une raideur K qui est le rapport de la force de traction à laquelle il est
soumis à son allongement sous l’effet de cette force (son inverse est la souplesse) ;
c’est-à-dire que si le ressort non chargé a une longueur L, celle-ci devient L + L =
L + x0 sous l’effet de la force Mg de pesanteur (g = accélération de la pesanteur) et
kx0 = Mg, le ressort, en équilibre, n’oscille pas. Si le ressort oscille, il y a à chaque
instant équilibre entre la force d’inertie M,  étant l’accélération du mouvement
d2x
de M, γ = 2 et la force de rappel élastique – Kx (le signe – indiquant que cette
dt
force s’oppose au déplacement).
Il existe toujours, pratiquement, des forces de frottement, d’amortissement (ne
serait-ce que le frottement de l’air et le frottement « intérieur » des molécules du
ressort) et aussi des forces qui, justement, envoient dans l’atmosphère les ondes
sonores qui nous préoccupent. Cet ensemble est très complexe à analyser, mais
suivant un modèle simplifié, qui conduit à des équations qu’on peut résoudre,
tout en représentant assez bien la réalité, on admet que l’ensemble de ces forces
d’amortissement est proportionnel, avec un coefficient b, à la vitesse de déplace-
ment, dx/dt, de la masse suspendue (modèle dit d’amortissement visqueux : c’est
dx
celui d’une palette qui se déplacerait dans l’huile), donc cette force est b (le
dt
signe – indiquant son opposition au mouvement). L’équilibre des trois forces en
présence, inertie d’une part et frottement visqueux, rappel élastique d’autre part,
conduit donc à l’équation classique de l’oscillateur simple :
d2x dx
M + b + Kx = 0 (A 41)
© Dunod – Toute reproduction non autorisée est un délit.

2
dt dt
Nous ne discuterons pas plus en détail de cette équation et sa solution, problème mathé-
matique très classique, mais nous donnerons simplement les résultats essentiels :
• Si l’amortissement est important,
b K
 (A 42)
2M M

1. Les figures sont celles du chapitre 1  « Acoustique fondamentale ».


496 Le livre des techniques du son

le ressort, allongé, revient lentement, sans oscillation, à sa position d’équilibre,


c’est-à-dire de longueur L + Mg/K (figure 1.2).
• Si l’amortissement est faible,
b K
 (A 43)
2M M
le mouvement de la masse est oscillant, sinusoïdal, amorti et d’équation :
 bt 
x = A exp  −  sin(ωt + ϕ) (A 44)
 2M 
A et  étant arbitraires et dépendant des conditions aux limites, l’amplitude du
mouvement décroît, plus ou moins lentement (figure 1.2), on ne conçoit pas
pratiquement, qu’un ressort puisse vibrer indéfiniment car il perd de l’énergie à
chaque oscillation, par les frottements et l’énergie sonore qu’il envoie dans l’air.
À la limite, si l’amortissement est assez faible, pour qu’il soit considéré comme
quasi nul, les oscillations sont quasi périodiques, de fréquence :
1 K
f0 = (A 45)
2π M

Si la masse est munie d’un crayon qui trace (sans frottement !) un trait sur un
papier qui se déplace horizontalement, elle inscrit la courbe de cette oscillation en
fonction du temps, qui est une sinusoïde (figures 1.1 et 1.2). En l’observant assez
longtemps, on constatera la diminution progressive d’amplitude. Avec un amor-
tissement b non nul, la fréquence est un peu faible :

1 K b2
fa = − (A 46)
2π M 4 M 2
 b 
et l’amplitude décroît exponentiellement comme le facteur exp  − t  en
 2M 
­fonction du temps t. Le cas limite entre les amortissements « faibles » ou « forts »
est l’amortissement critique, pour lequel :
b K
 (A 47)
2M M
La décroissance de l’amplitude x est toujours continue, mais plus rapide que dans
les cas « très amortis », et à la limite de l’oscillation qui apparaît dès que b est un
peu plus petit (figure 1.2).
Annexes – Rappel de notions de mathématiques, physique, mécanique 497

A.4.2 Force appliquée - Oscillations forcées


Pour maintenir l’amplitude vibratoire d’un oscillateur, il faudra donc lui
apporter de l’énergie, par exemple par l’application d’une force F d’excitation à la
fréquence f, qui remplacera le zéro du 2e membre de l’équation (A41) précé-
dente qui devient :
d2x dx
M 2 + b + kx = F0 sin ωt avec ω = 2πf (A 48)
dt dt
f ω
La réponse de l’oscillateur dépendra du rapport Ω = = de la fréquence
d’excitation à la fréquence propre de l’oscillateur. f 0 ω0

À fréquence f nulle, (force appliquée F constante), on observe l’allongement


supplémentaire du ressort : « déformation statique » ou « déflexion sous charge »1.
X0 = F0/K ; quand f croît, le ressort oscille à cette fréquence imposée f (oscillation
forcée) avec une amplitude donnée par la solution de l’équation.
X0
x= 1/2 sin(ωt + ϕ) (A 49)
 b2 
(1 − Ω 2 2
) + Ω2 
 M ω0
2 2

−b Ω
tgϕa = × (A50)
Mω0 1 − Ω2

Cette amplitude passe par un maximum pour f = f0,  = 1 : égalité de la fréquence
d’excitation et de la fréquence propre : résonance (figures A6 et A7).
Mω0
xm = X 0 (A51)
b
Cette amplitude serait infinie sans amortissement (b = 0). Avec un amortisse-
ment « l’acuité » de la résonance est caractérisée par le « coefficient » de surten-
© Dunod – Toute reproduction non autorisée est un délit.

sion ou « facteur de qualité » (car c’est une qualité, dans certains cas, pour un
résonateur, d’être très sélectif) :
Xm Mω0
Q= = (A52)
x0 b
Les oscillations de la masse M (équation A49) ne sont pas en phase avec la force
excitatrice F = F0 sin t, c’est-à-dire qu’elles ne passent pas au même moment par
1. On trouve aussi l’orthographe « déflection » calquée de l’anglais, qui semble utiliser les deux
­orthographes.
498 Le livre des techniques du son

leur maximum (ou point zéro, ou minimum). Cet écart dans le temps est le dépha-
sage a de l’amplitude, donné par tg  en fonction du rapport  des fréquences.
En dessous de la résonance, c’est-à-dire pour f < f0, le terme de raideur est prépon-
dérant dans les forces en présence (éq. A41), (système commandé par le ressort,
stiffness controlled), car l’inertie et le frottement proportionnels à 2 et  sont
petits devant kx.
π
1 – 2 est positif, tg a négatif, et l’angle de phase a varie de 0 à − , quand f croît
2

de 0 à f0. La vitesse vibratoire étant en avance de phase de sur l’amplitude (la
2

dérivée de x = A sin t étant v = A cos t = Asin (t +  )).


2
Cette vitesse vibratoire est en avance de phase sur la force excitatrice, et varie de
π
+ à 0 quand f varie de 0 à f0.
2
En dessus de la résonance, f > f0, l’inertie, proportionnelle à 2, oppose la plus
grande force à celle d’excitation, le système est commandé par la masse (mass
controlled) et la phase ν de la vitesse vibratoire est en retard sur la force F variant
π
de à 0 à − quand F varie de f0 à l’infini (figure A6).
2

Figure A6 — Sélectivité de l’élongation et phase force-élongation en fonction


de la fréquence d’un oscillateur (Q >> 1) en régime permanent.
Annexes – Rappel de notions de mathématiques, physique, mécanique 499

π
À la résonance, f = f0, tg a est infini, ϕa = − , ϕv = 0 , l’amplitude de la vibra-
2
tion forcée est en quadrature retard avec la force, et la vitesse est en phase.
NB : pour b = 0, l’équation (A49) n’est pas valable, car elle conduit à une indéter-
mination pour  = 1. Le calcul fait dans ce cas, conduit à une phase constante
π 3π π
ϕv = pour f < f0 et pour f > f0, ϕv = = − , car un retard de 3/4 de tour
2 2 2
équivaut à une avance de 1/4.
π
Pour un amortissement faible, la phase v « tourne » donc rapidement de + à
π 2
− en passant par 0 à la résonance (passage discontinu instantané dans le cas
2
théorique d’amortissement nul, voir figure A7). Ceci est utilisé pratiquement
pour détecter une résonance, car il est plus précis de déterminer le zéro d’un
phénomène que le passage par un maximum.
L’acuité d’une résonance (« sélectivité » d’un oscillateur) est évidemment définie
par la surtension Q (éq. A52) ou plus pratiquement par la notion de bande
passante, bande de fréquence dans laquelle l’amplitude est supérieure à une frac-
tion choisie de l’amplitude maximale, par exemple, la moitié, ou le rapport
1 / 2  0, 707  ; la phase tourne très rapidement dans cet intervalle, par exemple
ππ ππ
de++ à −− dans le premier cas (voir figure A7).
44 44
© Dunod – Toute reproduction non autorisée est un délit.

Figure A7 — a) Courbe de l’amplitude du déplacement en fonction


de la fréquence réduite du régime permanent des vibrations forcées
d’un oscillateur élémentaire suivant son facteur de qualité Q.
b) Courbe de la phase du déplacement réduit par rapport à la fréquence du régime
permanent d’un oscillateur en vibration forcée suivant son facteur de qualité Q.
500 Le livre des techniques du son

A.4.3 Énergies cinétique et potentielle


dx
En multipliant par v  l’équation (41) de l’oscillateur non amorti (b = 0 pas de
dt
perte d’énergie) et en intégrant les deux termes, il vient :

1 2 1 2
Mv + Kx = W , constante  (A53)
2 2
Le premier terme est l’énergie cinétique du système, accumulé dans la masse en
mouvement. Le second est l’énergie potentielle, accumulée dans le ressort déformé.
Comme v et x sont constamment en quadrature de phase, l’un est nul quand
l’autre est maximal et inversement. L’équation (A53) indique donc que l’oscilla-
tion est un échange permanent d’énergie cinétique de la masse avec l’énergie
potentielle du ressort et réciproquement, leur somme est constante.
L’amortissement (et le rayonnement sonore) quand ils interviennent, prélèvent
constamment une proportion W d’énergie sur le « stock » W. C’est cette énergie
W qu’il faudra fournir pour entretenir le mouvement.
Le coefficient de surtension (ou « facteur de qualité ») Q est égal au produit par 2
de ce rapport W/W, soit en fonction de l’amortissement b :

∆W 2π b
= = (A54)
W Q Mf 0

A.4.4 Les régimes transitoires


Nous avons décrit le comportement d’un oscillateur simple dans deux cas :
• Oscillateur libre, sans force extérieure, mais qui a été déformé arbitraire-
ment au temps t = 0, puis lâché et qui vibre suivant les équations (A41 à 47).
Vibrations forcées ou « entretenues » par l’application d’une force exté-
rieure à fréquence f, suivant les équations (A48 à 52), pour compenser la
perte d’énergie W due aux frottements et au rayonnement. L’équation du
mouvement est dite « solution particulière » (correspondant à la force
particulière F, ) de l’équation différentielle du mouvement, dont l’équa-
tion (A44) est une « solution générale ».
On démontre mathématiquement que, par suite de la forme linéaire de l’équation
différentielle (les variations x, dx/dt, d2x/dt2 figurent au 1er degré), la solution
complète est la somme de la solution générale et la solution particulière du cas F,
 considéré : l’amplitude d’un oscillateur, déformé et soumis à la force F, sera
donc la somme des déplacements x des équations (A44 et A49).
Annexes – Rappel de notions de mathématiques, physique, mécanique 501

Mais le premier mouvement a une amplitude décroissante exponentiellement,


alors que l’amplitude donnée par le deuxième (éq. A49) est constante pour un 
donné, et f0 fixe.
Le premier mouvement disparaît donc au bout d’un temps t plus ou moins long,
qui est une période transitoire où les deux oscillations coexistent. La première, de
fréquence fa, pratiquement très proche de f0 (éq. A45 et A46) ne laissera donc que
l’oscillation à fréquence imposée f. On voit ainsi le rôle d’un oscillateur comme
analyseur de fréquence (filtre).
Le régime transitoire (combinaison des fréquences f0 et f) réapparaît chaque fois
qu’il y a modification des paramètres : amplitude, phase ou fréquence de l’excita-
tion, apparition ou disparition d’une excitation (régime transitoire du retour à
l’oscillation libre). Ce régime dure d’autant plus longtemps que l’amortissement
est plus faible. Lorsqu’un système oscillant est excité par un signal quelconque,
plus son facteur de qualité Q (éq. A52) est élevé (amortissement faible) plus il
prend de temps pour atteindre son régime permanent, qui permet de détecter la
fréquence d’excitation f.
Mais une sélectivité élevée (Q grand) est souhaitable pour mieux séparer des
fréquences voisines dans une force d’excitation qui en comporte plusieurs.
Donc en utilisant un système oscillant pour analyser les fréquences composant
une excitation quelconque (« filtrer » un signal) il faudra consentir un temps de
traitement (régime transitoire) d’autant plus long qu’on désire une sélectivité
élevée. On ne peut analyser à la fois finement et rapidement la composition
fréquentielle d’un signal quelconque.
On peut obtenir rapidement une analyse à large bande de fréquence f, il faut du
temps T pour une analyse fine. Ceci est une forme de la « relation d’incertitude ».

T f = constante
Dans le cas hypothétique d’un oscillateur sans frottement, excité à la résonance,
la durée des régimes transitoires serait infinie, pour stocker l’énergie infinie
© Dunod – Toute reproduction non autorisée est un délit.

correspondant à l’amplitude infinie.


Les figures a, b, c, d, de la figure A8 montrent divers cas de régimes transitoires.
502 Le livre des techniques du son

Figure A8 — Exemples de régimes transitoires de mise


en vibration forcée d’un oscillateur initialement au repos.
a) L’amplitude de l’oscillation forcée l’emporte sur celle de l’oscillation amortie.
b) L’amplitude de l’oscillation forcée est faible par rapport à celle de l’oscillation amortie.
c) Fréquence d’excitation égale à la fréquence de résonance.
d) Fréquence d’excitation légèrement différente de la fréquence de résonance.
Index

A Asymétrie – unbalanced, 360


Attack, voir transitoire
Benade A.H., 58
Bessel (fonctions de), 21
Absorbant (matériau) – d’attaque Bias, voir polarisation alter-
porous absorber, 126 ATMOS, 227 native
Absorption (coefficient d’), Atténuation, 37 Binaire, 247
91, 127 Audibilité (seuil d’), 204 Bit (binary digit), 416, 432
Accumulateur, 307 Audiogramme tonal – audio- Blu-Ray, 474
Acoustique géométrique, 103 gram, 209 Bode (plan de), 367
Acoustique statistique, 111 Audition (mécanisme de l’) Bruit – noise, 4
Acoustique variable, 137 – hearing, 234 Bruit blanc – white noise,
AES/EBU, 468, 476 Auditorium, 136 258, 340
Affaiblissement acoustique Auto-induction, 317, 324 Bruit de fond – background
(indice d’), 176, 180 Azimut (effet d’) – azimuth, noise, 150, 199, 338
Aimantation, 312, 394 404 Bruit d’impact, 193
Alimentation – supply, 359 Bruit rose, 340
Alternative (machine), 337
Alternative current, voir B
courant alternatif Baffle, voir écran C
Amortissement – damping, 8 Baies vitrées, 191 Cabines de prise de son/
Ampère (loi d’), 384 Balanced, voir symétrie mixage – control room, 137
Amplification, 365 Bande latérale – side band, Canal de transmission, 266
Amplitude, 367 276 Casque (écoute au) –
Analogique – analog, Bande magnétique – tape, earphone, 225
247,413 394 CD (Compact Disc), 473
Analyse fréquentielle – Bande passante – frequency Célérité – velocity, 2, 16, 25, 28
frequency analysis, 5, 42 range, 204 Chaîne auditive, 235
Analyse spectrale – spectrum Bass-trap, 132, 139 Chambre sourde – dead
analysis, 258 Battements – beats, 217 room, 136
Angular frequency, voir Battery, voir piles Champ auditif, 203
pulsation Bel, 34 Champ démagnétisant, 392
504 Le livre des techniques du son

Champ direct/réverbéré – Damping, voir amortissement Écran (effet d’) – baffle effect,
direct/reverberant field, 121 DASH, 472 42
Champ électrique, 293 Dead room, voir chambre Écrêtage – clipping, 360
Champ magnétique – sourde EDT (Early Decay Time),
magnetic field, 313, 383 Deafness, voir surdité 148, 158, 164
Charge électrique, 293 Débit d’information, 248 Effacement – erasure, 399
Clark M. & Luce D., 55 Débit pulsé, 31 Effet magnétique, 312
Clarté, 169, 172 Décibel (dB), 33 Efficacité latérale, 171
Clipping, voir écrêtage Demi-ton tempéré, 213 Égalisation de lecture, 402
Cochlée – cochlea, 231 Densité spectrale – spectrum Élasticité – compliance, 6, 24
Cocktail Party (effet), 220 density, 172 Électricité statique – static
Code temporel – time code, Dérivateur, 371 electricity, 295
286 Dérivée, 265, 482, 488 Électro-aimant, 319
Coïncidence (fréquence de), Désaccentuation – de Électrocinétique, 341
181 emphasis, 282 Électromagnétisme, 382
Comb filter, voir peigne Diamagnétique, 386 Électrostatique (micro-
(filtre en) Différence de potentiel phone) – condenser, 302
Complexes (nombres), 354, (d.d.p.), 296 Élongation, 6
365 Diffraction – diffraction, 87 Émergence, 72
Compliance, voir élasticité Diffuseurs, 133 Énergie incidente/réfléchie,
Conque d’orchestre, 158 Diffusion acoustique – scat- 87, 165
Console numérique, 460 tering, 88 Enregistrement, 400
Control room, voir cabines Directionnalité – directional Enregistrement magnétique
de prise de son characteristic, 60 – recording, 381, 394
Conversion, 419 Distance critique, 145 Entrefer (effet d’) – gap
Convolution, 253 Distorsion harmonique, 271 effect, 403
Cordes vibrantes, 13 Durée de réverbération, 115, Entrelacement, 448
Correction d’erreurs, 288 118, 144, 147 Épaisseur (effet d’), 405
Corrélation (coefficient de), DVB, 468, 478 Equalization, voir correction
170 DVD, 468, 474 Erasure, voir effacement
Couplage acoustique – Dynamique, 53, 269 Exponentielle (fonction),
acoustical coupling, 120 206
Courant alternatif – alterna-
tive current, 337, 349 E Exposimétrie, 240
Eyring (formule d’), 119
Courant électrique, 299 Earphone, voir casque
Critique (fréquence), 181 Échantillonnage – sampling,
251
Écho, 109 F
D Écoute, 224, 228
Écoute au casque, 225
Facteur de dissemblance,
170
DAB, 468, 478 Écoute naturelle – natural Facteur de réflexion – reflec-
Dalle flottante, 196 listening, 214 ting coefficient, 40, 90, 91
Index 505

Faraday-Lenz (loi de), 323 Gap, voir entrefer Inter-corrélation binaurale,


Fatigue auditive – hearing Garcia A., 62 170
fatigue, 239 Générateur – generator, 341 Intermodulation, 272
Fechner (loi de), 206 Ground, voir masse élec- Interpolation, 450
Fenêtre ovale/ronde, 232 trique Intervalle musical – musical
Ferromagnétique, 386, 389 Grossissement, 122 interval, 212
Filtrage – filter, 253, 260, 366 Isolation acoustique – sound
Filtrage numérique, 285 isolation, 193
FIFO, 455
Fletcher et Munson (courbe
H Isolement acoustique –
sound insulation, 173
de), 207 Haas (effet), 221 Isosonie (courbes d’), 207
Flûte traversière, 63 Harmonique – harmonic, 4 ITD (Initial Time Delay) –
Flutter, 110 Hauteur – pitch, 211 temps de délai initial, 141
Flutter echo – écho flottant, Head, voir tête magnétique Joule (effet), 309
110 Hearing fatigue, voir fatigue Kirchoff (lois de), 345
Flux, 316, 388 auditive
Helmholtz (résonateurs de),
Focalisation, 109
Fondamental (son) – funda- 131 L
mental, 12 Hertz (Hz), 4 Laplace (transformée de),
Force électromotrice (f.é.m.), Hopkinson (loi de), 322 257, 330
306, 323, 344 Hystérésis (cycle d’), 315, Lecture – reproducing/play-
Formant, 74 390 back, 400
Forme (reconnaissance des), LEDE (Live-end – Dead-
66 end), 139
Fourier (transformée de), 43, I-J-K Libre parcours moyen –
257, 456, 493 Immission, 28 mean free path, 117
Fréquence – frequency, 4, Impédance acoustique, 58, Lieu d’écoute, 142
25, 205 92, 260 Ligne nodale – nodal line, 19
Fréquence propre – natural Impulsion – impulse, 254, Localisation spatiale, 218,
frequency, 41, 96, 100 262 222
Fréquences (loi des), 179, 205 Incidente (énergie), 87, 165, Logarithmique (échelle), 33
Frequency analysis, voir Longueur d’onde – wave
© Dunod – Toute reproduction non autorisée est un délit.

184
analyse fréquentielle Induction magnétique, 387 length, 14, 26, 86
Fresnel (représentation de), Inertie acoustique, 172 Loudness, voir sonie
353 Information (notion d’), 245
Front d’onde, 107 Inharmoniques (sons), 51
Instrument de musique – M
Magnetic recording, voir
G musical instrument, 47
Intégrateur, 372 enregistrement magnétique
Gabarit, 369 Intelligibilité, 77, 172, 209 Magnétisme, 382, 400
Gain, 366 Intensité sonore – sound Masque (effet de) – masking
Gamme tempérée, 213 intensity, 24, 205 effect, 214, 218
506 Le livre des techniques du son

Masse (loi de), 178


Masse mécanique, 6
O Polarisation acoustique –
acoustical polarization, 156
MCR (Multi Channel Rever- Obstacle à la propagation, 86 Polarisation alternative –
beration), 165 Octave, 213 bias, 408
Mean free path, voir libre Offset, 350 Polynôme, 373
parcours moyen Ohm (lois d’), 355 Pondération (courbe de), 208
Mel, 211 Onde sonore – sound wave, 26 Portes, 191
Membrane vibrante, 17, 59 Onde stationnaire – standing Porteuse, 277
Mémoire, 455 wave, 95 Potentiomètre – fader, 347
Meyer J., 61 Oreille humaine – human Pouvoir séparateur, 172
Millman (théorème de), 346 ear, 229 Préaccentuation – pre-
Mode propre, 153 Oscillateur, 6 emphasis, 281
Mode vibratoire, 9 Oscillation, 8, 497 Précédence (effet de), 221
Modulation d’amplitude, Oxydoréduction, 304 Préférence, 169
275, 279 Presbyacousie, 238
Modulation de fréquence, 280 Pression (niveau de) – SPL,
Modulation hybride, 290 P-Q sound pressure level, 37
Monophonique (écoute), 225 Parallélépipédique (salle), PRODIGI, 472
Morse, 274 94, 107 Propagation de phase, 267
Moteur, 331 Paramagnétique, 386 Propagation du son, 24, 28,
Moyenne (valeur), 221, 351 Parois, 186, 193 173
Multiplexage, 249 Pascal (newton par mètre Protections auditives, 241
Musical instrument, voir carré), 33 Puissance acoustique, 34
instrument de musique Passe-bas (filtre) – low-pass Puissance sonore – sound
filter, 369 power, 37
Pujolle J., 120
N Passe-haut (filtre) – high-
pass filter, 369 Pulsation – angular
Newton (loi de), 309 Peigne (filtrage en) – comb frequency, 4
NICAM, 283 filter, 124 Quadripôle, 357
Niveau électrique, 351 Perception auditive, 203 Quantification, 423
Nœud – node, 12 Perception (niveaux de), 68
Noise, voir bruit Période – period, 25
Nombre complexe, 354, 365,
489
Perméabilité – steady, 389 R
Phase, 25
Normes dans l’enregistrement Raideur – stiffness, 6
Phase différentielle, 269
magnétique, 409 RAM, 430, 455
Phone – phon, 207
Norton (générateur de), 343 Rapidité de modulation, 433
Piège à son, 197
NR (Noise rating curves) – Rapport signal sur bruit –
Piles – battery, 305
courbes de bruit, 199 signal to noise ratio, 269
Pitch, voir hauteur
Numérique – digital, 285 Rayon acoustique – acous-
Plafond suspendu, 196
Nyquist-Shannon (théorème tical radius, 122
Plancher flottant, 195, 196
de), 419, 463 Rayonnement, 55, 81
Plaques vibrantes, 59
Index 507

Récepteur – receiver, 341 Solénoïde, 318 Thévenin (générateur de), 343


Recording, voir enregistrement Son – sound tone, 1 Threshold of hearing audi-
Réflexion – reflection, 86, Son pur – simple/pure tone, bility, voir seuil d’audibilité
103, 148, 165 4, 5 Tiers d’octave, 44
Réflexion (facteur de), 40, Sonagramme, 77 Timbre – timbre, 65, 223
90, 91 Sonagraphe, 57 Tonie, 211
Réponse fréquentielle/ Sonie – loudness, 29, 207 Traînage, 172
impulsionnelle, 262, 263 Sonorité, 51, 65, 71 Transfert (courbe de), 407
Reproducing, voir lecture Spectre acoustique – acous- Transformateur – trans-
Résistance – resistance tical spectrum, 42 former, 326
resistor, 345 Spectrum analysis, voir Transformée de Fourier, voir
Résonance, 9, 230 analyse spectrale Fourier
Résonateur – resonator, 130 SPL (Sound Pressure Level), Transistor, 310
Retard, 124, 219, 452 voir pression (niveau de) Transitoire d’attaque –
Réverbération, 41 Standing wave, voir onde attack, 70
RMS (Root Mean Square) – stationnaire Transmission, 180
racine carrée de la valeur Stéréophonie (reproduc- Transmission des signaux, 274
moyenne du carré, 350 tion), 226 Trombone, 62, 63
ROM, 456 Stiffness, voir raideur Trompette, 62
RT60 – reverberation time, Storage, voir mémoire Tuba, 62
voir durée de réverbération Studios de prise de son, 136 Tube d’interférence, 262
Superposition (théorème Tuyaux, 57
S de), 346, 349
Supply, voir alimentation
Sabine (coefficient de), 113 Supports magnétiques, 394 U-V
Scattering, voir diffusion Surdité – deafness, 29, 238 UER (code), 286
acoustique Symétrie – balanced, 362 Unbalanced, voir asymétrie
Scène, 120, 148, 159 Synchrone (machine), 334 Unité de volume – VU,
Schroeder (diffuseur de), 133 volum unit, 352
Sérialisation, 287, 427 Vecteur, 27, 98
Sette-Millington (formule
de), 120
T Velocity, voir célérité
© Dunod – Toute reproduction non autorisée est un délit.

Vent – wind, 39
Seuil d’audibilité – threshold Tape, voir bande magnétique
Ventilation, 197
of hearing audibility, 204 Temps de propagation de
Ventre – antinode-loop, 12
Seuil de douleur, 204 groupe, 268
Violon, 62, 63
Shannon, voir Nyquist Temps de réverbération
Viscosité de l’air, 38
Side band, voir bande latérale (RT60), voir durée de
Voix (chantée, parlée) –
Signal, 4, 245 réverbération
voice, 76
Signal to noise ratio, voir Tension – voltage, 298
Voltage, voir tension
rapport signal sur bruit Tessiture, 74
VU (volum unit), voir unité
Sinusoïdal (signal), 4, 14, Têtes magnétiques –
de volume
349, 353 magnetic head, 320, 397
VU-mètre – VU-meter, 352
508 Le livre des techniques du son

W Z
Wave front, voir front d’onde Zone d’émission, 157
Wave length, voir longueur Zone de réception, 158
d’onde
Weiss (domaines de), 391
White noise, voir bruit blanc
Le Livre des techniques du son
Collectif d’auteurs sous la direction de Denis Mercier

Tome 2 La technologie
4e édition
Sommaire :
Introduction à la technologie audiofréquence. Les  micro-
phones. Les enceintes acoustiques. Les consoles. Le traite-
ment du son. Les systèmes d’enregistrement et les réseaux
audio. La synchronisation. Les  sources électroniques et le
MIDI. Analogies

Tome 3 L’exploitation
4e édition
Sommaire :
La prise de son stéréophonique. Les supports audio. Le studio
d’enregistrement. La sonorisation. Le théâtre. La  radio. Le
cinéma sonore. La télévision
72422 - (I) - (1) - OSB 80° - BPA - API

JOUVE
1, rue du Docteur Sauvé, 53100 MAYENNE

Dépôt légal : avril 2015

Imprimé en France

Vous aimerez peut-être aussi