Vous êtes sur la page 1sur 42

Table des matières

Introduction

 

3

Rappel et généralités

4

Le son

4

Qu'es ce qu'un son?

4

Bande passante

4

Longueur d'onde

4

Le timbre

5

La force d'un son

6

Les décibels

6

Les microphones

7

 

Les

microphones

microphones

microphones

électrodynamiques

7

Les

électrostatiques

?

Les

numériques et la norme AES42

8

Les objectifs de cette norme sont :

8

L'alimentation fantôme numérique

8

Les microphones à zone de pression

11

Directivité

11

Facteur de distance et effet

de proximité

11

La modulation d'un signal sonore

13

En Pratique

15

Préparer le tournage

15

Définir le produit fini

15

Le repérage

15

Sur le plateau

15

Le rapport son

16

Les sons utilitaires :

17

 

Le silence plateau :

17

Les

sons

seuls :

17

Les

sons

esthétiques :

17

Synchrone 1Asynchrone

 

18

La synchronisation

18

Le

clap

18

Le

Ti me code

18

Autre méthode

19

La Stéréo et le

20

Les couples stéréo

20

 

Le

couple AB

.20

Le

couple

XY

20

Le

couple MS

 

21

Le

son

21

Les différents systèmes

22

 

Les systèmes

matricés

22

Les systèmes

non matricé

24

Ludovic

César

-

AEDS310

2

SAE

2010-2012

Les liaisons HF

 

26

La prise de son

26

Les suspensions

28

La perche

28

Les protections contre les éléments

météo

29

La Postproduction

31

Le montage

31

Le montage des sons synchrones

31

Postsynchronisation

32

Le

doublage :

32

La

projection d'équipe

33

Préparation

du doublage

33

Le

bruitage 1 Foley

34

Le

montage son et la sculpture sonore

34

Le

monteur son

34

La

sculpture sonore

34

Montage des ambiances

 

35

Le Mixage

 

35

La préparation du mixage

 

35

Le

niveau d'écoute :

36

Le

matriçage LtRt :

36

La

gestion

de la dynamique globale :

36

La

gestion

des

basses fréquences :

37

L'évolution du

mixage :

37

 

Les

dialogues :

37

Les

effets :

38

La

musique :

38

Le

mix V.O :

39

En résumé :

 

39

Les entrées et sorties : (Fade in/out ou encore cross fade)

39

Le rendu du mixage :

40

L'export

40

La vérification

40

Conclusion

41

Bibliographie

42

Ludovic

César -

AEDS310

3

SAE

2010-2012

Introduction

Je vais essayer par le biais de ce mémoire d'énumérer et d'expliquer les étapes et les techniques utilisées pour travailler en tant qu'ingénieur du son dans l'audiovisuel. Le long processus d'accouchement nécessite plusieurs étapes chacune d'entre-elle a des techniques qui lui sont propres. Elles sont tout aussi importantes les unes que les autres ; de la préparation à la post production en passant par l'enregistrement. Sur des petits projets l'ingénieur du son est amené à gérer toutes les étapes, mais plus le projet est conséquent plus l'équipe s'étoffe et les tâches sont dispatchées entre les spécificités de chacun.

Rappel et généralités

Le son

Qu'es ce qu'un son ?

Un son est un changement de pression dans l'air, une vibration, qui a été crée par une source à un moment donné, cet vibration est transmise sous forme de « vague » dans l'atmosphère et est ainsi perçue comme « son » par notre oreille.

Bande passante

L'oreille humaine ne peut entendre qu'une certaine gamme de vibration qui va de 20Hz à 20000Hz. Avec l'âge cette tranche de fréquence diminue, environ 1OOOhz tous les dix ans dans les hautes fréquences. (La façon dont on prend soin ou non de notre oreille influe également sur ce paramètre.)

Le spectre sonore ne se limite pas à la gamme de fréquences audibles par l'homme. Nous appelons « infrason » les sons dont la fréquence est inférieure à 20Hz et « ultrason » les sons dont la fréquence est supérieure à 20000Hz.

Longueur d'onde

Ce qui différencie un son grave d'un son aigu est la vitesse de vibration. Un son grave aura une vibration moins rapide qu'un son aigu néanmoins dans l'air où dans l'eau, la vibration sera différente même si la fréquence du son est identique .

Pour calculer la longueur d'onde ( À ) d'une fréquence, on doit diviser cette fréquence par la célérité du milieu dans lequel elle est émise.

A= C/F

Ludovic

César -

AEDS310

4

SAE

2010-2012

Un son de 1OOHz dans l'air se calculera en divisant la fréquence par la célérité de l'air, environ 340ms, dans l'eau cette célérité passe à 1500ms. Donc la longueur d'onde de 1OOhz dans l'eau sera de 15m et dans l'air de 3,4m pour une même fréquence, la longueur d'onde est appelée aussi Lambda ( À )

Onde

~ Longueur d'onde -

1 ------ ------- ------

Le timbre

Distance-

Un son « courant » est rarement composé d'une seul fréquence, que ce soit

en musique ou dans la nature, c'est l'ensemble des toutes ces fréquences qui

nous permet de différencier un son d'un autre, on appel cela le timbre.

On distingue deux types de son : les sons simples et les sons complexes. Les sons simples ne sont composés que d'une seule fréquence. Les sons complexes, eux, sont composés de plusieurs fréquences. Les sons complexes peuvent être définis en deux catégories : les sons musicaux et les autres. Les sons musicaux sont plus organisés que les autres ; dans un son musical les différentes fréquences qui le composent sont des multiples de la première, appelées fondamentales. Les fréquences multiples de celle-ci sont appelées les harmoniques.

Les sons non musicaux, un bruit, sont des fréquences aléatoires et non organisées, mais qui créent tout de même un son avec un timbre bien particulier.

A

auche sinus de 1KHz à droite un son musical, en dessous un bruit:

de 1KHz à droite un son musical, en dessous un bruit: Ludovic César - AEDS310 5

Ludovic

César

-

AEDS310

5

SAE

2010-2012

Avec les quelques exemples de sons passés au spectrographe, on constate très vite à l'œil nu la différence fréquentielle de chacun d'eux. Pour le sinus une seule fréquence apparaît, pour le son musicale on distingue bien les harmoniques de la fondamentale et pour le bruit c'est un amas de fréquences sans réel structure et imprévisibles.

La force d'un son

Un son a également comme caractéristique son intensité (forte ou faible). En musique classique, par exemple, on parle de pianissimo ou fortissimo. La différence d'intensité entre plusieurs sons d'un morceau de musique, par exemple, est appelée la dynamique. La dynamique est donc la différence entre les sons fort et les sons faibles.

Les décibels

La force

d'un son est expnmee en décibel,

l'échelle des décibels est

logarithmique . Pour doubler l'énergie sonore il faut ajouté

3d b.

Le dbu est une mesure de tension

Le dbfs est une mesure de signal numérique

Le db ou dbspl est l'énergie que l'ont perçoit avec ses oreilles

Petit tableau d'ordre de grandeur d'intensité :

!Intensité

Exemple de Son

Seuil de douleur de

Bruit de la ville

l'oreille

_j

 

130db

r70db

30db

Silence d'un intérieur calme j

Seuil d'audibilité humaine

lodb

Ludovic

César -

AEDS310

6

SAE

2010-2012

Les microphones

Un

microphones

est

un

transducteur

qui

permet

de

transformer

une

vibration de l'air en courant électrique. Il existe plusieurs sorte de microphones.

Les microphones électrodynamiques

Bobine mobile :

Une bobine de fil électrique fixée à la membrane , le tout placé dans un entrefer, comme une dynamo de vélo, lorsque la membrane reçoit une vibration sonore elle bouge et entraîne la bobine dans le champs magnétique de l'aimant ce qui crée un courant électrique.

Ce type de microphone n'est pas très sensible à cause du système qui est assez lourd, il est par contre très solide et résiste bien à l'humidité .

Ruban:

La bobine est remplacée par un ruban qui fait office de membrane et de transducteur.

Ce type de micro est très fragile et surtout ne supporte pas d'alimentation supplémentaire.

Membrane
Membrane

Mic_Dyn.pct

Les microphones électrostatiques

Condensateur :

La membrane est mobile et face à une plaque fixe, la distance entre la plaque et la membrane change avec la vibration de l'air ce qui crée une vibration de courant.

Ce système est beaucoup plus sensible aux variations de pression mais il est plus fragile que les électrodynamiques, il a néanmoins besoin d'une alimentation, appelée « fantôme » pour polariser le condensateur.

Ludovic

César

-

AEDS310

7

SAE

2010-2012

Electret:

Son principe est identique à celui du condensateur à la différence près que celui-ci n'a pas besoin d'être alimenté, il garde sa polarité pendant une période de 20 ou 30 ans. Leur sensibilité est un peu moins bonne que l'électrostatique mais le signal est beaucoup plus faible.

mais le signal est beaucoup plus faible. Signal Rêstt anc • d• charg• Les microphones

Signal

Rêstt anc •

d• charg•

Les microphones numériques et la norme AE542

La captation du son se fait comme dans un microphone classique , par l'intermédiaire d'une membrane à la différence prêt que le signal analogique est directement converti en signal numérique dans le microphone. Les microphones numériques se connectent sur une entrée numérique à la norme AES42 , qui délivre un courant d'alimentation aux microphones.

Les objectifs de cette norme sont :

permettre au récepteur AES3

permettre au récepteur AES3 de fournir des commandes à l'émetteur AES3 ,

permettre à l'émetteur AES3 d'envoyer un rapport de son état ou de configuration,

d'alimenter l'émetteur AES3 ,

sa

permettre à

l'émetteur AES3 de synchroniser son horloge sur celle du

récepteur.

L'alimentation fantôme numérique

L'alimentation de ce microphone va se faire grâce aux 48v implantés sur la plupart des appareils professionnels. Lorsque le standard AES42 a été élaboré il à fallu trouver comment adapter l'alimentation analogique pour un circuit électronique , après transformation on appelle cette alimentation DPP (Digital Phantom Power). Il y a une grande différence entre l'alimentation fantôme

analogique et l'alimentation DPP. Un microphone analogique a besoin d'une tension élevée et d'une intensité faible pour polariser le microphone et le pré- amplificateur. La DPP quand à elle doit alimenter des circuits intégrés , la tension de l'alimentation est donc plus basse , mais l'alimentation doit fournir un courant

relat ivement important au microphone . ( Max 250mA , sous une tension

Ludovic

César -

AEDS310

8

SAE

de 1Ov )

2010-2012

Les premiers à se lancer sur le marché avec cette nouvelle norme est la société (Beyerdynamique) qui a mis à disposition le premier microphone à interface numérique. Son avance technologique lui a permis de faire adopter ses choix au sein du standard. L'AES42 a une caractéristique importante : la console ou l'enregistreur envois des commandes aux microphones. Ces commandes sont triées en deux catégories : les « commandes simples » (3 commandes transmisent sur 2 octets) et les « commandes étendues » (32 commandes transmisent sur 3 octets), la distinction entre ces deux types de commande est simplement destinée à améliorer le débit. Les commandes simples sont plus compactes car elles sont sensées être transmissent beaucoup plus souvent.

Commandes simples

1. La pré-atténuation qui peut prendre quatre valeurs, la directivité qui est déclinée sur quinze valeurs (omni, cardio, hyper-cardio, bidirectionnelle) et un filtre coupe bas de trois valeur aux choix du constructeur.

2. Le gain du microphone, un limiteur et un mute

3. La synchronisation du microphones avec l'enregistreur.

La commande de synchronisation a vocation à être expédiée aussi souvent que possible.

Commandes étendues

Prévues au nombre de 32, actuellement seules les commandes numérotées de 4 à 7 et 33, 34 sont définies.

1. Une commande pour le calibrage du convertisseur, le test et témoin lumineux du microphones

2. Une commande pour régler la fréquence d'échantillonnage des convertisseurs du microphones et un « dithering » lors d'une conversion vers un nombre réduit de bits.

3. Une commande pour choisir le type de stéréophonie que l'on veut utiliser. XY; M/S

4. Une commande pour choisir diverses courbes d'égalisation du microphone

5. Une commande constructeur spécifique

6. Une commande qui ferme cette commande, spécifique au constructeur.

Ludovic

César -

AEDS310

9

SAE

2010-2012

Cette norme comprend aussi un système de « débogage » qui permet de signaler certains problèmes, considérés comme critiques. Au départ une seul « page » était prévue pour ce rapport, finalement trois pages viendront étoffer ce rapport, chacune des page contient des informations de différents types :

Page 1 :

o

Activité du limiteur

o

Écrêtage des convertisseurs

o

L'état muet du microphones

Page 2:

o

L'état des réglages du microphones

o

La liste des fonctions du microphone

o

L'état de la liaisons radio et de la batterie si c'est un microphones sans fil

Page 3:

o

Identification du fabricant

o

Modèle du microphone

o

Numéro de série

o

Numéro de version matérielle, numéro de la version logiciels

En plus de toutes ces informations vient s'ajouter une estimation du retard du microphone, la conversion analogique/numérique comporte un filtre numérique « anti repliement » qui crée un retard. La table de mixage doit tenir compte du fait qu'elle doit pouvoir travailler simultanément avec plusieurs microphones de marque et de modèle différents ayant chacun un retard qui lui est propre. Il est donc indispensable que chaque microphone puisse délivrer ces spécificités techniques afin de faciliter le travail de l'ingénieur du son.

La connexion pour I'AES42 était au départ du simple XLR, mais on l'a fait évolué vers une variante I'XLD tout en le laissant compatible si on n'a pas de connecteur XLD. L'XLD est un XLR qui à été légèrement modifier, ou l'ont à ajouté une rainure bien spécifique entre le point 2 & 3 et son impédance est de 110 Ohms.

Un modèle de microphones numérique célèbre est le SuperCMIT de chez Schoeps, en plus d'être numenque il possède un dsp intégré. Le DSP du SuperCMIT analyse les sons venant de directions différentes et détermine si tel ou tel son présente les caractéristiques d'un son direct ou non. Il utilise cette information pour supprimer les sons diffus et mettre en valeur les sons directs. Ce procédé permet d'augmenter considérablement la portée du microphone canon, sans générer d'artefacts ni de coloration. (Documentation Schoeps)

Ludovic César

-

AEDS310

10

SAE

2010-2012

Les microphones à zone de pression

Appelés le plus souvent PZM (Pressure Zone Microphone), ce sont des microphones posés sur une surface. La réflexion sur cette surface permet de renforcer le son direct de +6db pour les fréquences ayant une longueur d'onde plus petite que la surface. Ce type de microphone est très facile à dissimuler. Plus la surface sera grande plus le micro aura une grande « membrane »

Directivité

En dehors de toutes les spécifications techniques et les façons dont un microphones permet de transducter un signal acoustique vers une variation électrique , les microphones peuvent être également classés sur base de la manière dont ils vont capter le son : la directivité.

Différents types de directivité :

0
0

Omnidirectionnel

Différents types de directivité : 0 Omnidirectionnel Hypercardioïde 0· C a r d i o ï

Hypercardioïde

types de directivité : 0 Omnidirectionnel Hypercardioïde C a r d i o ï d e

Cardioïde large

·· ··~·········· ···· . ( ; ··- ~··: ·····-······
·· ··~·········· ···· .
(
;
··-
~··:
·····-······

Canon

··'( ; ··- ~··: ·····-······ C a n o n Cardioïde Bi-di rection nel Source:

Cardioïde

·····-······ C a n o n ··' Cardioïde Bi-di rection nel Source: fr.wikipcdia.org/wiki/Microphonc

Bi-di rection nel

Source: fr.wikipcdia.org/wiki/Microphonc

Facteur de distance et effet de proximité

Le facteur de distance est en rapport direct avec la directivité d'un microphone , la référence pour le rapport de distance est le micro omnidirectionnel dont le rapport est de 1. En fonction de la directivité le microphone peut avoir un rapport de distance qui augmente, par exemple un micro canon aura un rapport de distance beaucoup plus élevé qu'un omnidirectionnel , c.à.d. qu'il ne devra pas être aussi prêt qu'un micro omnidirectionnel pour avoir le même niveau sonore provenant d'une source.

Ludovic

César

-

AEDS310

11

SAE

2010-2012

Source

1 Omnidirectionnel 1

1

1 Cardioïde

- Hypercardioïde

semi-canon

1

1,7

1,9

2,5

1 Rapport de distance 1

L'effet de proximité est un phénomène qui se passe lorsqu'un microphone

directivités, excepté omnidirectionnel , sont

est trop proche d'une source,

plus ou moins affectées par cet effet. Si on rapproche le microphone de la source cela aura pour effet de booster les basses, ce qui peut être très gênant.

Voici un graphique représentant la courbe de réponse en fonction de la distance entre le microphone et la source . (Source : shure .com)

toutes les

.,.-- 3mrn (lr!l ltl) -·~- - 2~.rmn. lliNJ " "' ~1 "'"' \ (l iN)
.,.--
3mrn
(lr!l ltl)
-·~-
-
2~.rmn.
lliNJ
"
"'
~1 "'"'
\
(l iN)
./
/
O.ôm
tznl
/
50
'DO
200
500
1000

Ludovic

César -

AEDS310

FREQUENCY IN Hz

12

SAE

2010-2012

La modulation d'un signal sonore

Lorsqu'on enregistre un signal sonore, il faut pouvoir restituer le son tel qu'on l'entend, mais si un son va trop fort il faut pouvoir l'enregistrer sans être en saturation par rapport à l'appareil qu'ont utilise.

Que

ce

soit

en

numérique

ou

en

analogique,

dans

la

chaîne

d'enregistrement, microphone -> pré-ampli-> enregistreur, chacun des éléments a une limite physique de signal qu'il ne peut dépasser sans altérer le son. En

numérique cela est beaucoup « flagrant » qu'en analogique, mais cela reste néanmoins une modification du signal.

pour

l'enregistrement, qui permettent de visionner la modulation du signale.

Il

existe différents

outils,

spécifiques au

matériel

qui

sera

utilisé

Le Vu-mètre :

Il laisse passer les crêtes très courtes car son temps d'intégration est généralement de 300ms, il est très représentatif du niveau moyen (RMS) du son enregistré.

Son échelle de mesure est généralement graduée de -20db à +3vu

de mesure est généralement graduée de -20db à +3vu Le peak-mètre: Il a un temps d'intégration

Le peak-mètre:

Il a un temps d'intégration beaucoup plus rapide que le vu mètre et permet

ainsi de détecter les crêtes rapide qui pourraient faire saturer le signal. Son temps

est généralement de 1Oms. En numérique , celui-ci sera gradué en

Dbfs. Le 0 étant la valeur maximal d'un signal, au delà de cette limite le convertisseur commence à saturer.

d'intégration

Lorsqu'on travail avec plusieurs machines pour enregistrer le son on peut être confronté à des configurations, peak-mètre, vu-mètre, peak-mètre digital. Il est donc important de savoir ce que représentent ces indicateurs et de pouvoir moduler de façon correcte sur chacun des appareils.

Ludovic

César

-

AEDS310

13

SAE

2010-2012

Voici un tableau de correspondance de ces différents indicateurs pour un son sinusoïdal.

de ces différents indicateurs pour un son sinusoïdal. V u m è t r e Peak-mètre

Vu mètre

Peak-mètre

DBu

un son sinusoïdal. V u m è t r e Peak-mètre DBu 20 8 On obtient

20

8

son sinusoïdal. V u m è t r e Peak-mètre DBu 20 8 On obtient les

On obtient les niveaux d'alignement pour la référence de 1OOOHz :

OVu =-8 peak =-18DBfs =+4DBu

Ludovic

César

-

AEDS310

14

SAE

2010-2012

En Pratique

Préparer le tournage

Définir le produit fini

Il n'est pas toujours possible de se rendre sur place pour préparer un tournage. Il est donc indispensable de rassembler un maximum de documentation ,

pour prévoir le matériel nécessaire

Selon le type d'enregistrement, il sera également nécessaire de définir l'objectif du contenu. (priorité au message ou à l'univers sonore)

et parer à un maximum d'éventualités .

La manière d'enregistrer dépendra aussi parfois de la méthode de diffusion.

Il

l'enregistrement.

est

donc

important

de

définir

le

produit fini

pour

préparer

au

maximum

Le repérage

Le repérage des lieux dans lesquels les différentes scènes d'un film seront

tournées est indispensable autant pour l'image (camera, déco ,

Savo ir si un lieu est bruyant , par

coupant une ventilation qui gène, en proposant de tourner de nuit si la scène ne demande pas une vision extérieur,

Le découpage des scènes et la façon dont chaque plan sera tourné doit être appris par cœur pour préparer au mieux son travail et ainsi ne pas avoir de mauvaise surprise lors du tournage. Il faudra également savoir si on tourne en

plan large ou en plan serrer, quel sera la focal utilisée , avoir les informations

Après le

repérage établir un plan de travail en fonction du découpage est essentiels pour

se préparer au moment venu et aussi à informer tous le monde sur ce que l'ont va faire . Il est important que le réalisateur, le chef opérateur, le directeur photo , la

sachent comment on veut se placer ce que l'ont veut prendre

ou pas , pour en cas de conflits faire des compromis entre les différent corps de métier, et surtout que ce genre de problème ne soit pas à faire au moment ou l'ont tourne. Le prix d'une équipe de tournage est très élever il ne faut pas bloqué vingt personnes parce que on à oublié de prendre en compte un paramètre.

production, la déco

scénaristique qui nous permettrons d'enregistrer les sons additionnels

) que pour le son .

la

prise de son en

exemple , permet d'anticiper

Sur le plateau

Sur un tournage, les seuls personnes qui ont le droit de couper sont , le réalisateur, le cadreur et le chef opérateur son. Il est préférable de couper une scène si une élément vient parasiter le bon déroulement de notre travail que de continuer à filmer et de la faire recommencer car le son n'est pas bon . Le tout est de bien analyser quand le son parasite survient et de couper uniquement si il sera impossible de corriger au montage.

Ludovic

César

-

AEDS310

15

SAE

2010-2012

Par exemple : un claquement de porte entre deux dialogue, bref et sans

résonance sera assez facile à supprimer lors

des silences plateau aient été pris après ou avant les scènes, par contre si celui-ci intervient en pleine réplique il vaut mieux couper et refaire la scène en entier, ou

en partie pour avoir le meilleur son possible.

du montage son , pour autant que

Le rapport son

Le rapport son permet d'avoir un historique précis de ce qui c'est passé au tournage et de pouvoir retrouver facilement chacun des sons, surtout lors de la post-production. Les enregistreurs actuels permettent d'enregistrer ces informations automatiquement. Le CANTAR d'AATON, par exemple peut sortir un rapport PDF à partir des notes données pendant le tournage : nom de piste, nom de scène, commentaire, choix de prise,

Le rapport son est assez difficile à gérer lorsqu'on est seul, car il demande du temps entre chaque scène, temps qui est parfois rare sur certains tournages . Dans ce cas, il faut veiller à bien respecter les principes de base comme annoncer les prises de son seul, nommer ses pistes, ne pas enregistrer tant que le moteur n'a pas été demandé.

Exemple de rapport son d'un CANTAR : (Source : aaton.com)

Ludovic

1

Totla S. A.-

d'hw:

---

CANTAR SOUND REPORT

R41CJ('f1N011111

IDW 2001-10-20

IW(ft.~ TOUS

1~

,,.

locallotl SOHS SHA.S CANTAA

lCfla 2.600

--

O U S 1 ~ ,,. locallotl SOHS SHA.S CANTAA lCfla 2.600 -- lo -1 "

lo

-1

"

1 "

1

13

1 "

1 "

1

111

1

T7

1 "

1 """

1,

1,-1

1 " 1 " 1 111 1 T7 1 " 1 """ 1, 1,-1 , ,
1 " 1 " 1 111 1 T7 1 " 1 """ 1, 1,-1 , ,

,

,

,

~

NO\Mt

lnl

OIDIGl

1

P

u.

HOIII86 , ,.~~, ,_llo- 00 1 31
HOIII86
,
,.~~, ,_llo-
00
1 31
1, 1,-1 , , , ~ NO\Mt lnl OIDIGl 1 P u. HOIII86 , ,.~~, ,_llo-

César

-

AEDS310

16

SAE

2010-2012

Les sons utilitaires :

En dehors du tournage en tant que tel, la prise de sons additionnels , qui pourraient être utiles lors du montage, est un plus non négligeable . De même qu'un cadreur qui tournera des « inserts », un ingénieur du son enregistrera des « sons seuls ».

Le silence plateau :

Chaque lieu , pièce ou espace dans la nature, a un bruit de fond qui lui est propre . Il est donc important d'enregistrer un silence plateau pour pouvoir « boucher » des trous de son entre deux raccords au montage et ainsi éviter d'avoir un passage sans son, ce qui peut être aussi choquant qu'un claquement de porte. Pour l'homogénéité d'une scène avoir un silence plateau permet de faciliter le travail du monteur. En générale, 2 minutes suffisent.

On essayera au maximum d'avoir un son le plus proche possible de celui

du tournage . Le silence

fond de la scène plus il sera facile de l'intégrer dans le montage son. Lors de l'enregistrement du son seul on viellera à utiliser les mêmes microphones et à la même place pour se rapprocher au plus du moment où la scène à été tournée. La isser l'équipe en place peut également avoir une incidence sur le caractère du bruit de fond.

plateau est une rustine, plus elle ressemblera au bruit de

Les sons seuls:

Ce sont des sons qui apporterons un plus à une scène lors du montage :un

claquement de porte dans la pièce, un éternuement. Le but de cet enregistrement est d'agrémenter la bande son finale avec des sons qui lors de la prise n'ont peut-

être

pas su être enregistrés de

manière optimale .

Les sons esthétiques :

Il s'agit de sons que l'ont va mettre en valeur pas par rapport aux scène que

contexte , un effet. Si

le tournage se passe en forêt, l'ingénieur du son enregistrera plusieurs ambiances

à des moments différents de la journée pour proposer un fond sonore varié au monteur.

Lorsque l' ingénieur du son enregistre des sons seuls , il doit vieller à bien les

annoncer : l'endroit, le type, la correspondance avec la scène X , la description du

déroulement . Même si

agrémenter une banque de son personnelle, dès lors il sera plus facile à classer et

n'est pas utilisé au montage , il pourra venir

l'ont à tourné mais pour appuyer à

l'image, une ambiance, un

celui-ci

à retrouver si il est bien défini.

Ludovic

César -

AEDS310

17

SAE

2010-2012

Synchrone 1Asynchrone

On parle de son synchrone lorsque le son est enregistré en même temps que l'image. Les sons asynchrone, eux, sont enregistrés par la suite. Les sons seuls sont donc des sons asynchrone, contrairement aux dialogues de la scène.

La synchronisation

En générale, lorsqu'on tourne une scène, on enregistre la vidéo et le son sur des supports séparés, ce qui oblige à synchroniser par après les deux supports. Il existe différentes techniques pour y arriver :

Le clap

Technique la plus connue car la plus ancienne, le clap permet via l'image et le son de resynchroniser les deux supports en post-production. Le clap peut être fait en début ou en fin de scène. Dans le cas d'un documentaire où la scène peut survenir à n'importe quel moment, on préférera un clap de fin . Au cinéma c'est

clap , notera les scènes

sur le clap, les annonceras oralement et fera un clap bref, pour que le clap fermer ne soit, idéalement que sur une image. Un clap de début est à l'endroit et un clap de fin à l'envers. Certains elaps affichent un time code, celui-ci permet en plus du

clap classique d'enregistrer l'image à la valeur exacte du time code des enregistreurs. La technique du clap a cependant un gros inconvénient car il faut manuellement lors du montage ou dé-rush re-synchroniser chacun des échantillons audio avec les plans choisis.

l'inverse, généralement une personne est responsable du

Le Time code

Pour une facilité de resynchronisation, le time code est une des solutions de synchronisation les plus utilisées à l'heure actuel, même si on l'accompagne toujours du clap pour des questions de sécurité. Le time code permet, à l'aide de logiciels comme « Final Cut » ou « AVID », d'automatiser la synchronisation image/son.

Le timecode est un code horaire qui permet de numéroter chaque image. Attention, pour générer un time code correcte il est important de tenir compte du support sur lequel on tourne et donc du nombre d'image par seconde : PAL , NTSC, Cinéma,

Rec-run : Le time code se lance à chaque fois que le bouton rec est enclenché. Cette technique est pratique lorsque la vidéo et le son sont enregistrés sur le même support.

Free-run : Le time code tourne librement, il ne s'arrête pas automatiquement. Cette technique est pratique lorsque plusieurs machines enregistrent en même temps. Il faut cependant vérifier qu'une machine ne tourne pas plus vite que les autres afin d'éviter qu'un décalage ne se crée.

Ludovic

César

-

AEDS310

18

SAE

2010-2012

Le time code se compose de la manière suivante :

lo1

1 Heures

00

Minutes

T00

1 Secondes

Pour synchroniser les machines d'un tournage via un time code , un maître génère un time code de référence pour toutes les autres machines. Ce time code peut être généré par un des appareils d'enregistrement ou par une machine dont ce sera l'unique utilité. Ce time code est transmis aux autres machines via un câble , liaisons hf, ou boîtier synchrone.

Le time code est enregistré sur une entrée time code ou sur une piste audio , ce qui permet d'avoir le time code interne (en record-run) en plus du time code généré par le maître en free-run. L'avantage de cette technique est que pour

le montage ce sera plus

correspondance entre le time code free-run et rec-run dans un logiciels de montage comme « AVID » ou « FINAL CUT », petit bémol l'option automatique est

facile de trier les plans , il suffira ensuite de faire la

payante.

Il y a aussi une technique principalement sur les enregistreurs Sound Deviees qui consiste à enregistrer dès que le time code tourne « Record when TC run », on connectera le time code maître (de la camera) en record-run dans l'entrée time code de l'enregistreur audio , c'est donc le cameraman qu i déclenchera le son et l'image en même temps.

Autre méthode

Il est également possible de synchroniser l'image et le son sans clap , ni time code, il faut dans ce cas le faire manuellement sur base du son témoin de la camera. (un son percussif facilitera la manœuvre). Il existe également un logiciel payant(Piural Eyes) qui permet de recaler les waves forme .

Ludovic

César -

AEDS310

19

SAE

2010-2012

La Stéréo et le multicanal

La stéréophonie et le son multicanal ont amené au cinéma une nouvelle dimension sonore. Bien qu'un tournage en stéréo ne demande pas beaucoup plus de ressources qu'un tournage mono, il ne faut pas négliger le travail nécessaire en post-production, ni la compatibilité mono. Lors d'un enregistrement en stéréo pour le cinéma, la démarche sera différente de celle utilisée pour un concert classique, car on tente plutôt de rendre une atmosphère qu'une image spatial exacte, l'exactitude de l'image stéréo importe moins.

Les couples stéréo

Le couple AB

Cette façon de disposer les microphones permet de jouer avec deux

la différence d'intensité et le retard du son. Le couple AB est

paramètres :

constitué de deux microphones, souvent cardioïde, espacés selon un certain angle et une certaine distance. La compatibilité mono de ce couple n'est pas parfaite, en effet même si la différence de retard apporte un meilleur rendu stéréophonique, un fois qu'on additionne les deux ondes pour diffuser en mono des problèmes de phase apparaissent.

Exemple de couple AB :

(Source : dpamicrophones.com)

Le coupleXY

Composé de deux microphones cardioïdes, dont les capsules sont coïncidentes en formant un angle de 90°. La compatibilité mono est parfaite, car les deux micros captent le son en même temps, par contre la stéréo est moins large et moins précise qu'avec un couple AB.

Exemple de placement XY: (Source: media.soundonsound.com)

Exemple de placement XY: (Source: media.soundonsound.com) Ludovic César - AEDS310 20 S A E 2 0

Ludovic

César -

AEDS310

20

SAE

2010-2012

Le couple MS

Composé de deux microphones de directivités cardioïde et bidirectionnel , ce couple est le compromis entre une plus large stéréo et une compatibilité mono parfaite . Les capsules sont disposées de telle façon que le cardioïde pointe vers la source et le bidirectionnel est placé en perpendiculaire pour prendre les son venant des cotés.

source sonore

pour prendre les son venant des cotés. source sonore (Source : audiofanzine.com ) Pour écouter ce

(Source : audiofanzine.com )

Pour écouter ce signal en stéréo il nous faudra faire un dématrissage c.à.d . envoyer à gauche la somme du micro M avec le side en phase et envoyé à droite la somme du canal M avec le side hors phase. Il est très fréquent que le micro M soit utilisé avec différentes directivités.

Le son multicanal

On appelle multicanal le fait de diffuser le son sur plusieurs canaux bien distincts, très souvent cinq enceintes et un renfort basse (5 . 1). Le son multicanal regroupe un panel de techniques d'enregistrement, de mixage et de reproduction , on appelle très souvent cela « surround ». Le son multicanal a commencé avec trois hauts parleurs, pu

4,5

la tentative d'englober 1 téléspectateur à 360° était l'horizontal , mais depuis pe de nouvelles techniques de restitution sonore en troi dimensions ont fait leu apparitions. (par ex : Auro 3

troi dimensions ont fait leu apparitions. (par ex : Auro 3 Dans un premier tem (auro-3D.com))

Dans un premier tem

(auro-3D.com))

Ludovic

César -

AEDS310

21

SAE

2010-2012

Avant d'enregistrer en multicanal il est préférable de bien maîtriser la prise de son stéréo car les placements des microphones en sont très inspirés, mais avec plus de paramètres. Michaël William est l'un des chercheurs les plus rigoureux dans ce domaine, il à poussé la technique de prise de son multicannal en une vrai science de la restitution sonore de l'enregistrement jusqu'à la diffusion. (mmad.info)

Les différents systèmes

Les systèmes matricés

Le double MS et le système ambisonique enregistrent les « coordonnées » sonore de l'espace, un matriçage décode le signal. Son avantage réside en la capacité en postproduction de changer la directivité virtuelle des micros, de récupérer un signal mono, stéréo ou de moduler l'espace. Ils sont aussi très compacte au bout d'une perche. Leur principal défaut est qu'ils sont difficiles à écouter lors de la prise de son.

Ambisonique :

L'ambisonie est une technique d'enregistrement et de lecture. Par codage et de décodage d'informations de son sur un certain nombre de canaux, un 2- dimension (horizontale) ou 3-dimension (sphérique) de champ sonore peut être présenté. Ambisonics théoriquement par Michael Gerzon et d'autre chercheurs ,vers les années 1970.

Avantages

1. Les sons en provenance de toutes les directions sont traités de manière égale.

2. Bonne localisation

3. L'image du champ sonore très bien reproduite même en dehors d'une diffusion multicanal

4. Quatre canaux d'information sont nécessaires pour la distribution et le stockage d'un champ sonore complet (sphèrique), et trois pour un champ sonore horizontal.

5. Les haut-parleurs n'ont pas à être positionnés dans un cadre rigide.

Ludovic

César -

AEDS310

22

SAE

2010-2012

Inconvénients

1.

Il n'est soutenu par aucune grande maison de disques ni par une société de production.

2.

Il

n'a jamais été bien commercialisé et donc n'est pas très connu .

 

3.

Il nécessite un boîtier décodeur Ambisonic afin de rejouer, et il y a peu de fabricants de décodeurs commerciaux.

4 .

Le

nombre

de

haut-parleurs

nécessaire

pour

l'horizontal

est

d'un

minimum de quatre.

Il y a différents formats de codage qui permettent d'avoir des directivités différentes de microphones.

Format

B :

Le

microphone

du

format

B

délivre

quatre

signaux :

Height

z

format B délivre quatre signaux : Height z z Un omnidirectionnelle (W) Trois bidirectionnelle (X,Y,Z)

z

Un omnidirectionnelle (W)

Trois bidirectionnelle (X,Y,Z)

Un boîtier de codage permet d'enregistrer en mono, stéréo

ou en format b. On peut choisir les quatre composants et )'

ensuite choisir la configuration voulue.

d'avoir une écoute stéréo des microphones à l'avant.

Format A : Le format A est tétraèdre.

Le

boîtier permet l,ft

composé de quatre microphone hypo-card ioïdes en

Double MS:

de quatre microphone hypo-card ioïdes en Double MS: Un couple stéréo MS pour l'avant et un

Un couple stéréo MS pour l'avant et un pour l'arrière, en uti lisant le même microphone bidirectionnelle, ce système permet d'enregistrer sur 3 pistes. Pour faire le décodage du double MS on peut utiliser le programme gratuit de chez SCHOEPS (Double MS Tools).

L'exemple à droite est composé d'un CMIT, hypercardio, d'un CCM8 cardioïde pour l'arrière et d'un CCM8 en bidirectionnel s'occupant de l'arrière et l'avant gauche et l'arrière et avant droite qu'on à la possibilité d'extraire avec un dématrissage doubleMS.

Ludovic

César

-

AEDS310

23

SAE

2010 - 2012

Dématrissage DoubleMS :

HyperCardio + Cardia (hors-phase) = Canal Central

BI + BI (hors-phase) = L + R

BI + BI (hors-phase) + HyperCardio = L + R + C (MS)

Cardia + HyperCardio (hors-phase) + Bi + Bi (hors-phase) = Ls + Rs

Les grands avantages du double MS sont le peur

de pistes en enregistrement (seulement trois) et

un très

possibilité de retouche de l'image stéréo en postproduction.

.,

de retouche de l'image stéréo en postproduction. ., bonne compatibilité mono ainsi qu'une llliliiiJitiliii

bonne

compatibilité

mono ainsi

qu'une llliliiiJitiliii

Les systèmes non matricé

Le paramètre temporel est pris en compte par l'écartement entre les microphones pour améliorer la définition de l'espace stéréo, la possibilité de modification de l'image stéréo, comme le double MS, lors de la post-production est beaucoup moins facile qu'avec un système matricé.

L'étoile de Williams (MMAD : Multicanal Microphones Design Area)

Avec ce système il y a autant d'enceintes que de microphone utilisés lors de la prise. L'étoile de Williams est composée d'un noyau circulaire central qui permet de fixer 4,5 ou 7 rayons de longueurs différentes en fonction de la directivité des microphones, à l'extrémité de ces rayons on y trouve des supports pour microphones Schoeps CCM (Compact Condenser Microphone)

microphones Schoeps CCM (Compact Condenser Microphone) Ludovic César - AEDS310 24 S A E 2 0

Ludovic

César -

AEDS310

24

SAE

2010-2012

Dans une configuration 5 canaux nous pourrons utiliser les rayons suivant avec différentes directivités.

1. Les rayons les plus court pour les directivités Super-Cardioïde

2. Les rayons moyens pour les directivités Cardioïde

3. Les rayons les plus long pour les directivités Hypo-Cardioïde

D'autres types de supports de microphones sont en développement pour une meilleure compatibilité dans le milieu audio.

Le double ORTF et croix IRT

Ces deux systèmes de prise multiple-canal ont l'avantage de restituer un agréable sensation d'espace.

La croix IRT est composée de quatre microphones card ioïdes espacés de 20com avec un angle de 90° , on peut aussi utiliser quatre microphones hyper cardioïde avec un espacement de 14cm.

Le double ORTF comme son nom l'indique est composé de deux couple ORTF qu i sont dos à dos :

Le DPA5100

Cet ensemble est composé de trois microphones omnid irectionnels coïncidents sur l'avant, avec un directivité crée par des tubes d'interférence et un bafflage. L'arrière est composé de deux micros omnidirectionnels légèrements espacés . Il a une bonne sensation d'espace et une bonne compatibil ité mono.

Ceci n'est pas, un siège de batterie !

Ludovic

César

-

AEDS310

25

SAE

2010-2012

Holophone H2

Ce microphone s'inspire d'une tête de Fritz ou d'une autre structure binaurale. Il est composé d'une boule de la forme d'un ballon de rugby avec pas moins de huit microphones omnidirectionnelles pour capter le signal, diffusé dans chaque haut parleur.

pour capter le signal, diffusé dans chaque haut parleur. Les liaisons HF On appelle souvent «

Les liaisons HF

On appelle souvent « microphone hf » les microphones cravates alors que HF veut simplement dire « hautes fréquences » ce qui caractérise la liaison et non le type de microphone utilisé. N'importe quel câble peut être remplacé par une liaison HF. Une liaison HF entre la caméra et le preneur de son peut dans certain cas s'avérer être vraiment très utile. Tout comme une liaison HF entre le micro perche et l'enregistreur qui va nous permettre de changer la taille de notre perche sans avoir à dérouler ou rouler le câble pour qu'il ne nous gène pas. Mais comme toutes choses, ces avantages ont aussi leurs lots d'inconvénients, une bande passante limitée (en fonction des modèles) la stabilité de la transmission qui peut légèrement déformer le signal, une meilleure qualité du câble.

Lors d'une prise avec des micros HF, il faudra veiller à bien se renseigner sur les fréquences d'émission et de réception autorisées dans le pays dans lequel on est. Il n'existe hélas pas encore d'harmonisation européenne . De plus, la télévision TNT prend également quelques plages de fréquence, différentes suivant les régions. Le site internet de Sennheiser fourni un outil permettant de choisir la région dans laquelle on se trouve et ainsi voir les fréquences disponibles en fonction de la ville.

( http://www.sennheiser.fr/media/selection frequence/selection frequence.html )

Lorsqu'on utilise plusieurs systèmes HF, il faudra bien faire attention à ne pas prendre des fréquences trop proche, un écart de 1MG hz évitera des brouillages ou interférence entre les systèmes . Il faut savoir qu'une liaison sans fil est fiable à 99% ce qui nous laisse tout de même 1% d'erreur. Il est donc conseillé de se munir de câbles en compléments du HF si les moyens le permettent.

La prise de son

Le but de l'enregistrement des sons synchrones sur le plateau est de restituer au mieux le son des prises filmées. La qualité du son direct à une couleur naturelle et le jeux des acteurs est peut être plus intense. Sur certaines scène il ne sera pas possible de percher l'entierté d'une scène, il faudra alors prévoir en fonction des déplacements des micros, qui viendront relayer l'effet de distance qui peut se produire, cacher une perche à un endroit, utiliser un microphone cravate ou encore cacher des microphones dans le décors.

Ludovic

César -

AEDS310

26

SAE

2010-2012

La perche est l'un des outils les plus performants pour avoir un bon suivi de

déplacement sonore (tête qui bouge lors d'un

précision si elle est correctement manipulée. Il faudra donc savoir manier cette objet encombrant et bien se placer car en tournage intérieur avec une lumière artificielle il faut pouvoir prendre le son au plus près de sa source mais aussi ne pas faire de l'ombre sur un mur à l'arrière ou sur le comédien. En fonction de l'axe camera il faudra donc essayer d'avoir l'ombre en dehors du champ, ce qui n'est pas toujours évident. Pour être au plus prés de l'action il est utile de demander un bord cadre à l'opérateur image, pour ne pas venir dans l'image. Certains ingénieurs du son plateau savent en fonction de l'ouverture, de l'objectif utilisé , exactement ou se placer, ils ont une vision du cône de prise image fonction des réglages de la caméra.

dialogue, marche,

) et une bonne

Il faut garder à

l'esprit que si on à un plan large à la caméra,

le son doit lui

aussi être semblable à ce que l'on voit, si le personnage est loin dans la rue avoir

un son trop proche pourra sembler bizarre, le preneur de son doit donc savoir à tous moment quel est le cadre en temps réel.

Pour faire une bonne prise de son il nous faudra avoir les équipements

adéquat pour capter le mieux possible l'élément à enregistrer (ex : dialogue) tout

en évitant de capter les sons superflus. (trafic extérieur,

Une des première chose est de bien connaître ses microphones, d'avoir pu les tester de différentes façons dans des situations multiples pour bien cerner les avantages de tel ou tel microphone en fonction de la situation. Il va de soi que la préparation et le repérage du tournage nous auront permis de décider quel micro

En tournage cinéma il n'est

sera utilisé sur quelle scène, où ils seront placés,

pas question de se décider le jour J pour placer ces microphones. En documentaire ou en reportage c'est peut être l'encombrement, ou la mise en place qui nous aura limité dans le choix, mais réfléchir avant sera toujours du temps gagné le jour du tournage.

)

Ludovic

César -

AEDS310

27

SAE

2010-2012

Les suspensions

L'un des éléments indispensables pour toute prise de son « mobile » est la

suspension qui va amortir tous les petits choc, ou vibrations causées en marchant

Une

bonne suspension ne doit pas simplement amortir les chocs, elle doit aussi ne pas faire de bruit en les amortissant.

pour suivre un acteur ou en manipulant la perche, bruit de prise en main ,

Il y a plusieurs sortes de suspensions :

- Certaines avec des élastiques mis en croix dans lesquels on glisse le microphone. Elle sont très légères mais il y a des risques de frottements des élastiques contre le micro, qui vont se faire entendre.

- D'autre ont un caoutchouc qui remplace les élastiques , une sorte de cerclage dans lequel on va glisser le microphone , mais qui isole beaucoup moins bien des bruits de manipulation de la perche .

- Les plus utilisées et les mieux faites sont généralement les suspensions qui reportent l'effet amortissant ailleurs que près du microphone. Les modèles comme Cinéla ou lnvision sont des modèles très amortissant, ils sont juste un peu plus encombrant que les deux premier modèle cités et légèrement plus lourd.

La perche

La perche est l'outil par excellence du preneur de son , elle doit être légère , ne pas résonner et s'allonger ou se raccourcir pour un meilleur suivi et une meilleure manipulation du perchman. Plusieurs type de longueur devront être disponibles sur un tournage cinéma et des pieds ou harnais viendront aider le perchman lors de manipulations de grandes perches. Certaines perches sont câblées à l'intérieur des tubes, ce qui, pour la manipulation en reportage ou documentaire est très pratique pour s'adapter rapidement à une scène et modifier la longueur. Hélas ces modèles sont très cher.

La façon de tenir sa perche est aussi très importante car il faut pouvoir tenir assez longtemps tout en étant le plus mobile possible. La position en H est la

Ludovic

César -

AEDS310

28

SAE

2010-2012

position la plus optimale : le corps est perpendiculaire à la scène et est immobile, seule la tête tourne. Si il n'y a pas d'opérateur son pour s'occuper des réglages de gain ou du mix, coincer la perche sous le coude peut permettre à l'ingénieur du son de faire son réglage pendant la prise, on tiendra beaucoup moins longtemps et si il faut tourner la perche pendant un dialogue ça devient très dur.

En reportage et en documentaire le preneur de son perche et contrôle son niveau avec son casque, ce qui est plus rare sur un tournage film. Le perchman voit la scène avec ses yeux et l'opérateur son, souvent placé derrière sa « roulante », s'occupera de mixer et de régler les niveaux entre les différents microphones en temps réel. La manipulation de la perche permet de faire aussi un réglage de gain, en utilisant la distance pour diminuer l'intensité d'un son.

Perche K-Tek avec système de câblage interne.

Les protections contre les éléments météo

Le vent est un des problème les plus présents lors d'une prise de son extérieure ou en intérieur si on doit faire des mouvements de perche rapide. Pour atténuer les bruits du frottement d'air contre la membrane du micro la protection anti-vent est un élément incontournable . En intérieur, une bonnette en mousse pourra peut-être suffire mais en extérieur le moindre souffle risque de venir gâcher la prise. Il faut donc s'équiper d'une protection.

Le choix du microphone aura aussi son importance, un microphone très directif sera plus sensible qu'un microphone omnidirectionnelle. Les basses fréquences générées par un souffle de vent peuvent être inaudibles au casque lors de la prise de son mais risquent de saturer le pré-ampli et de dégrader notre prise de son. L'idéal est de couper les basses fréquences en cas de vent le plus prêt possible de la membrane, beaucoup de microphones de bonne qualité en sont équipés.

Lorsque l'on tourne en extérieur les aléas météorologiques peuvent à tout moment nous empêcher de faire une bonne prise de son . Il existe donc des bonnette anti-vent, un sorte de zeppelin qui va enrober le microphone pour « détourner » les courants d'air directs sur la membrane. Ces protections sont souvent accompagnée d'une chaussette en poil (DeadCat) qui va améliorer le rendement de dissipation des vents. Il existe plusieurs modèles chez Schoeps

Ludovic

César

-

AEDS310

29

SAE

2010-2012

mais qui ne sont malheureusement pas toujours compatibles avec tous les types de micros. La bonnette « Wind Jammer » de chez Rycote est une des plus rependues car compatible avec bon nombres de microphones. La fourrure de la bonnette devra être peignée et être propre pour qu'elle ait la meilleur efficacité. Dans des cas extrêmes on trouve même des bonnettes avec des poils allant jusqu'à 20cm.

Attention que les bonnettes anti-vent vont avoir un effet de coupe haut en fonction de leurs épaisseur et de la chaussette, de même qu'un taux d'humidité trop élevé, en cas de pluie par exemple. Il faudra donc en plus se protéger de la pluie pour ne pas avoir une bonnette trop humide et qui à la longue risque aussi de devenir beaucoup plus lourde au bout de notre perche. Il existe des protections anti-pluie qui vont casser le bruit de goutte, mais la fabriquer soi-même est simple : il suffit d'utiliser de la mousse de filtre de hotte. Il faudra cependant veiller à la remplacer régulièrement pour éviter qu'elle ne garde l'humidité.

Chaussette à poil long à gauche et protection anti-pluie à droite

Ludovic

César -

AEDS310

30

SAE

2010-2012

La Postproduction

La réalisation d'un film est un processus mettant en jeu de nombreux intervenants en plusieurs étapes : la préparation, le tournage , la postproduction. Si le tournage est une étape intense et épuisante dans un temps assez court la postproduction est une étape plus longue avec plus de questionnements et de réflexion.

Le montage

Le montage est le terme utilisé depuis l'origine du cinéma pour définir l'opération d'assemblage des morceaux de pellicule dans l'ordre du film. Le monteur image est le personnage central, celui qui travail avec le réalisateur à la mise en forme de la structure et de la compréhension d'un projet audiovisuel. La première étape est de choisir les bonnes prises parmi les rushs et de créer un squelette de base pour le projet.

Le montage des sons synchrones

L'image se monte sur des raccords d'images et surtout sur des dialogues lorsqu'il s'agit d'une séquence dialoguée. L'acteur est à l'image (on), hors de l'image (off) , le monteur peut inventer des fausses synchros en resynchronisant les dialogues d'une autre prise que celle choisie pour l'image. Le monteur peut rajouter de la musique témoin ou définitive sur des séquences, de même pour les effets sonore, dans le but d'obtenir la meilleur approche de ce que sera la bande son .

La conformation est l'opération de postproduction qui consiste à réintégrer l'ensemble des pistes originales du tournage et les conformer au montage image pour réaliser le montage des dialogues. Les éléments et les pistes audio du programme de montage sont extraites en « OMF » ou « AAF » qui sera importé

Pro Tools ainsi qu'un export image

généralement dans une session correspondant.

OMF : Open Media Framework ou Open Media Framework lnterchange (OMFI) est un format de fichier non tributaire du type de plate-forme. Il permet de transférer des médias numériques (vidéo, audio, graphisme, animation) tout en y ajoutant des informations de traitements. On dit que les fichiers sont encapsulés dans le fichier OMFI qui les contient. Les fichiers au format WAV (WAVE) ou Broadcast Wave Format (BWF)(mis au point conjointement par Microsoft et IBM) , sont lisibles par quasiment toutes les applications qui prennent en charge le son.

AAF: Advanced Authoring Format, est un format d'échange de fichiers numériques multimédia, utilisé en postproduction vidéo, pour la fabrication d'un produit multimédia. Très utile pour le montage son d'un film, il a été conçu par une association de fabricants pour régler les problèmes d'interopérabilité entre systèmes, sans avoir à se soucier de l'origine des fichiers.

Ludovic

César -

AEDS310

31

SAE

2010-2012

Une fois la conformation faite, il faut la vérifier en comparant avec les pistes de la sortie OMF. Le monteur se retrouve ensuite devant une multitude de piste qu'il va devoir écouter, trier, choisir et préparer pour le mixage, les différentes opérations peuvent se résumer ainsi :

Séparation des sons foley du tournage des dialogues. (Bruits de porte, de pas, les accessoires, les sons seuls correspondant pris lors du tournage.

Séparation des sons du direct non dialogué étiqueté comme effets. (Bruits de voiture, son de moteur, avec aussi les son seul correspondant.

Préparation des ambiance raccord issue du tournage, qui permettra de lisser le passage d'un raccord à un autre et postsynchronisation si il y en a?

Recherche des « double », c'est à dire des prises dialogues de scène non choisie au montage, mais qui pourrai éventuellement servir alternative si il y a une mauvaise compréhension du dialogue sur la scène original.

Postsynchronisation

La postsynchronisation est utilisée pour différentes raisons :

Le son synchrone de la scène est inutilisable, bruit de machine sur le tournage, bruit de fond énorme,

Le son synchrone ne correspond pas à l'image. (ex :une scène tournée la journée sensée se passer au crépuscule dans le scénario)

Les dialogues d'un comédien ne conviennent plus/pas au réalisateur. (ex :Le comédien avait le nez bouché le jour de la scène)

Par choix d'enregistrer tout en postsynchronisation.

Pour du doublage

Parce qu'il était impossible de faire du son direct sur les lieux du tournage.

Le doublage :

On utilise le terme « dubbing » pour décrire une version étrangère, avant 1939 les films étaient tournés directement en plusieurs versions, cela permettait au film d'être distribué en même temps dans les différents pays le jour de sa sortie. Il y avait un casting de comédiens par langue pour le tournage et un montage en parallèle de chacune des versions, cette façon de faire à été abandonné car très coûteuse.

C'est dès 1930 que M.J.KArol a eu l'idée du« dubbing »en faisant doubler les rôles d'un film américain par des comédiens français. Le principe de projeter l'image et de ré enregistrer les dialogues du film a fait naître une véritable industrie qui peut s'appliquer à tous les pays.

Ludovic

César

-

AEDS310

32

SAE

2010-2012

La projection d'équipe

Une fois l'intégralité de l'image montée, on organise généralement un projection avec le réalisateur, monteur image, monteur son, ingénieur du son,

bruiteur, comédiens, dialoguiste, mixeur, musiciens décide de la marche à suivre de chacun :

Lors de cette projection on

Le doubleur évalue le nombre de séquences qu'il faudra postsynchroniser

Le bruiteur liste et prépare la session de bruitage.

L'ingénieur du son et le monteur son font le point sur les sons qu'il pourrait manquer, ce sera de préférence l'ingénieur du son plateau qui fera les sons supplémentaire.

Le musicien se sert de cette projection pour commencer à composer la musique, déjà bien orientée grâce aux discussions avec le réalisateur.

La production peut commencer à organiser le planning et le déroulement des étapes décidées lors de cette projection.

Préparation du doublage

Avant une séance de postsynchronisation, une préparation s'opère à partir du son témoin de la version originale. Dans le cadre d'un enregistrement d'une version française d'un film tourné en langue étrangère, la détection s'accompagne d'indications qui serviront lors de la traduction à faire coïncider les mots en français avec les mouvement des lèvres.

Le texte définitif est rédigé sur une bande perforée qui défile à une vitesse de trois images par seconde, on l'appelle la « bande rythma ». Chez nos amis anglais la bande défile de droite à gauche, contrairement à chez nous, ou elle défile de gauche à droite. La vidéo projetée à l'écran à souvent une « vignette » dans un coin de l'image qui introduit les images qui vont suivre, trois seconde par exemple.

Vignette

Bande rythmo

La prise de son se fait avec un microphone électrostatique placé sur une perche « à la barre » ; c'est à dire que la place du comédien sera matérialisée par une barre de fer, à laquelle il pourra s'agripper ! La perche est soit fixe, sur pied, soit mobile, manipulée par un perchman qui essayera de reproduire les positions et les déplacements du tournage .

Ludovic

César -

AEDS310

33

SAE

2010-2012

Le bruitage 1 Foley

Le bruitage est la reproduction de la vie quotidienne des sons pour une utilisation dans le cinéma . Les sons reproduits peuvent être du bruissement de vêtements ainsi que des portes qui grincent ou du verre brisé. Le but est de fondre ce apport sonore dans le film sans que l'on ne puisse percevoir que cela à été réalisé en studio. Il est là pour donné un sentiment de réalité dans une scène, sans ces bruits le film semblera anormalement calme .

Le bruiteur cherche à recréer le réalismes des sons ambiants que le film dépeint. Les accessoires et les décors d'un film ne réagissent pas de la même manière que leurs homologues acoustiques de la vie réelle.

Les séance de bruitage demandent en plus d'un studio équipé de tous le matériel adéquat dans une bonne acoustique, différents revêtements et aménagements pour permettre au bruiteur d'exercer son art. En effet, en plus d'une multitude d'objets de toutes sortes, les bruitages sur de lourds éléments sont souvent déjà dans le studio. Portes, bac d'eau, dalle, plancher, pavé, brique , gravier.

Le montage son et la sculpture sonore

Le monteur son

Le métier à part entière de « monteur son » apparaît dans les année 80 , avant cette fonction était remplie par le monteur image, mais l'apparition de la stéréo et du multicanal oblige à scinder les professions. Quand le montage se faisait sur bande, il était impossible d'écouter plus de 3 à 4 bandes à la foi, de plus le banc de montage faisait tellement de bruit que écouter la finesse d'un montage était mission impossible.

Le monteur son est souvent en rapport avec le réalisateur et le monteur image voir le(s) musicien(s). La tâche du monteur son est de réalisé les désirs artistique du scénario. Le monteur son doit être capable de maîtriser au mieux une station de montage son et l'informatique tout en ayant une certaine sensibilité à l'image, une imagination qui pourra traduire des désirs pas toujours évident à comprendre.

La sculpture sonore

Plus souvent appelé « sound designer» mais qui à deux sens :

C'est un artiste qui entre en scène dès la préparation du film en collaboration avec les autre disciplines, capable de diriger et de réunir une équipe chargé du son sur le tournage qu'en postproduction, il est le référent au niveau sonore pour l'ensemble des sons du film. Il est en rapport avec le réalisateur des besoins sonore scénaristique.

C'est aussi le terme utilisé pour quelqu'un qui crée un type ou un genre d'effet sonore pour des demandes spécifique et en renfort d'un montage son.

Ludovic

César -

AEDS310

34

SAE

2010-2012

Montage des ambiances

L'ambiance est composé de tous les éléments qui font partie du décor sonore de chaque séquence. L'ambiance est à l'image le liant ou le « eut», c'est avec elle que l'ont pourra sentir que l'on n'a pas changé d'environnement même si à l'image on ne voit plus qu'un visage en gros plan. Les ambiances de tournage, les ambiances prises en stéréo sur les lieux du tournage ainsi que des ambiances d'origine diverses, sonothèque, banque son personnel,

Le monteur va combiner un certain nombre de pistes pour créer une ambiance recomposée propre à la scène, le but étant de gérer ce groupe de son comme si il ne s'agissait que d'un seul. L'ambiance d'une séquence est donc la composition de plusieurs sons :vents, petit oiseaux, bruit de feuille

la

compréhension de la scène ou du dialogue en créant un distraction qui risque de faire perdre le fil de l'histoire, au contraire bien placé l'oiseau pourra renforcer

l'intensité de la scène.

Dans les décors intérieurs en plus des ambiances intérieures, les ambiances extérieurs peuvent venir s'y ajouter pour une meilleur localisation de la séquence, une ambiance de ville du coté de la fenêtre plus fort en fonction du plan, ajoutera du réalisme à la scène.

Ce

travail

est

très

subtile

car

un

oiseau

mal

placé

peut

nuire

à

Le Mixage

Le mixage est l'une des dernières étapes de la postproduction, il s'agit ici encore de faire preuve d'imagination et de connaissance des techniques, récentes ou anciennes, pour comprendre et mettre en œuvre les choix esthétiques, d'effets, pour une meilleur immersion. L'ingénieur du son de tournage était généralement le mixeur mais avec l'apparition de la stéréo et du multicanal, la profession s'est spécialisée et est devenue un métier à part entière. Le mixeur est le garant technique de la « bonne fin » de la bande sonore du film.

La préparation du mixage

Pour bien évaluer les tâches et la masse de travail que le mixage va générer il est intelligent de prévoir à l'avance le déroulement de la session de mixage . Quelles vont être nos ressources de pistes, combien de pistes risquent t'on d'avoir besoin, quels sont les besoins informatiques qui nous seront utiles,

Pour qu'un mixage prévu à une projection dans une salle de cinéma, le soit dans de bonnes conditions, un certains nombre de paramètres interviennent.

Ludovic

César -

AEDS310

35

SAE

2010-2012

Le niveau d'écoute :

Les laboratoires DOLBY ont été les précurseurs en matière de standard d'écoute, en effet il sont les premiers à définir pour le mixage et sa reproduction en salle une relation entre niveau « électrique » et niveau d'écoute mesurée au sonomètre dont la courbe est pondérée en db(C). Dolby recommande un niveau d'écoute à 85 DBSPL par canal.

Le matriçage LtRt :

Avec ce système fabriqué par un matriçage de deux signaux distincts ; Lt, « Left track » somme piste gauche, Rt, « Right track », somme de piste droite. Avec Lt et Rt on peut en tirer quatre modulations possibles :

Modulation Gauche - la modulation gauche apparaît sur la piste Lt, tel quel.

Modulation Droite - la modulation Droite apparaît sur la piste Rt, tel quel.

Modulation Centre - Le centre est transcrit sur LT + Rt atténué de 3db

Modulation Surround (Ls et Rs) - Surround envoyé sur Lt et Rt en opposition de phase atténue de 3db.

Le matriçage est réalisé par un équipement électronique sous licence « Dolby». Ce système à l'avantage de pouvoir annuler la modulation surround en projection mono cela évite de surcharger le son mono d'ambiance destinée à une écoute plus spatiale.

La gestion de la dynamique globale :

La dynamique est la différence entre les niveaux les plus fort et les niveaux les plus faible, cette échelle s'exprime en décibel, c'est un facteur qu'il faut bien maîtriser en mixage, elle dépend néanmoins d'un paramètre essentiel, l'endroit ou cela va être diffusé. La dynamique naturelle de nos oreilles est beaucoup plus grande que celle de diffusion, le cinéma est la plus grande dynamique qu'il est possible d'avoir en diffusion.

La maîtrise du niveau sonore tout au long du film est l'un des aspects principal du mixeur, pour un même niveau sonore électrique, la perception du son peut être différente. Depuis des dizaines d'années on crée des « instruments » dont la fonction est de renforcer le rapport entre le niveau du signal électrique et la perception que l'on peut ressentir. Les premiers furent les « Aphex » qui accentuent les rangs d'harmoniques sans toucher au niveau des fréquences fondamental, technique très employée en publicité par exemple.

Ludovic

César -

AEDS310

36

SAE

2010-2012

La gestion des basses fréquences :

« subwoofer » et « LFE » (Low

Frequency Effects). Le subwoofer est une enceinte acoustique qui s'occupe de reproduire les fréquences les plus basse, généralement en dessous de +/-250Hz. Le LFE est un canal dédié aux très basses fréquences , il viendra renforcer les graves lorsque l'on décidera que c'est nécessaire.

La gestion en mixage du canal LFE doit être abordé avec soin, l'essentiel du son doit parvenir de manière correcte via les autres enceintes, le LFE doit être utilisé comme un effect qui viendra appuyer une séquence, l'absence de LFE ne doit pas se faire sentir.

Il

y

a

une

différence

énorme

entre

L'évolution du mixage :

Un des plus grand changement dans la méthode de mixage est l'arrivée du numérique, avec toutes ces avancées comme l'automatisation, en effet à l'ère de l'analogique , certes il y avait des automations, sur certaines grosses consoles , mais tous les paramètres de la console ne l'étaient pas. Avec le numérique ce sont TOUS les paramètres qui sont automatisables, du volume en passant par le « Q » d'un égalisateur par exemple.

Le format de diffusion en multicanal a introduit une façon de mixer différente qui n'existait pas pour un mixage en mono ou stéréo. Si on veut préparer les différents éléments du mixage il faut pour chaque type de son la notion d'espace. Le mixage se fait par groupe de cinq ou six sons qui correspondent aux six pistes nécessaires au mixage 5.1

Chaque groupe de son est appelé un « stem » dialogue, ambiance, musique

Un

stem correspond à une étape de mise en espace du groupe dans le mixage , ils sont donc déjà pré-mixé.

Les dialogues :

La compréhension des dialogues par le spectateur est l'objectif premier du

mixeur, excepté un effet volontaire , il est hors de question de ne pas comprendre ce que dit un personnage. La préparation des dialogues consiste à choisir le

la

dynamique

doit pas sentir de différence entre les différentes sources des dialogues. La dynamique naturelle de la voix est très grande, de la voix chuchotée au cri d'horreur. Il n'est pas toujours utile de garder la dynamique naturelle pour rendre la

même sensation, en effet une voix reste criée peut importe le niveau que on lui donne car c'est le timbre de la voix qui donne cette information et inversement pour une voix chuchotée. Le mixeur adapte le niveau et la dynamique de chaque voix par rapport au contexte, type de lieu, niveau d'ambiance, présence musicale,

des sons venant du tournage, de la post syncro. Le spectateur ne

mélange entre les prises et à ajuster les niveaux, corriger les couleurs , adapter

Ludovic

César -

AEDS310

37

SAE

2010-2012

Pour les voix enregistrées en post-syncro, le mixeur devra retrouver l'acoustique du lieu original en reprenant les empreintes acoustiques captées par l'ingénieur du son plateau. Les systèmes de MATCH EQ peuvent être très utile et nous simplifier grandement la tâche pour cet exercice. En effet ce système nous permet à partir d'un enregistrement audio de créer une empreinte spectral qui pourra être appliquée sur un autre fichier, pour se rapprocher au mieux de l'original c'est déjà un bon point de départ, ceci dit l'oreille reste notre meilleur allié pour ce genre de performance.

Le mixeur se doit de retrouver des acoustiques proche du réel. Il devra aussi personnaliser l'acoustique de chaque décors en programmant des

paramètres de ré verbe,

sur cette scène d'avoir la même impression de rendu qu'au paravant.

Ce travail de fourmis va nous permettre de nous rapprocher du « niveau moyen » des dialogues du film (-18DBFS) et ainsi nous donner une piste dialogue homogène qui sera notre pré-mix du dialogue, ce qui sera beaucoup plus simple à intégrer dans le mixage.

Enregistrer ces paramètres permettra, lors d'un retour

Les effets:

On appelle effets tout ce qui ne peut pas être classé dans les catégories musique et dialogue. Cela comprend donc les ambiances, les bruitages et les effets spéciaux.

Le pré-mixage des effets n'est pas toujours possible car les niveaux entre eux ne peuvent être fait que en présence des dialogues et de de la musique. Lorsqu'un pré-mix à été réalisé il doit rester toujours accessible à sa source, une fois tous les « stems » placés ensemble il se peut qu'une piste d'un des stems pré-mixé gène une bonne compréhension du dialogue le mixeur doit alors pouvoir retourner sur le pré mix original pour palier à ce problème, un prémix n'est donc jamais définitif et encore moins destructif.

La musique:

L'idéal pour un montage de musique efficace et qui colle le mieux à l'ambiance des scènes c'est d'avoir des pistes séparées de chacun des morceaux que l'on voudra intégrer dans notre mixage. Un « pré-mixage » sorti en pistes réduites peut être aussi fournis au mixeur pour le décharger de cet tâche ou tous simplement parce que une personne plus orienté dans le domaine musicale pourras avoir une meilleur approche d'un mix « musique », sans oublier que cela reste un tâche longue et que les outils à disposition du mixeur images ne sont peut être pas les plus appropriés.

Pré-mix : Rythmique, nappe, chants, Lead,

Ludovic

César -

AEDS310

38

SAE

2010-2012

Le mixV.O:

Le mixage d'une version original sera composée de « stems» aussi , car il nous faudra pouvoir écouter tout les éléments séparément et peut-être (si version international il y a) de devoir envoyer une partie des pistes pour une post-syncro en langue étrangères . Même si les voix seront peut-être enregistrées par après et ailleurs, la cohérence entre les éléments originaux du mixage et des « nouveaux » dialogues devras être la même. Certains effects sur des dialogues , ou en fonction des différents lieux devront rester semblables. Heureusement avec les outils numériques actuel il est assez facile de pouvoir récupérer des automations et des effets deja édités parfaitement réfléchis au mixage pour les adapter aux nouvelles pistes de dialogues ré-enregistrées.

En résumé:

Le mixage doit être considéré comme un travail par séquence ainsi que dans sa globalité. La compréhension de la narration du film au point de vue audio est l'une des missions principales du mixeur. Prenons comme exemple une scène de guerre intense ou la musique et les coups de feu sont présents pour rend re cette séquence le plus réaliste possible, il faudra jouer entre les effets d'arme à feu et la musique, sans pour autant les mélanger en même temps pour ne pas avoir une soupe de son qui ne ferait que desservir la scène.

Le plus souvent on va les gérer comme une conversation , l'un prendra le devant de la scène ensuite ce sera l'autre et ainsi on pourra créer une osmose entre les deux éléments. Si un dialogue doit intervenir dans la scène il devra prendre le dessus (sauf effet volontaire) sur les bruits ambiants et la musique de la scène , mais de manière subtile car une coupure brusque va attirer l'attention du spectateur sur le pourquoi de cet effet et nuire à la compréhension de la scène. L'utilisation de filtre ou d'effet de spatialisation permettront de garder une ambiance présente parce que son intensité nous y oblige tout en rendant les dialogues compréhensibles.

Les entrées et sorties: (Fade in/out ou encore cross fade)

Les entrées, sorties et enchaînements sont d'une importance primordiale dans un film , c'est grâce à elles que l'on va pourvoir appuyer le montage image en faisant un « eut » ou un fondu entre deux scènes . Un « eut » en passant d'une scène à l'autre sur les ambiances va ainsi appuyer l'effet à l'image de changement de lieu en créant une rupture entre les deux scène, pour une conversation au téléphone par exemple. Il est important de ne pas systématiser un « eut» .

d'un

personnage à l'autre quatre ou cinq fois , si à chaque passage un à un eut appuyer l'effet de « surprise » sera perdu, le spectateur inconsciemment va s'attendre à cet effet, il peut aussi distraire le spectateur, ce qui n'est pas l'effet voulu. On privilégiera dans se cas , un « eut » très appuyer lors du premier passage , pour ensuite diminué les ambiances en douceurs et focaliser l'attention du spectateu r sur la conversation.

Prenons

dans

notre

exemple

une

conversation

ou

l'on

passe

Ludovic

César -

AEDS310

39

SAE

2010-2012

Le cerveau du spectateur ayant intégrer l'information de changement de lieux notre premier effet de « eut » aura été utile, le faire plusieurs fois n'apporterait pas un plus.

Un effet de long fade sur une entrée de musique qui doit venir appuyer une scène triste va apporter une subtilité qui ne risque pas de « casser » l'effet de la scène et justement accentuer cet effet. La gestion des entrées et sorties dans le mixage d'un film est aussi important que toutes les étapes précédemment citées.

Le rendu du mixage :

L'avancement des technologies audio dans le milieu du c1nema et la numérisation de la plus part des éléments en post production, amènent un facteur nouveau qui permet de pouvoir retoucher jusqu'au dernier moment la plupart de la matières. Cela amène quand même un nouveau problème celui de ne jamais être satisfait et de retoucher sans cesse le travail.

L'export

Une fois le mixage terminé de façon artistique et technique, il nous reste plus qu'a le préparer pour les différentes façons dont il va être « consommé ». Toutes les salles de cinéma ne possédant pas forcément les mêmes outils de diffusion (Dolby, DTS, Stéréo) il faudra s'assurer que dans chacune des différentes façons dont il sera diffusé, notre mix aura le rendu voulu . Il faudra alors peut être retoucher certains éléments.

Lors d'un dématrissage en DTS ou Dolby la coupure pour l'envoi des effets dans un canal LFE se fait à 120hz pour du DTS et 80Hz pour du Dolby, il est important de prévoir ces contraintes techniques.

La vérification

Une fois le « mastering » des différents formats de projection terminé il faudra alors organiser des projections de vérifications avant de lancer les copies de tirage pour la distribution. En générale trois projections sont organisées une pour le Dolby, une pour le DTS et une pour la version analogique URt. Ces projections servent à vérifier une dernière fois la synchronisation et la qualité du son. En numérique cette vérification à l'oreille en situation réel, c.à.d. ,dans une salle de cinéma, est accompagnée de rapport automatique générer par un ordinateur appelé QC (quality Control), pour le Dolby, qui mesure des paramètres propre à la norme Dolby (DQI, Digital Quality Index). Cette mesure n'est pas uniquement dédiée au son mais à l'ensemble de la copie, donc image comprise.

Ludovic

César -

AEDS310

40

SAE

2010-2012

Conclusion

Comme on a pu le voir tout au long de ce mémoire il y a beaucoup de façons d'aborder un produit audiovisuel. C'est un travail long et laborieux que de gérer toutes ces étapes de A à Z. La description de chaque étape et chacune des façons de faire ne sont pas une liste exhaustive, dans chacun des points abordés il y a des spécificités encore plus poussées. Que se soit en tournage ou en post- production , chaque poste peut être amené à être assumé par une personne différente. Travailler de façon structurée et commenter ou diffuser un maximum d'informations pour les étapes à venir doit être une habitude. Participer à la réalisation d'un film ou documentaire, c'est avant toutes choses un travail d'équipe et comme dans tout travail d'équipe un problème à quelque niveau que ce soit peut avoir des conséquences sur le travail de tous et donc mettre en péril le produit fini.

Ludovic

César -

AEDS310

41

SAE

2010-2012

Bibliographie

1.

Cours de Microphonie dispensé par Nicolas Debois SAE

Il.

Cours de Stéréophonie dispensé par Thierry Baquet SAE

Ill.

Cours de Surround dispensé par Thierry Baquet SAE

IV.

Cours de ENG dispensé par Thierry Baquet SAE

V.

Cours de Numérique Dispensé par Luc Titgat SAE

VI.

Cours de Syncronisation!Timecode dispensé par Luc Titgat SAE

VIl.

Cours d'Infra Audio dispensé par Thierry Baquet SAE

VIII.

De nombreux articles sur Wikipédia

IX.

Le site de Technique d'ingénieur pour les normes AES

X.

Le livre des techniques du son - Denis Mercier au édition Du nod

Collectif d'auteur sous la direction de

Xl.

Le son au cinema, études réunies par Esther Heboyan, Françoise Heitz, Patrick Louguet, Patrick Vienne, Artois Press Université

Xli.

Analyse et reception

des sons au cinema,

sous la direction de

Thierry Millet au édition L'Harmattan

Xlii. Mastering Audio, The art and the science de Bob Katz au édition Focal Press

XIV. Microphone Arrays for Stéreo and multichannel sound recording de Micheal Williams au édition Il Rostro

XV. Guide de la prise de son pour l'image de Vincent Magnier au édition

Du nod

XVI. The Foley Grail de Vanessa Theme Ament au édition Focal Press

XVII. Audio Post Production for Television and Film de Wyatt & Amyes chez Focal PRess

XVIII. Dialogue Editing for motion pictures de John Purcell chez Focal

Press

Ludovic

César -

AEDS310

42

SAE

2010-2012

Avant-propos:

Ce mémoire s'adresse à tout ceux qui se posent la question, si les

armes soniques existent vraiment, ou si cela reste plutôt de la pure

fiction. Ce mémoire tente aussi de démystifier le vrai du faux

nombreux auteurs s'attardent sur le sujet,de plus, de nombreux articles se retrouvent sur le net, des vidéos, des rediffusions d'émissions radios Ci-joint au mémoire, un cd, contenant quelques fichiers médias. Ce mémoire ne pourra malheureusement pas vous parler de tout dans les moindre détails, mais vous donnera surement assez de mots clés et de liens pour rediriger vos futures recherches. Par ailleurs, n'ayant pas les compétences nécessaires pour vous faire de grands exposés physiques, je me suis donc tourné vers une analyse, une

observation, me contentant de donner quelques idées,

certainement lieu à de nouvelles réflexions

Comment sera le monde quand ces technologies seront ailleurs que

dans les mains de l'armée

De

donnant

Où va le monde?

Allons nous nous livrer à de véritables

guerres du son? Ce mémoire n'a pas pour but de vous faire rejoindre l'insurrection populaire, mais de vous faire réfléchir sur

vos droits, vos conditions de vie, votre santé, sur les risques encourus face à ces technologies, sur les dommages que celles-ci peuvent causer Sur ces quelques mots, bonne lecture à tous et «Sortez couvert».

«QMit/ftv crrMl stUJt!Û) f:tv jfrWda ~

~))

cbwu/ 1(_~

Un grand merci à mon frère, Mike, pour son aide dans mes recherches, à Thierry Boqué pour ses idées, son sens de l'orientation. Remerciement à Pierre Coheur pour ses cours d'électronique et de radio qui m'ont permis de mieux comprendre entre autre le projet Haarp. Pour terminer, je remercierai l'ensemble des professeurs de la SAE qui m'ont donné les notions et le savoir pour m'intéresser de si prêt à ce sujet.