Vous êtes sur la page 1sur 37

Frédéric Flohr – fred@flohr.

net

Informatique Musicale
ISTS 1
2ième partie

Séminaire Informatique Musicale – page 1 / 37


LE MATERIEL (HARDWARE)

Le micro ordinateur d'aujourd'hui est modulaire. Il est constitué des éléments suivants:

• Le boîtier : châssis métallique accueillant les éléments internes de l'ordinateur. La plupart du


temps il est fourni avec son alimentation électrique.
• La carte mère : grande carte imprimée permettant de connecter un processeur, de la mémoire
vive, des disques durs et lecteurs de CD/DVD, et proposant un jeu de connecteurs d'extension.
• Le processeur, circuit intégré principal de l'ordinateur, véritable cerveau de l'ordinateur chargé
des principaux calculs.
• Les barrettes de mémoire vive,
• Les périphériques de stockage tels que les disques durs, les lecteurs ou graveurs de CD-ROM et
DVD-ROM,...
• Les cartes d'extension, permettant d'étendre les fonctionnalités et performances de
l'ordinateur (par exemple carte son, carte graphique, etc...)

Séminaire Informatique Musicale – page 2 / 37


La carte mère

L'élément constitutif principal de l'ordinateur est la carte mère (en anglais « mainboard » ou
« motherboard », parfois abrégé en « mobo »). La carte mère est le socle permettant la connexion de
l'ensemble des éléments essentiels de l'ordinateur.

Comme son nom l'indique, la carte mère est une carte maîtresse, prenant la forme d'un grand circuit imprimé
possédant notamment des connecteurs pour les cartes d'extension, les barrettes de mémoires, le processeur,
etc...

La carte mère contient un certain nombre d'éléments embarqués, c'est-à-dire intégrés sur son circuit imprimé :
● Le chipset, circuit qui contrôle la majorité des ressources (interface de bus du processeur, mémoire

cache et mémoire vive, slots d'extension,...),


● L'horloge et la pile du CMOS,

● Le BIOS,

● Le bus système et les bus d'extension.

En outre, les cartes mères récentes embarquent généralement un certain nombre de périphériques multimédia
et réseau pouvant être désactivés :

● carte réseau intégrée ;


● carte graphique intégrée ;
● carte son intégrée ;
● contrôleurs de disques durs évolué

Séminaire Informatique Musicale – page 3 / 37


Le processeur

Le processeur (CPU, pour Central Processing Unit, soit Unité Centrale de Traitement) est le
cerveau de l'ordinateur. Il permet de manipuler des informations numériques, c'est-à-dire des
informations codées sous forme binaire, et d'exécuter les instructions stockées en mémoire.

Le processeur est caractérisé par sa fréquence, c'est-à-dire la cadence à laquelle il exécute les
instructions. Ainsi, un processeur cadencé à 800 MHz effectuera grossièrement 800 millions
d'opérations par seconde.

Le terme « multi-cœur » est employé pour décrire un processeur composé d'au moins deux
cœurs (ou unités de calcul) gravés au sein de la même puce.

En utilisant plusieurs cœurs, les fabricants de processeurs peuvent augmenter les


performances d'un processeur sans élever le processeur. Depuis que le seuil supérieur des vitesses
d'horloge s'est stabilisé au cours des dernières années, les processeurs multicœurs sont devenus
un moyen courant d'améliorer les performances informatiques.

Bien que l'ajout de cœurs n'augmente pas les performances informatiques globales
proportionnellement (deux cœurs n'équivalent pas deux fois plus vite), les processeurs multicœurs
offrent une amélioration substantielle des performances par rapport aux processeurs monocœurs.
En outre, un processeur multicœur peut fonctionner de manière plus efficace qu'un processeur
unique, car tous les cœurs ne doivent pas nécessairement être actifs, sauf en cas de besoin.

Séminaire Informatique Musicale – page 4 / 37


La mémoire

On appelle « mémoire » tout composant électronique capable de stocker temporairement des


données. On distingue ainsi deux grandes catégories de mémoires :

• la mémoire vive (appelée également mémoire interne) (RAM pour Random Access Memory)
permet de stocker des informations pendant tout le temps de fonctionnement de l'ordinateur,
son contenu est par contre détruit dès lors que l'ordinateur est éteint ou redémarré. La
mémoire vive se présente sous la forme de barrettes qui se branchent sur les connecteurs de
la carte mère.

• la mémoire de masse (appelée également mémoire physique ou mémoire externe)


permettant de stocker des informations à long terme, y compris lors de l'arrêt de l'ordinateur.
La mémoire de masse correspond aux dispositifs de stockage magnétiques, tels que le disque
dur, aux dispositifs de stockage optique, correspondant par exemple aux CD-ROM ou aux DVD-
ROM, ainsi qu'aux mémoires mortes.

Séminaire Informatique Musicale – page 5 / 37


Les principales caractéristiques d'une mémoire sont les suivantes :

• La capacité, représentant le volume global d'informations (en bits) que la mémoire peut
stocker ;
• Le temps d'accès, correspondant à l'intervalle de temps entre la demande de lecture/écriture
et la disponibilité de la donnée ;
• Le temps de cycle, représentant l'intervalle de temps minimum entre deux accès successifs ;
• Le débit, définissant le volume d'information échangé par unité de temps, exprimé en bits par
seconde ;
• La non volatilité caractérisant l'aptitude d'une mémoire à conserver les données lorsqu'elle
n'est plus alimentée électriquement.

Ainsi, la mémoire idéale possède une grande capacité avec des temps d'accès et temps de
cycle très restreints, un débit élevé et est non volatile. Néanmoins les mémoires rapides sont
également les plus onéreuses.

Séminaire Informatique Musicale – page 6 / 37


Les mémoires les plus rapides sont situées en faible quantité à proximité du processeur et les
mémoires de masse, moins rapides, servent à stocker les informations de manière permanente.

La mémoire morte, appelée ROM pour Read Only Memory (traduisez mémoire en lecture
seule) est un type de mémoire permettant de conserver les informations qui y sont contenues
même lorsque la mémoire n'est plus alimentée électriquement. A la base ce type de mémoire ne
peut être accédé qu'en lecture. Toutefois il est désormais possible d'enregistrer des informations
dans certaines mémoires de type ROM.

La mémoire flash est un compromis entre les mémoires de type RAM et les mémoires mortes.
En effet, la mémoire Flash possède la non-volatilité des mémoires mortes tout en pouvant
facilement être accessible en lecture ou en écriture. En contrepartie les temps d'accès des
mémoires flash sont plus importants que ceux de la mémoire vive.

Le SSD est un type de dispositif de stockage qui remplit les mêmes fonctions qu'un disque dur,
mais qui repose sur une technologie différente. Les SSD sont composés de mémoire flash pour
stocker les données à la manière d'une clé USB de manière numérique. Un disque dur comporte
des plateaux rotatifs et un bras qui se déplace en travers pour lire chaque portion de données. Les
SSD offrent des temps de démarrage et de chargement quasi instantanés, car ils n’ont pas à
rechercher mécaniquement des données stockées sur ces plateaux.

Séminaire Informatique Musicale – page 7 / 37


Notion de bus

On appelle bus, en informatique, un ensemble de liaisons physiques (câbles, pistes de circuits


imprimés, etc.), pouvant être exploité en commun par plusieurs éléments matériels afin de
communiquer. Les bus ont pour but de réduire le nombre de « voies » nécessaires à la
communication des différents composants, en mutualisant les communications sur une seule voie
de données.

Un bus est caractérisé par le volume d'informations transmises simultanément.

Ce volume, exprimé en bits, correspond au nombre de lignes physiques sur lesquelles les
données sont envoyées de manière simultanée.

→ Une nappe de 32 fils permet ainsi de transmettre 32 bits en parallèle. On parle ainsi de «
largeur » pour désigner le nombre de bits qu'un bus peut transmettre simultanément.

→ D'autre part, la vitesse du bus est également définie par sa fréquence (exprimée en Hertz),
c'est-à-dire le nombre de paquets de données envoyés ou reçus par seconde. On parle de cycle
pour désigner chaque envoi ou réception de données.

Séminaire Informatique Musicale – page 8 / 37


De cette façon, il est possible de connaître le débit maximal du bus (ou taux de transfert
maximal), c'est-à-dire la quantité de données qu'il peut transporter par unité de temps, en
multipliant sa largeur par sa fréquence.

Un bus d'une largeur de 16 bits, cadencé à une fréquence de 133 MHz possède donc un débit
égal à :

16 * 133.106 = 2128*106 bit/s,


soit 2128*106/8 = 266*106 octets/s
soit 266*106 /1000 = 266*103 Ko/s
soit 259.7*103 /1000 = 266 Mo/s

Exemples de débit maximum théorique:

▪ USB 2.0 : 480 Mbits/s

▪ USB 3.0 : 5 Gbits/s

▪ USB 3.2 : 20 Gbits/s

▪ Firewire 800 : 800 Mb/s à 3.2 Gbits/s (version 2 IEEE 1394b-s3200)

▪ Thunderbolt 3 : 40 Gbits/s

▪ Ethernet : 10 Mbits/s au départ, 40 Gbits/s en 2021


Séminaire Informatique Musicale – page 9 / 37
Notion de Driver (pilote)

Pour pouvoir contrôler chacun de ses périphériques, le système d'exploitation a besoin d'une
interface logicielle entre lui et le matériel, on appelle driver (pilote ou gestionnaire de périphérique
en français) chaque programme permettant au système d'exploitation de gérer le matériel.

Le rôle du driver est de jouer l'intermédiaire entre le système et les cartes d'extension ou bien
les périphériques externes, ... Les drivers sont développés par les fabricants du matériel auquel ils
correspondent. Toutefois, bien que votre matériel (hardware) n'évolue pas, il se peut que le
fabricant du matériel fournisse quelques mois plus tard une nouvelle version du driver...

Ainsi, une simple mise à jour de driver peut améliorer les performances d'un matériel avec un
gain pouvant aller jusqu'à 10% de performances en plus. Il faut toutefois savoir comment se
procurer ces mises à jour, et comment les installer. Si vous estimez qu'un de vos périphériques
fonctionne correctement, il est préférable de ne pas essayer de mettre à jour son pilote.

NOTE : Tant qu'un périphérique fonctionne, il est recommandé de ne pas essayer d'installer
systématiquement les derniers pilotes, à moins de connaître exactement les améliorations qu'il
apporte où les erreurs qu'il corrige !

Séminaire Informatique Musicale – page 10 / 37


Comment fonctionne un driver?
A la base, n'importe quel périphérique, y compris le matériel "de base" a besoin de drivers
pour fonctionner. Vous n'avez toutefois jamais eu à installer de driver pour votre disque dur,
pourquoi? Pour charger le système d'exploitation vous avez besoin d'accéder au disque dur, or
comment faire pour accéder au disque dur si votre système d'exploitation n'est pas encore chargé?

-> C'est le BIOS qui, au démarrage de l'ordinateur, agit tel un système d'exploitation en
permettant aux composants vitaux (carte vidéo, disque dur, lecteur de disquettes, clavier) de
démarrer grâce à des pilotes standards. En effet le BIOS permet d'amorcer la carte graphique qui a
elle-même des fonctions graphiques qui vont permettre d'afficher les premières informations. Il en
est de même pour le disque dur, qui va amorcer le système grâce à des pilotes standards. Une fois
le système d'exploitation amorcé, celui-ci va pouvoir prendre lui-même le contrôle de certains
périphériques grâce aux pilotes fournis par le constructeur du/des matériels ou grâce à des pilotes
standards propriétaires (développés par le fabricant du système d'exploitation).

Séminaire Informatique Musicale – page 11 / 37


Notion de Système d'Exploitation

Le système d'exploitation (noté SE ou OS, abréviation du terme anglais Operating System), est
chargé d'assurer la liaison entre les ressources matérielles, l'utilisateur et les applications
(traitement de texte, jeu vidéo, ...).

Ainsi lorsqu'un programme désire accéder à une ressource matérielle, il ne lui est pas
nécessaire d'envoyer des informations spécifiques au périphérique, il lui suffit d'envoyer les
informations au système d'exploitation, qui se charge de les transmettre au périphérique concerné
via son driver (pilote). En l'absence de pilotes il faudrait que chaque programme reconnaisse et
prenne en compte la communication avec chaque type de périphérique !

Séminaire Informatique Musicale – page 12 / 37


● Gestion du processeur : le système d'exploitation est chargé de gérer l'allocation du processeur entre les
différents programmes grâce à un algorithme d'ordonnancement. Le type d'ordonnanceur est totalement
dépendant du système d'exploitation, en fonction de l'objectif visé.

● Gestion de la mémoire vive : le système d'exploitation est chargé de gérer l'espace mémoire alloué à
chaque application et, le cas échéant, à chaque usager. En cas d'insuffisance de mémoire physique, le
système d'exploitation peut créer une zone mémoire sur le disque dur, appelée «mémoire virtuelle».

● Gestion des entrées/sorties : le système d'exploitation permet d'unifier et de contrôler l'accès des
programmes aux ressources matérielles par l'intermédiaire des pilotes (appelés également gestionnaires
de périphériques ou gestionnaires d'entrée/sortie).

● Gestion de l'exécution des applications : le système d'exploitation est chargé de la bonne exécution des
applications en leur affectant les ressources nécessaires à leur bon fonctionnement. Il permet à ce titre de
«tuer» une application ne répondant plus correctement.

● Gestion des droits : le système d'exploitation est chargé de la sécurité liée à l'exécution des programmes
en garantissant que les ressources ne sont utilisées que par les programmes et utilisateurs possédant les
droits adéquats.

● Gestion des fichiers : le système d'exploitation gère la lecture et l'écriture dans le système de fichiers et
les droits d'accès aux fichiers par les utilisateurs et les applications.

● Gestion des informations : le système d'exploitation fournit un certain nombre d'indicateurs permettant
de diagnostiquer le bon fonctionnement de la machine.

Séminaire Informatique Musicale – page 13 / 37


Carte son séparée ?
Interface audionumérique

La carte son est l’est l’interface entre la source sonore (instrument ou microphone) et
l’ordinateur. Et entre l'ordinateur et vos enceintes.

Elle transforme le signal des instruments - qui est analogique - en signal numérique afin que
celui-ci puisse être enregistré sur l’ordinateur sous forme de fichiers utilisés dans les STAN.

Dans la très grande majorité des cas, les cartes son sont déjà incluses dans l’ordinateur. On dit
qu’elles sont “internes”. Ces types de cartes sont suffisantes dans le cadre d’une utilisation
basique de l’ordinateur (écouter de la musique, regarder des films…), mais elles s’avèrent vite
limitées par :

- la qualité des composant


- la proximité avec l’électronique de la carte mère (rayonnements, parasites)
- les fonctionnalités (connexions, préamplificateurs, ...)
- les ressources

Séminaire Informatique Musicale – page 14 / 37


ENTREES / SORTIES

- Les entrées jack « instruments » (6,35 mm) pour brancher des guitare, basse....

- Les entrées jack « line » (6,35 mm) ou RCA pour brancher des instruments tels qu’un synthétiseur, un ampli
guitare ou des appareils comme un lecteur de CD.

- Les entrées XLR pour brancher des microphones

- XLR et jack peuvent être réunis dans un même connecteur, que l’on appelle combo XLR/jack.

- L’entrée MIDI pour brancher un contrôleur MIDI, comme un clavier maître ou des surfaces de contrôle

- La sortie MIDI pour relier la carte son à un expandeur ou un synthétiseur, par exemple.

- Les sorties lignes pour brancher la carte son à une table de mixage ou un enregistreur.

- Les sorties Monitoring pour brancher la carte son à des enceintes de monitoring.

- La sortie casque, au format jack 6,35 mm stéréo.

→ Les modèles de carte son plus avancés disposent d'entrée et sorties numérique au format ADAT, S/PDIF,
MADI ou encore TDIF...

Séminaire Informatique Musicale – page 15 / 37


Il existe des cartes son externes USB, Firewire, Thunderbolt et Ethernet.

Les cartes son internes se branchent directement sur la carte mère de l’ordinateur, sur les
ports PCI, PCI express, express card ou PCMCIA. Certains modèles sont reliés à un boîtier externe
sur lequel on branche les instruments et on règle les potentiomètres.

On trouve aussi de plus en plus de cartes son pour téléphones ou tablettes.

Séminaire Informatique Musicale – page 16 / 37


FONCTIONNALITES ADDITIONNELLES

- VU-mètre : Il permet de contrôler visuellement les niveaux d’entrée et de sortie.

- Alimentation fantôme : +48 V pour alimenter des microphones statiques.

- Préamplis : La carte son intègre des préamplificateurs afin d’adapter le niveau du signal
analogique de l’instrument qui est branché et exploiter au mieux sa dynamique.

- Entrée/sortie horloge word clock : Elle permet d’utiliser la vitesse d’horloge de la carte son
comme référence pour synchroniser les différents appareils et éviter les erreurs d’échantillonnage.
L’entrée permet de brancher un générateur d’horloge externe.

- TalkBack : Il s’agit d’une prise micro pour permettre à l’ingénieur du son de communiquer avec les
musiciens lorsque ces derniers ne se trouvent pas dans la même pièce.

Séminaire Informatique Musicale – page 17 / 37


PERFORMANCES
La latence
La latence est le temps que met le son à entrer et sortir de la carte son.

Plus la latence est faible, meilleur sera le confort d’enregistrement et de mixage.


On règle la latence dans le logiciel (DAW) ou logiciel de la carte son en réglant la taille des buffers.
Une faible latence augmente la charge de l’ordinateur et peut faire apparaître des craquements
audio. Certains considèrent que 10 ms de latence est confortable, et qu'à 5 ms elle est inaudible
(la latence zéro est impossible)

Le monitoring direct
Permet d’entendre la source à la prise de son sans passer par la conversion A/D vers l’ordinateur et
la reconversion D/A vers les moniteurs. Ainsi il n'y a pas de latence audible lors de l'enregistrement.

DSP intégré
DSP = Digital Signal Processor, c’est un processeur (comme un CPU) dédié aux gros calculs utilisés
pour le traitement de signal. La carte son équipé d’un DSP allège le processeur de l’ordinateur pour
les calculs de traitement audio effectués par la STAN et ses plug in.

Séminaire Informatique Musicale – page 18 / 37


FORMAT ET CODAGE

De l'analogique vers le numérique

(rappel PART1 le son analogique vs numérique)

Les deux principaux paramètres de la conversion sont :

• la fréquence d’échantillonnage (ou taux d’échantillonnage)


• le nombre de bits (ou résolution de quantification, ou profondeur de bits).

Séminaire Informatique Musicale – page 19 / 37


La fréquence d’échantillonnage

La fréquence d’échantillonnage détermine la plus haute fréquence qui sera audible.

Le théorème de Nyquist nous apprend que la fréquence d’échantillonnage doit être au moins
deux fois supérieure à la plus haute fréquence audible via système numérique.

On considère généralement que l’être humain est capable d’ouïr les fréquences entre 20 Hz et
20kHz. La fréquence d’échantillonnage la plus répandue est 44 100 Hz (ou 44,1 kHz).

C’est celle du disque compact et c’est devenu un standard.

Séminaire Informatique Musicale – page 20 / 37


Au fait, pourquoi 44.1 kHz ?

Pourquoi cette fréquence, alors que l’on pourrait s’attendre à 40 kHz, qui correspond au double de 20
kHz? Ce chiffre répond à deux exigences principales.

Premièrement, avant d’effectuer une conversion A/N, il faut filtrer toutes les fréquences qui sont
supérieures à la fréquence la plus haute à échantillonner. Lorsque le signal à échantillonner comporte des
fréquences qui sont plus hautes que la moitié de la fréquence d'échantillonnage, il se produit ce qu'on appelle
un repliement. Ce phénomène se produit par l'apparition, dans le signal numérique, de composantes
fréquentielles qui n'étaient pas audibles dans le signal analogique. C'est un peu comme si une fréquence (qui
correspond à la fréquence moitié de la fréquence d'échantillonnage) devenait une sorte de miroir et que toutes
les fréquences supérieures à celle-ci étaient « reflétées » sous cette « fréquence-miroir », en risquant de
devenir audibles.

Pour résoudre ce problème, on introduit, avant échantillonnage, un filtre qui élimine toutes les
fréquences supérieures à la moitié de la fréquence d'échantillonnage. Ce filtre est appelé « filtre antirepliement
» (anti-aliasing filter). Or, il était impossible, à l’époque ou fut choisie la fréquence de 44 100 Hz, de réaliser un
filtre qui aurait filtré parfaitement toutes les fréquences supérieures à 20 kHz en laissant intactes toutes les
fréquences inférieures, sans parler des problèmes de déphasage entraîné par un tel filtre. Par contre, il était
possible de construire un filtre qui laisse passer la fréquence de 20 kHz et atténue progressivement les
fréquences supérieures pour atteindre une coupure complète vers 22 kHz.

La deuxième exigence était d’avoir une fréquence qui soit un multiple entier des fréquences utilisées dans
la distribution du courant domestique, à savoir 50 Hz en Europe et 60 Hz aux USA. D’où ce nombre bizarre de
44100 Hz.

Séminaire Informatique Musicale – page 21 / 37


La résolution de quantification

Le nombre de bits utilisés correspond au découpage des seuils de niveau.

Un bit (binary digit) est une unité de codage binaire qui peut prendre deux valeurs : 0 ou 1.
Plus on a de bits, plus on peut coder une grande quantité de valeurs. Le nombre de paliers
possibles dans la numérisation du signal dépend directement du nombre de bits utilisés

-> Moins on a de paliers, plus on a de différences perceptibles entre le signal analogique et son
équivalent numérique. Ces différences se traduisent par un bruit, appelé ”bruit de quantification”.

Paradoxalement, plus un signal analogique est faible, plus son équivalent numérique sera
bruyant.

→ l’erreur de quantification est proportionnellement plus importante pour un signal faible que
pour un signal fort.

Puisqu’on a un bruit « constant » lié au nombre de bits (bruit de fond), et que le bruit est
moins important pour les signaux les plus fort, ce nombre de bits influence donc la dynamique.

La dynamique correspond au rapport entre le signal le plus fort qui puisse être pris en compte
et le bruit de fond propre.

Séminaire Informatique Musicale – page 22 / 37


Le lien (simplifié) est le suivant : rapport s/b en décibels (dB) = nombre de bits x 6

Ex : 16 bits correspondent à 96 dB
20 bits correspondent à 120 dB
24 bits correspondent à 144 dB

Pour rappel, l’oreille humaine « moyenne » possède une dynamique totale de 120 dB (à 1 000
Hz).

Par contre, un programme musical instrumental « classique » correspond plus souvent à une
dynamique de 50 ou 60 dB (le rapport étant établi ici entre les moments les plus forts et les
moments les plus faibles et non pas le bruit de fond).

Un programme de musique pop sera plus faible, de l’ordre de 40 dB, voire 20 dB s’il s’agit
d’une diffusion radio FM, pour laquelle la dynamique est très souvent artificiellement comprimée.

Séminaire Informatique Musicale – page 23 / 37


Concernant l'informatique

De manière générale, il semble évident qu'au plus grandes sont la fréquence d'échantillonnage
et la résolution de quantification d'un son au mieux c'est. Or :

- à durée égale, un son échantillonné avec une plus grande fréquence et avec une résolution
supérieure nécessite plus de place pour être stocké sur le support d'enregistrement qu'un son
de moins grande résolution ou échantillonné à fréquence plus faible.

Par exemple, un son enregistré en 24 bits à 96 kHz prend plus de 3 fois la place d'un son
équivalent codé en 16 bits à 44,1 kHz!

- lorsque la fréquence d'échantillonnage augmente, les traitements par ordinateur prennent


plus de temps car ce qui compte pour le processeur c'est le nombre d'échantillons total à
traiter. Par contre, la résolution de quantification a peu d'impact car les ordinateurs effectuent
quoi qu’il en soit leurs calculs sur 32 ou 64 bits la plupart du temps.

Séminaire Informatique Musicale – page 24 / 37


Les formats audio courants

Notion de PCM

Le PCM (Pulse Code Modulation), ou Modulation d'Impulsion Codée correspond simplement à


la représentation numérique d'un signal analogique, telle qu'on l'a vu dans le paragraphe
précédent.

Pour des informations détaillées consultez : http://fr.wikipedia.org/wiki/PCM

Séminaire Informatique Musicale – page 25 / 37


AIFF : Audio Interchange File Format

L'AIFF est un format de fichier audio numérique développé par Apple Computer pour stocker
les sons sur les ordinateurs de la marque. Les fichiers AIFF portent généralement l'extension .aif, ou
.aiff.
Les données sont codées en PCM sans compression.

Ainsi, une piste CD Audio, codée en 16 bits, stéréo 44,1 kHz aura un bitrate de 1411,2 kbit/s
(16 x 44,1 x 2).

Il existe néanmoins un format compressé (AIFF-C ou AIFC) qui supporte une compression
pouvant aller jusqu'à un rapport 1/6.

Un fichier AIFF est organisé en différentes parties appelées chunk, ce qui signifie littéralement
« gros morceau ». Ces chunks comportent bien sûr les informations propres à l'onde sonore
numérisée mais peuvent également inclure des champs comme : instrument, auteur, copyright,
données MIDI, etc...

Séminaire Informatique Musicale – page 26 / 37


WAV : Waveform audio format

Le WAV (ou WAVE) est un standard pour stocker l'audio numérique de Microsoft et IBM. C'est
le format le plus courant pour l'audio non compressé.

A l'instar de l'AIFF, ce format ne permet pas de créer des fichiers de grande taille (maximum 2
GiB), ce qui le rend inapte au travail moderne sur des fichiers haute-définition. En effet, la limite de
2 Go est atteinte avec à peine 20 minutes d'informations au format 5.1 en 24 bit/96 Khz. ..

Par ailleurs, le format WAV ne contient aucune information sur le niveau absolu du son qu'il
contient, ce qui le rend inutilisable pour des applications du domaine de la mesure. Néanmoins, le
format WAV reste incontournable sous plate-forme Windows, et est supporté par plusieurs
baladeurs (lorsque un flux PCM ou parfois ADPCM est présent).

NB : En fait, le « format » WAV ne correspond à aucun format d'encodage spécifique, il s'agit


d'un conteneur capable de recevoir des formats aussi variés que le MP3, le WMA, l'ATRAC3,
l'ADPCM, le PCM. C'est ce dernier qui est cependant le plus courant, et c'est pour cela que
l'extension .wav est souvent - et donc à tort - considérée comme correspondant à des fichiers audio
PCM.

Séminaire Informatique Musicale – page 27 / 37


BWF : Broadcast Wave File

Les fichiers Broadcast Wave sont des fichiers WAV qui ont la particularité de stocker des
informations supplémentaires. Les fichiers BWF incluent des informations comme la description du
contenu du fichier (256 caractères au maximum), le nom de l'auteur, la date et l'heure de création
du fichier, mais surtout une référence temporelle (time stamp), c'est à dire un horodatage SMPTE
permettant de caler le début du fichier Broadcast Wave.

NOTE : Certains logiciels donnent la possibilité d'importer les fichiers Broadcast Waves à leur
position d'horodatage (time stamp). Dans ce cas, le fichier BWF (Broadcast Wave) se calera sur
cette position, sur la piste sélectionnée.

Séminaire Informatique Musicale – page 28 / 37


Les formats compressés

Le format MP3 s'est affirmé grâce au Net, il est utilisé en général pour les fichiers de la taille
d'une chanson, qu'il compresse énormément (1/10 en moyenne), au prix du perte de son
paramétrable. Toutefois, cette perte de qualité le rend utilisable à des fins de distribution sur
support informatique, une fois le morceau produit ou au stade de maquette.

On appelle WMA (Windows Media Audio) le format propriétaire de compression audio


développé par Microsoft, c'est un gros concurrent du MP3,

RealAudio est un format créé par la société Real, orienté streaming (ie: l'écoute simultané
avec le téléchargement) et portant l'extension .ra ou .ram. La compression utilisée par le format
RealAudio est très performante, aussi bien en qualité sonore qu'en taux de compression. Peu
reconnu par les logiciels de création numérique, il s'utilise surtout avec les logiciels très célèbres
Real Player (pour l'écoute) et Real Producer (pour l'encodage).

L'ASF, ou Active Streaming File, est le format de fichier créé par Microsoft et dérivé du MP3,
qui permet une excellente compression, une bonne qualité de son (certains lui accorde une
meilleure restitution des aigus que le MP3) et une diffusion en direct sur Internet. Bien qu'arrivé
tardivement, la majorité des logiciels sont maintenant capables de le reconnaître.

Séminaire Informatique Musicale – page 29 / 37


Enfin le Ogg (ou Ogg vorbis) a été amené sur sur le même principe que le MP3, c'est à dire
qu'il s'agit d'une compression destructive. La différence la plus notable est que le Ogg est un format
libre : il n'y a pas de droits à reverser pour les créateurs de logiciels et les constructeurs de lecteurs
l'utilisant, d'où le succès rapide de ce format dans un univers où il était pourtant difficile de
s'imposer.

Parmi les successeurs du MP3 on peut noter l'AAC (Advanced Audio Coding), choisi par Apple
comme codec privilégie (fichier nommés .aac, .mp4 ou .m4a). On le retrouve donc dasn son iPod et
dasn son logiciel iTunes.

Formats Lossless :

On a développé aujourd'hui plusieurs formats de compression qui offrent une qualité sonore
identique à l'originale, littéralement « sans pertes ». Les plus connus sont le Flac, Monkeys Audio,
ainsi que WMA lossless de Microsoft et ALAC d'Apple. Ils n'enlèvent aucune information du flux
audio.

Séminaire Informatique Musicale – page 30 / 37


Les formats d'échange de projet

Grâce au développement et à la prise en charge de nouveau formats, les logiciels de


production musicale vous permettent de collaborer et d'échanger vos projets avec les utilisateurs
d'autres logiciels et plateformes.

Par exemple la gestion des formats OMFI (Open Media Framework Interchange) et Broadcast
Wave fournit une compatibilité multi-plateforme avec les applications comme par exemple les
systèmes Pro Tools, Nuendo, Avid ou Logic.

Séminaire Informatique Musicale – page 31 / 37


Le format OMF
Le format OMF, ou OMFI (Open Media Framework Interchange), est un format de fichier
pouvant être lu par bon nombre de logiciels audio professionnels. Les fichiers OMF contiennent
deux principaux types de données :
● des fichiers audio et/ou vidéo, appelés médias
● des informations nécessaires à la mise en place des médias, c'est-à-dire la composition
Les fichiers OMF fournissent les informations et données suivantes :
● Pistes
● Positions des clips : la résolution d'édition EDL d'un fichier OMF peut être basée sur
l'image ou sur l'échantillon. Les applications peut souvent lire ces deux résolutions pour
définir la position des clips.
● Éditions élastiques
● Fondus et crossfades (édition destructive) : lors de l'écriture du fichier OMF, le logiciel
peut appliquer les fondus et créer des clips séparés pour chaque fondu d'entrée ou de
sortie. Il allonge le clip original pour laisser la place au clip de fondu d'entrée ou de sortie.
Si vous exportez vers un logiciel audio prenant en charge l'édition élastique, l'utilisateur
pourra, s'il le souhaite, supprimer les clips de fondu et dérouler le clip original pour
accéder aux données audio brutes (sans fondus).
● Fréquence d'échantillonnage et résolution (uniquement si les médias sont incorporés
dans le fichier OMF)

Séminaire Informatique Musicale – page 32 / 37


Les fichiers OMF n'incluent PAS les informations et données suivantes :
● Enveloppes de volume et de panoramique : l'automation n'est que très peu prise en
charge dans le format OMF. Toutefois, comme avec Nuendo et la plupart des logiciels
supportant OMF, les réglages de gain et de panoramique sont ignorés (à la fois en lecture
et en écriture), les enveloppes sont prises en charge uniquement sur les pistes mono
(restriction OMF).
● Plug-ins d'effets.
● Données MIDI
● Tempo

NOTE : Par usage, la personne qui fournit un fichier OMF peut joindre un fichier texte
réunissant toutes les informations pertinentes sur le projet (concernant le tempo par exemple), ou
plus astucieusement une copie d'écran de sa fenêtre de mixage.

Séminaire Informatique Musicale – page 33 / 37


Le format AAF

AAF signifie Advanced Authoring Format. Il s'agit d'un format d’échange de fichiers standards
multimédias qui facilite le transfert de projets entre les applications de production audio et vidéo
les plus connues.

En fait le format AAF est une norme ouverte conçue par une association d'’industriels pour la
réalisation et la post-production multimédia. Il permet aux créateurs de contenu d’échanger
facilement des fichiers numériques et des métadonnées entre plates-formes et entre applications.
Il simplifie la gestion de projet, permet de gagner du temps et de conserver des métadonnées
précieuses qui étaient souvent perdues pendant les transferts.

Un dérivé connu dans le milieu de l'audiovisuel est le format MXF. Pour plus d'informations
sur le MXF vous pouvez télécharger le document pdf suivant:
http://www.ebu.ch/trev_291_devlin_fr.pdf

Séminaire Informatique Musicale – page 34 / 37


Les formats MIDI

Le format MIDI standard est un format d'échange de fichiers qui a été conçu par la MMA
(MIDI Manufacturers Association). L'objectif de ce format est de permettre l'échange de données
MIDI entre différents programmes. Tous les programmes pouvant lire et écrire des fichiers MIDI
possèdent un langage commun qui leur permet de communiquer avec d'autres logiciels MIDI. Leur
petite taille fait que les fichiers musicaux MIDI sont particulièrement adaptés à la transmission de
musique en ligne.

ATTENTION : Si ous comptez enregistrer vos projets dans ce format, notez que seule la partie
MIDI de vos projets sera enregistrée dans un fichier MIDI standard. Si vos projets contiennent des
données audio numériques, ces dernières seront perdues...

Les logiciels de production prennent généralement en charge deux formats de fichiers MIDI
différents :
● Le format MIDI 0, dont les fichiers ne contiennent qu'une seule piste et comportent tous les
événements stockés sur cette unique piste.
● Le format MIDI 1, dont les fichiers peuvent stocker jusqu'à 7 256 pistes différentes.

Séminaire Informatique Musicale – page 35 / 37


NOTE : Lorsque vous chargez un fichier au format MIDI 0, l'application divise souvent celui-ci
en 16 pistes séparées en se basant sur les canaux MIDI assignés à chaque événement. De même
lorsque vous enregistrez un projet sur un fichier au format MIDI 0, l'application réunit toutes les
informations MIDI provenant de toutes ses pistes dans une piste unique.

Il existe également le format RIFF MIDI. Ce format répond à une norme standard d'échange de
fichiers (Resource Interchange File Format ou RIFF) et comprend simplement le contenu d'un fichier
MIDI standard au format 0 ou 1. Ce type de fichiers possède l'extension .rmi.

Bien entendu, l'inconvénient principal des fichiers MIDI est qu'ils sont lus différemment selon
le matériel de reproduction sonore que vous utilisez. Un même projet peut varier
considérablement d'une carte son ou d'un synthétiseur à l'autre.
Autre problème, avec la norme MIDI standard, certains détails sont susceptibles d'être
interprétés différemment par les concepteurs de logiciels et de matériel.

Séminaire Informatique Musicale – page 36 / 37


PERSPECTIVES

• Mobilité

• Réseau

• Intelligence artificielle

• Outils collaboratifs, cloud

Séminaire Informatique Musicale – page 37 / 37

Vous aimerez peut-être aussi