Académique Documents
Professionnel Documents
Culture Documents
net
Informatique Musicale
ISTS 1
2ième partie
Le micro ordinateur d'aujourd'hui est modulaire. Il est constitué des éléments suivants:
L'élément constitutif principal de l'ordinateur est la carte mère (en anglais « mainboard » ou
« motherboard », parfois abrégé en « mobo »). La carte mère est le socle permettant la connexion de
l'ensemble des éléments essentiels de l'ordinateur.
Comme son nom l'indique, la carte mère est une carte maîtresse, prenant la forme d'un grand circuit imprimé
possédant notamment des connecteurs pour les cartes d'extension, les barrettes de mémoires, le processeur,
etc...
La carte mère contient un certain nombre d'éléments embarqués, c'est-à-dire intégrés sur son circuit imprimé :
● Le chipset, circuit qui contrôle la majorité des ressources (interface de bus du processeur, mémoire
● Le BIOS,
En outre, les cartes mères récentes embarquent généralement un certain nombre de périphériques multimédia
et réseau pouvant être désactivés :
Le processeur (CPU, pour Central Processing Unit, soit Unité Centrale de Traitement) est le
cerveau de l'ordinateur. Il permet de manipuler des informations numériques, c'est-à-dire des
informations codées sous forme binaire, et d'exécuter les instructions stockées en mémoire.
Le processeur est caractérisé par sa fréquence, c'est-à-dire la cadence à laquelle il exécute les
instructions. Ainsi, un processeur cadencé à 800 MHz effectuera grossièrement 800 millions
d'opérations par seconde.
Le terme « multi-cœur » est employé pour décrire un processeur composé d'au moins deux
cœurs (ou unités de calcul) gravés au sein de la même puce.
Bien que l'ajout de cœurs n'augmente pas les performances informatiques globales
proportionnellement (deux cœurs n'équivalent pas deux fois plus vite), les processeurs multicœurs
offrent une amélioration substantielle des performances par rapport aux processeurs monocœurs.
En outre, un processeur multicœur peut fonctionner de manière plus efficace qu'un processeur
unique, car tous les cœurs ne doivent pas nécessairement être actifs, sauf en cas de besoin.
• la mémoire vive (appelée également mémoire interne) (RAM pour Random Access Memory)
permet de stocker des informations pendant tout le temps de fonctionnement de l'ordinateur,
son contenu est par contre détruit dès lors que l'ordinateur est éteint ou redémarré. La
mémoire vive se présente sous la forme de barrettes qui se branchent sur les connecteurs de
la carte mère.
• La capacité, représentant le volume global d'informations (en bits) que la mémoire peut
stocker ;
• Le temps d'accès, correspondant à l'intervalle de temps entre la demande de lecture/écriture
et la disponibilité de la donnée ;
• Le temps de cycle, représentant l'intervalle de temps minimum entre deux accès successifs ;
• Le débit, définissant le volume d'information échangé par unité de temps, exprimé en bits par
seconde ;
• La non volatilité caractérisant l'aptitude d'une mémoire à conserver les données lorsqu'elle
n'est plus alimentée électriquement.
Ainsi, la mémoire idéale possède une grande capacité avec des temps d'accès et temps de
cycle très restreints, un débit élevé et est non volatile. Néanmoins les mémoires rapides sont
également les plus onéreuses.
La mémoire morte, appelée ROM pour Read Only Memory (traduisez mémoire en lecture
seule) est un type de mémoire permettant de conserver les informations qui y sont contenues
même lorsque la mémoire n'est plus alimentée électriquement. A la base ce type de mémoire ne
peut être accédé qu'en lecture. Toutefois il est désormais possible d'enregistrer des informations
dans certaines mémoires de type ROM.
La mémoire flash est un compromis entre les mémoires de type RAM et les mémoires mortes.
En effet, la mémoire Flash possède la non-volatilité des mémoires mortes tout en pouvant
facilement être accessible en lecture ou en écriture. En contrepartie les temps d'accès des
mémoires flash sont plus importants que ceux de la mémoire vive.
Le SSD est un type de dispositif de stockage qui remplit les mêmes fonctions qu'un disque dur,
mais qui repose sur une technologie différente. Les SSD sont composés de mémoire flash pour
stocker les données à la manière d'une clé USB de manière numérique. Un disque dur comporte
des plateaux rotatifs et un bras qui se déplace en travers pour lire chaque portion de données. Les
SSD offrent des temps de démarrage et de chargement quasi instantanés, car ils n’ont pas à
rechercher mécaniquement des données stockées sur ces plateaux.
Ce volume, exprimé en bits, correspond au nombre de lignes physiques sur lesquelles les
données sont envoyées de manière simultanée.
→ Une nappe de 32 fils permet ainsi de transmettre 32 bits en parallèle. On parle ainsi de «
largeur » pour désigner le nombre de bits qu'un bus peut transmettre simultanément.
→ D'autre part, la vitesse du bus est également définie par sa fréquence (exprimée en Hertz),
c'est-à-dire le nombre de paquets de données envoyés ou reçus par seconde. On parle de cycle
pour désigner chaque envoi ou réception de données.
Un bus d'une largeur de 16 bits, cadencé à une fréquence de 133 MHz possède donc un débit
égal à :
▪ Thunderbolt 3 : 40 Gbits/s
Pour pouvoir contrôler chacun de ses périphériques, le système d'exploitation a besoin d'une
interface logicielle entre lui et le matériel, on appelle driver (pilote ou gestionnaire de périphérique
en français) chaque programme permettant au système d'exploitation de gérer le matériel.
Le rôle du driver est de jouer l'intermédiaire entre le système et les cartes d'extension ou bien
les périphériques externes, ... Les drivers sont développés par les fabricants du matériel auquel ils
correspondent. Toutefois, bien que votre matériel (hardware) n'évolue pas, il se peut que le
fabricant du matériel fournisse quelques mois plus tard une nouvelle version du driver...
Ainsi, une simple mise à jour de driver peut améliorer les performances d'un matériel avec un
gain pouvant aller jusqu'à 10% de performances en plus. Il faut toutefois savoir comment se
procurer ces mises à jour, et comment les installer. Si vous estimez qu'un de vos périphériques
fonctionne correctement, il est préférable de ne pas essayer de mettre à jour son pilote.
NOTE : Tant qu'un périphérique fonctionne, il est recommandé de ne pas essayer d'installer
systématiquement les derniers pilotes, à moins de connaître exactement les améliorations qu'il
apporte où les erreurs qu'il corrige !
-> C'est le BIOS qui, au démarrage de l'ordinateur, agit tel un système d'exploitation en
permettant aux composants vitaux (carte vidéo, disque dur, lecteur de disquettes, clavier) de
démarrer grâce à des pilotes standards. En effet le BIOS permet d'amorcer la carte graphique qui a
elle-même des fonctions graphiques qui vont permettre d'afficher les premières informations. Il en
est de même pour le disque dur, qui va amorcer le système grâce à des pilotes standards. Une fois
le système d'exploitation amorcé, celui-ci va pouvoir prendre lui-même le contrôle de certains
périphériques grâce aux pilotes fournis par le constructeur du/des matériels ou grâce à des pilotes
standards propriétaires (développés par le fabricant du système d'exploitation).
Le système d'exploitation (noté SE ou OS, abréviation du terme anglais Operating System), est
chargé d'assurer la liaison entre les ressources matérielles, l'utilisateur et les applications
(traitement de texte, jeu vidéo, ...).
Ainsi lorsqu'un programme désire accéder à une ressource matérielle, il ne lui est pas
nécessaire d'envoyer des informations spécifiques au périphérique, il lui suffit d'envoyer les
informations au système d'exploitation, qui se charge de les transmettre au périphérique concerné
via son driver (pilote). En l'absence de pilotes il faudrait que chaque programme reconnaisse et
prenne en compte la communication avec chaque type de périphérique !
● Gestion de la mémoire vive : le système d'exploitation est chargé de gérer l'espace mémoire alloué à
chaque application et, le cas échéant, à chaque usager. En cas d'insuffisance de mémoire physique, le
système d'exploitation peut créer une zone mémoire sur le disque dur, appelée «mémoire virtuelle».
● Gestion des entrées/sorties : le système d'exploitation permet d'unifier et de contrôler l'accès des
programmes aux ressources matérielles par l'intermédiaire des pilotes (appelés également gestionnaires
de périphériques ou gestionnaires d'entrée/sortie).
● Gestion de l'exécution des applications : le système d'exploitation est chargé de la bonne exécution des
applications en leur affectant les ressources nécessaires à leur bon fonctionnement. Il permet à ce titre de
«tuer» une application ne répondant plus correctement.
● Gestion des droits : le système d'exploitation est chargé de la sécurité liée à l'exécution des programmes
en garantissant que les ressources ne sont utilisées que par les programmes et utilisateurs possédant les
droits adéquats.
● Gestion des fichiers : le système d'exploitation gère la lecture et l'écriture dans le système de fichiers et
les droits d'accès aux fichiers par les utilisateurs et les applications.
● Gestion des informations : le système d'exploitation fournit un certain nombre d'indicateurs permettant
de diagnostiquer le bon fonctionnement de la machine.
La carte son est l’est l’interface entre la source sonore (instrument ou microphone) et
l’ordinateur. Et entre l'ordinateur et vos enceintes.
Elle transforme le signal des instruments - qui est analogique - en signal numérique afin que
celui-ci puisse être enregistré sur l’ordinateur sous forme de fichiers utilisés dans les STAN.
Dans la très grande majorité des cas, les cartes son sont déjà incluses dans l’ordinateur. On dit
qu’elles sont “internes”. Ces types de cartes sont suffisantes dans le cadre d’une utilisation
basique de l’ordinateur (écouter de la musique, regarder des films…), mais elles s’avèrent vite
limitées par :
- Les entrées jack « instruments » (6,35 mm) pour brancher des guitare, basse....
- Les entrées jack « line » (6,35 mm) ou RCA pour brancher des instruments tels qu’un synthétiseur, un ampli
guitare ou des appareils comme un lecteur de CD.
- XLR et jack peuvent être réunis dans un même connecteur, que l’on appelle combo XLR/jack.
- L’entrée MIDI pour brancher un contrôleur MIDI, comme un clavier maître ou des surfaces de contrôle
- La sortie MIDI pour relier la carte son à un expandeur ou un synthétiseur, par exemple.
- Les sorties lignes pour brancher la carte son à une table de mixage ou un enregistreur.
- Les sorties Monitoring pour brancher la carte son à des enceintes de monitoring.
→ Les modèles de carte son plus avancés disposent d'entrée et sorties numérique au format ADAT, S/PDIF,
MADI ou encore TDIF...
Les cartes son internes se branchent directement sur la carte mère de l’ordinateur, sur les
ports PCI, PCI express, express card ou PCMCIA. Certains modèles sont reliés à un boîtier externe
sur lequel on branche les instruments et on règle les potentiomètres.
- Préamplis : La carte son intègre des préamplificateurs afin d’adapter le niveau du signal
analogique de l’instrument qui est branché et exploiter au mieux sa dynamique.
- Entrée/sortie horloge word clock : Elle permet d’utiliser la vitesse d’horloge de la carte son
comme référence pour synchroniser les différents appareils et éviter les erreurs d’échantillonnage.
L’entrée permet de brancher un générateur d’horloge externe.
- TalkBack : Il s’agit d’une prise micro pour permettre à l’ingénieur du son de communiquer avec les
musiciens lorsque ces derniers ne se trouvent pas dans la même pièce.
Le monitoring direct
Permet d’entendre la source à la prise de son sans passer par la conversion A/D vers l’ordinateur et
la reconversion D/A vers les moniteurs. Ainsi il n'y a pas de latence audible lors de l'enregistrement.
DSP intégré
DSP = Digital Signal Processor, c’est un processeur (comme un CPU) dédié aux gros calculs utilisés
pour le traitement de signal. La carte son équipé d’un DSP allège le processeur de l’ordinateur pour
les calculs de traitement audio effectués par la STAN et ses plug in.
Le théorème de Nyquist nous apprend que la fréquence d’échantillonnage doit être au moins
deux fois supérieure à la plus haute fréquence audible via système numérique.
On considère généralement que l’être humain est capable d’ouïr les fréquences entre 20 Hz et
20kHz. La fréquence d’échantillonnage la plus répandue est 44 100 Hz (ou 44,1 kHz).
Pourquoi cette fréquence, alors que l’on pourrait s’attendre à 40 kHz, qui correspond au double de 20
kHz? Ce chiffre répond à deux exigences principales.
Premièrement, avant d’effectuer une conversion A/N, il faut filtrer toutes les fréquences qui sont
supérieures à la fréquence la plus haute à échantillonner. Lorsque le signal à échantillonner comporte des
fréquences qui sont plus hautes que la moitié de la fréquence d'échantillonnage, il se produit ce qu'on appelle
un repliement. Ce phénomène se produit par l'apparition, dans le signal numérique, de composantes
fréquentielles qui n'étaient pas audibles dans le signal analogique. C'est un peu comme si une fréquence (qui
correspond à la fréquence moitié de la fréquence d'échantillonnage) devenait une sorte de miroir et que toutes
les fréquences supérieures à celle-ci étaient « reflétées » sous cette « fréquence-miroir », en risquant de
devenir audibles.
Pour résoudre ce problème, on introduit, avant échantillonnage, un filtre qui élimine toutes les
fréquences supérieures à la moitié de la fréquence d'échantillonnage. Ce filtre est appelé « filtre antirepliement
» (anti-aliasing filter). Or, il était impossible, à l’époque ou fut choisie la fréquence de 44 100 Hz, de réaliser un
filtre qui aurait filtré parfaitement toutes les fréquences supérieures à 20 kHz en laissant intactes toutes les
fréquences inférieures, sans parler des problèmes de déphasage entraîné par un tel filtre. Par contre, il était
possible de construire un filtre qui laisse passer la fréquence de 20 kHz et atténue progressivement les
fréquences supérieures pour atteindre une coupure complète vers 22 kHz.
La deuxième exigence était d’avoir une fréquence qui soit un multiple entier des fréquences utilisées dans
la distribution du courant domestique, à savoir 50 Hz en Europe et 60 Hz aux USA. D’où ce nombre bizarre de
44100 Hz.
Un bit (binary digit) est une unité de codage binaire qui peut prendre deux valeurs : 0 ou 1.
Plus on a de bits, plus on peut coder une grande quantité de valeurs. Le nombre de paliers
possibles dans la numérisation du signal dépend directement du nombre de bits utilisés
-> Moins on a de paliers, plus on a de différences perceptibles entre le signal analogique et son
équivalent numérique. Ces différences se traduisent par un bruit, appelé ”bruit de quantification”.
Paradoxalement, plus un signal analogique est faible, plus son équivalent numérique sera
bruyant.
→ l’erreur de quantification est proportionnellement plus importante pour un signal faible que
pour un signal fort.
Puisqu’on a un bruit « constant » lié au nombre de bits (bruit de fond), et que le bruit est
moins important pour les signaux les plus fort, ce nombre de bits influence donc la dynamique.
La dynamique correspond au rapport entre le signal le plus fort qui puisse être pris en compte
et le bruit de fond propre.
Ex : 16 bits correspondent à 96 dB
20 bits correspondent à 120 dB
24 bits correspondent à 144 dB
Pour rappel, l’oreille humaine « moyenne » possède une dynamique totale de 120 dB (à 1 000
Hz).
Par contre, un programme musical instrumental « classique » correspond plus souvent à une
dynamique de 50 ou 60 dB (le rapport étant établi ici entre les moments les plus forts et les
moments les plus faibles et non pas le bruit de fond).
Un programme de musique pop sera plus faible, de l’ordre de 40 dB, voire 20 dB s’il s’agit
d’une diffusion radio FM, pour laquelle la dynamique est très souvent artificiellement comprimée.
De manière générale, il semble évident qu'au plus grandes sont la fréquence d'échantillonnage
et la résolution de quantification d'un son au mieux c'est. Or :
- à durée égale, un son échantillonné avec une plus grande fréquence et avec une résolution
supérieure nécessite plus de place pour être stocké sur le support d'enregistrement qu'un son
de moins grande résolution ou échantillonné à fréquence plus faible.
Par exemple, un son enregistré en 24 bits à 96 kHz prend plus de 3 fois la place d'un son
équivalent codé en 16 bits à 44,1 kHz!
Notion de PCM
L'AIFF est un format de fichier audio numérique développé par Apple Computer pour stocker
les sons sur les ordinateurs de la marque. Les fichiers AIFF portent généralement l'extension .aif, ou
.aiff.
Les données sont codées en PCM sans compression.
Ainsi, une piste CD Audio, codée en 16 bits, stéréo 44,1 kHz aura un bitrate de 1411,2 kbit/s
(16 x 44,1 x 2).
Il existe néanmoins un format compressé (AIFF-C ou AIFC) qui supporte une compression
pouvant aller jusqu'à un rapport 1/6.
Un fichier AIFF est organisé en différentes parties appelées chunk, ce qui signifie littéralement
« gros morceau ». Ces chunks comportent bien sûr les informations propres à l'onde sonore
numérisée mais peuvent également inclure des champs comme : instrument, auteur, copyright,
données MIDI, etc...
Le WAV (ou WAVE) est un standard pour stocker l'audio numérique de Microsoft et IBM. C'est
le format le plus courant pour l'audio non compressé.
A l'instar de l'AIFF, ce format ne permet pas de créer des fichiers de grande taille (maximum 2
GiB), ce qui le rend inapte au travail moderne sur des fichiers haute-définition. En effet, la limite de
2 Go est atteinte avec à peine 20 minutes d'informations au format 5.1 en 24 bit/96 Khz. ..
Par ailleurs, le format WAV ne contient aucune information sur le niveau absolu du son qu'il
contient, ce qui le rend inutilisable pour des applications du domaine de la mesure. Néanmoins, le
format WAV reste incontournable sous plate-forme Windows, et est supporté par plusieurs
baladeurs (lorsque un flux PCM ou parfois ADPCM est présent).
Les fichiers Broadcast Wave sont des fichiers WAV qui ont la particularité de stocker des
informations supplémentaires. Les fichiers BWF incluent des informations comme la description du
contenu du fichier (256 caractères au maximum), le nom de l'auteur, la date et l'heure de création
du fichier, mais surtout une référence temporelle (time stamp), c'est à dire un horodatage SMPTE
permettant de caler le début du fichier Broadcast Wave.
NOTE : Certains logiciels donnent la possibilité d'importer les fichiers Broadcast Waves à leur
position d'horodatage (time stamp). Dans ce cas, le fichier BWF (Broadcast Wave) se calera sur
cette position, sur la piste sélectionnée.
Le format MP3 s'est affirmé grâce au Net, il est utilisé en général pour les fichiers de la taille
d'une chanson, qu'il compresse énormément (1/10 en moyenne), au prix du perte de son
paramétrable. Toutefois, cette perte de qualité le rend utilisable à des fins de distribution sur
support informatique, une fois le morceau produit ou au stade de maquette.
RealAudio est un format créé par la société Real, orienté streaming (ie: l'écoute simultané
avec le téléchargement) et portant l'extension .ra ou .ram. La compression utilisée par le format
RealAudio est très performante, aussi bien en qualité sonore qu'en taux de compression. Peu
reconnu par les logiciels de création numérique, il s'utilise surtout avec les logiciels très célèbres
Real Player (pour l'écoute) et Real Producer (pour l'encodage).
L'ASF, ou Active Streaming File, est le format de fichier créé par Microsoft et dérivé du MP3,
qui permet une excellente compression, une bonne qualité de son (certains lui accorde une
meilleure restitution des aigus que le MP3) et une diffusion en direct sur Internet. Bien qu'arrivé
tardivement, la majorité des logiciels sont maintenant capables de le reconnaître.
Parmi les successeurs du MP3 on peut noter l'AAC (Advanced Audio Coding), choisi par Apple
comme codec privilégie (fichier nommés .aac, .mp4 ou .m4a). On le retrouve donc dasn son iPod et
dasn son logiciel iTunes.
Formats Lossless :
On a développé aujourd'hui plusieurs formats de compression qui offrent une qualité sonore
identique à l'originale, littéralement « sans pertes ». Les plus connus sont le Flac, Monkeys Audio,
ainsi que WMA lossless de Microsoft et ALAC d'Apple. Ils n'enlèvent aucune information du flux
audio.
Par exemple la gestion des formats OMFI (Open Media Framework Interchange) et Broadcast
Wave fournit une compatibilité multi-plateforme avec les applications comme par exemple les
systèmes Pro Tools, Nuendo, Avid ou Logic.
NOTE : Par usage, la personne qui fournit un fichier OMF peut joindre un fichier texte
réunissant toutes les informations pertinentes sur le projet (concernant le tempo par exemple), ou
plus astucieusement une copie d'écran de sa fenêtre de mixage.
AAF signifie Advanced Authoring Format. Il s'agit d'un format d’échange de fichiers standards
multimédias qui facilite le transfert de projets entre les applications de production audio et vidéo
les plus connues.
En fait le format AAF est une norme ouverte conçue par une association d'’industriels pour la
réalisation et la post-production multimédia. Il permet aux créateurs de contenu d’échanger
facilement des fichiers numériques et des métadonnées entre plates-formes et entre applications.
Il simplifie la gestion de projet, permet de gagner du temps et de conserver des métadonnées
précieuses qui étaient souvent perdues pendant les transferts.
Un dérivé connu dans le milieu de l'audiovisuel est le format MXF. Pour plus d'informations
sur le MXF vous pouvez télécharger le document pdf suivant:
http://www.ebu.ch/trev_291_devlin_fr.pdf
Le format MIDI standard est un format d'échange de fichiers qui a été conçu par la MMA
(MIDI Manufacturers Association). L'objectif de ce format est de permettre l'échange de données
MIDI entre différents programmes. Tous les programmes pouvant lire et écrire des fichiers MIDI
possèdent un langage commun qui leur permet de communiquer avec d'autres logiciels MIDI. Leur
petite taille fait que les fichiers musicaux MIDI sont particulièrement adaptés à la transmission de
musique en ligne.
ATTENTION : Si ous comptez enregistrer vos projets dans ce format, notez que seule la partie
MIDI de vos projets sera enregistrée dans un fichier MIDI standard. Si vos projets contiennent des
données audio numériques, ces dernières seront perdues...
Les logiciels de production prennent généralement en charge deux formats de fichiers MIDI
différents :
● Le format MIDI 0, dont les fichiers ne contiennent qu'une seule piste et comportent tous les
événements stockés sur cette unique piste.
● Le format MIDI 1, dont les fichiers peuvent stocker jusqu'à 7 256 pistes différentes.
Il existe également le format RIFF MIDI. Ce format répond à une norme standard d'échange de
fichiers (Resource Interchange File Format ou RIFF) et comprend simplement le contenu d'un fichier
MIDI standard au format 0 ou 1. Ce type de fichiers possède l'extension .rmi.
Bien entendu, l'inconvénient principal des fichiers MIDI est qu'ils sont lus différemment selon
le matériel de reproduction sonore que vous utilisez. Un même projet peut varier
considérablement d'une carte son ou d'un synthétiseur à l'autre.
Autre problème, avec la norme MIDI standard, certains détails sont susceptibles d'être
interprétés différemment par les concepteurs de logiciels et de matériel.
• Mobilité
• Réseau
• Intelligence artificielle