Vous êtes sur la page 1sur 55

Institut supérieur de l’informatique et de gestion

Cours technologies
multimédia
RIM NEGRA
2023-2024
Chapitre 4.1
LE SON
Introduction

− Parmi tous les éléments constitutifs du multimédia, le son se révèle d'une


importance particulière.
− Ce qui de plus s'avère particulièrement intéressant est le fait que l'on puisse,
par l'intermédiaire d'un outil de traitement du son, voir le son et le manipuler.

 Définition:
− Le son est une sensation auditive provoquée par une onde acoustique.
 D'un point de vue physique, un son est une énergie mécanique qui se
propage sous forme de vibrations (ondes de pressions) à travers des fluides
compressibles comme l'eau, l'air, les matériaux solides, mais pas dans le
vide (sans support)
3
Production, propagation et réception du son

 Emission (Produire):
− Pour qu'un son soit émis, une énergie doit avant tout mettre en mouvement un
corps pour produire une vibration. Ainsi, le muscle du larynx, la chute d'un
objet sur le sol, ou la tension électrique dans un haut-parleur …, provoqueront
l'énergie nécessaire pour produire cette vibration.

4
Production, propagation et réception du son

 Propagation:
− Pour pouvoir transporter le son, il faut un milieu élastique favorable en créant
des surpressions ou des dépressions. Dans le vide aucun son ne peut se propager,
car il n'y a aucun support.
− Durant la propagation, les ondes peuvent être réfractées, réfléchies ou atténuées
(affaiblies) à cause d’obstacles ou de perte d’énergie dans le support.
− La vitesse à laquelle l’onde de vibration est transmise s’appelle la célérité c du
milieu sonore.

5
Production, propagation et réception du son

 La célérité c de l’onde sonore peut être déterminée par la formule suivante:

c = λ/T ou c = λ x f

Avec: c : célérité en mètre par seconde ( m/s), λ: longueur d’onde en mètre (m)
− f : Fréquence de la source sonore en hertz (Hz), T = 1/f : période de la source sonore en seconde (s)

 La célérité du son dépend de la nature et de l’état du milieu dans lequel se propage le son. Dans l’air
sec à une température de 20°C, la célérité du son est égale à 343 m/s, à 0°C sa célérité est d’environ
331 m/s et à 100°C, elle est légèrement supérieur et est de 386 m/s.

6
Production, propagation et réception du son

 Réception

− Pour que le son soit perçue, il doit y avoir un


récepteur sensible.

− Chez l'homme, l'oreille possède une membrane


(le tympan) capable de transmettre les
informations de vibration en signaux nerveux
jusqu'au cerveau, grâce au nerf auditif.

− De même, le microphone possède également


une membrane permettant de transformer les
déplacement de l'air en signaux électriques.
7
Caractéristiques des ondes sonores

 Les ondes sonores sont des ondes mécaniques longitudinales caractérisées


par des fluctuations de densité et de pression.
 Les fluctuations dans l’air se traduisent par des compressions et des
raréfactions.
 Les compressions sont des régions de haute pression de l’air et les
raréfactions sont des régions de basse pression de l’air

8
 Deux types d’utilisation:

− Contenu Sonore
▪ Narration
▪ Description de contenu (voice-overs)
▪ Musique (chanson)
− Ambiance sonore
▪ Fond sonore (musique d’accompagnement)
▪ Effets sonores (clic sonore)

9
Caractéristiques des ondes sonores

 Caractéristiques:
− Comme tout phénomène vibratoire, le son peut être analysé comme un signal qui
varie dans le temps. Deux caractéristiques essentielles sont l'amplitude et la
fréquence.
 Longueur d’onde:
− La longueur d’onde, exprimée en mètre, correspond à la longueur d’une oscillation
complète, c’est-à-dire, la distance la plus courte qui sépare deux point de matière
dans une position identique. Elle se définit plus couramment comme la distance
entre deux crêtes.

10
Caractéristiques des ondes sonores

 Amplitude:
− C’est la mesure de la quantité d’énergie dans une onde sonore. Appelée parfois
amplitude de pression
− L’amplitude est donnée par l’écart maximal de la grandeur qui caractérise
l’onde. Pour le son, onde de compression, cette grandeur est la pression.
− Appelée aussi intensité ou volume sonore, c'est l'expression de la pression de l'air
qui se mesure en décibels (dB)

11
Caractéristiques des ondes sonores

 Fréquence:
− La fréquence, exprimée en Hertz (Hz), est le nombre de répétition d'une
période par seconde.
− Plus elle est élevée et plus le son paraitra « aiguë », à l'inverse, il paraitra «
grave ». En musique, la fréquence définit donc la hauteur d'un son, soit, la
note. (Ex: la note « LA » correspond à 440Hz, soit 440 vibration en une
seconde).
• L’inverse de la période (1/p)
• C’est la hauteur (grave, aigu)
• Nombre de pics (crête) par
seconde
• Unité : Hz (1 Hz= 1pics par
seconde)
• Plage audible : 20 Hz -20KHz

12
 Les fréquences les plus utilisées par l'Homme sont comprises
entre 1 et 3 KHz.
 Mais, la plage audible est de 20Hz à environ 20 KHz (non
audibles : infrasons et ultrasons)
 Largeur de bande : différence entre plus haute et plus basse
fréquence Intensité (volume)

13
Caractéristiques des ondes sonores

 L’oreille humaine est censée percevoir tous les sons dans ce que l’on
appelle la "Bande Passante" de 20 Hz à 20.000 Hz.
 Les professionnels du son, ont établi une classification en fonction de la
fréquence du son. En dessous du 20 Hz on parle d'infra-son et au dessus de
20 KHz on parle d'ultra-son.
− Infra son < 20Hz
− Basse 20 - 200Hz
− Bas-Médium 200 - 2000Hz
− Haut-Médium (ou aigus) 2000 - 12000Hz
− Aigu (ou sur-aigu) 12000 - 20000Hz
− Ultra son >20000Hz

14
Intensité

 Intensité (différence de pressions)


− L'intensité correspond à l’amplitude (différence de pression).
 Le niveau d’intensité sonore
− Exprimée en décibels (dB) qui sont des unités logarithmiques.

15
16
 I: l’intensité sonore en W.m-2
 L: niveau d’intensité sonore en dB.
 I0 est une constante correspondant à l’intensité sonore
minimale, on a :

 I0 = 1,00 ×10 ^-12 W.m^-2


 Réciproquement on a

17
 Imaginons que l’on ait un violon jouant à L=70 dB. Si un
deuxième violon joue de la même manière, quel va être le
niveau d’intensité sonore ?
 Heureusement cela ne va pas être le double, sinon on aurait
140 dB : le seuil de douleur serait dépassé, et à trois cela
ferait 210 dB, on serait bien loin du seuil de douleur !!! Ainsi,
les dB ne s’additionnent pas !!
 En revanche, les intensités sonores (les I) s’additionnent !

18
 Commençons par le plus simple : on suppose que l’on a un
violon jouant à un niveau d’intensité sonore de 70 dB.
 On cherche l’intensité sonore correspondant à 2 violons jouant
de manière identique.
 Pour 2 violons, il faut trouver l’intensité sonore d’un violon, la
multiplier par 2, et calculer le niveau d’intensité sonore
correspondant.

19
Timbre

 C’est la différence entre deux sons ayant la même hauteur et le


même volume (même fréquence, même intensité) : c’est la qualité
de sensation.
 Il permet d'identifier un son d'une façon unique. Deux sons peuvent
avoir la même fréquence fondamentale et la même intensité, mais
ne peuvent jamais avoir le même timbre. C’est grâce au timbre
qu’on distingue une même note jouée au piano ou au violon, mais
aussi qu’on reconnaît la voix d’une personne.
 On distingue facilement le «la» d'un violon du «la» d'un saxophone.
 Le son d’une guitare ne sera pas confondu avec celui d’un piano.

20
De l’analogique vers le numérique

 Pour reproduire un son sur un support analogique : celui-ci doit d'abord être
transformé en signal électrique :
− Lorsqu'on capte un son à partir d'un microphone, ce dernier transforme l'énergie
mécanique (la pression de l'air exercée sur sa membrane), en une variation de
tension électrique continue.
− Ce signal électrique dit « analogique » pourra ensuite être amplifié, et envoyé
vers un hautparleur dont la fonction est inverse: transformer à nouveau le signal
électrique en une énergie mécanique.

21
De l’analogique vers le numérique

 Le son analogique (Signal continu):


− Les phénomènes qui nous entourent sont en quasi totalité continus. C’est-à-dire ils se
déplacent d’une valeur à une autre sans interruption.
− Lors de la reproduction des valeurs du phénomène, il faut initialement les enregistrer sur un
support. Ensuite, les reproduire de la façon la plus exacte possible.
− Lorsque le support physique peut prendre des valeurs continues, on parle d'enregistrement
analogique. Exmple: la cassette audio , le Télégraphon, ou le disque vinyle sont tous des
supports analogiques.

22
De l’analogique vers le numérique

Problématique
 Le son analogique est généralement fixé sur des supports comme les bandes
magnétiques, disques vinyles etc.
− Le problème rencontré par ces supports réside dans l'usure physique des
informations au cours de leur utilisation (lecture/écriture). A terme, le signal est
affaiblie et peut disparaitre.
− Durée d’enregistrement très limité (à la vitesse standard de 4,75 cm/s) les durées
les plus courantes étaient les C60 (60 min) et les C90 (90 min) mais d'autres
durées ont été disponibles.
==> Il faut chercher à des support de stockage qui permet de lire et de dupliquer
autant de fois ce signal sans aucune détérioration + quantité de stockage énorme.
 Numérisation

23
De l’analogique vers le numérique

 Le son numérique (Signal discret):


− La numérisation est le procédé permettant la construction d’une représentation
discrète d’un objet du monde réel.
− La numérisation est la conversion d’un signal (son, vidéo, image, caractère
d’imprimerie, impulsion) en une suite de nombres permettant de représenter cet
objet en informatique pour être enregistré sur le disque dur du PC.
− Avec l'informatique, lorsque un signal électrique (son) est capturé à partir du micro, il
est converti en une suite de nombre, on parle alors de numérisation du signal. C'est la
carte son qui s'en charge, elle contient des entrées (convertisseurs analogique
numérique) et des sorties (convertisseurs numérique analogique).

24
De l’analogique vers le numérique

 Le passage de l'analogique au numérique consiste en 2 étapes parallèles :


 échantillonnage + quantification
 Un signal analogique est un signal continu qui peut prendre une infinité de
valeurs, alors que le signal numérique est un signal discret (discontinu), qui
se résume en une succession de « 0 » et de « 1 ».

25
De l’analogique vers le numérique

 Convertisseur analogique numérique:


− Un CAN est un outil de conversion des signaux analogiques variant dans le temps en
valeurs numériques.
 Fréquence d’échantillonnage (Hz):
− C’est le nombre d’échantillons collectés pendant une durée de temps.
− Le nombre d'échantillons composant le signal numérique devra être suffisamment
grand pour pouvoir représenter le signal analogique de départ mais pas trop grand non
plus pour ne pas être trop volumineux.
Le théorème de Shannon permet de connaître la fréquence d'échantillonnage à
choisir pour un signal donné :Pour reconstruire un signal de sortie de manière
fidèle au signal d'entrée, il faut choisir une fréquence d'échantillonnage au moins
deux fois supérieure à la fréquence maximale contenue dans le signal d'entrée.
26
De l’analogique vers le numérique

 La fréquence d'échantillonnage doit être suffisamment grande. En effet, si


celle-ci est trop faible, les variations rapides du signal ne pourront être
retranscrites.

 Dans le premier exemple, la fréquence d'échantillonnage choisie permet de


reproduire les variations du signal. Par contre dans le second exemple, il est
clair que les échantillons recueillis ne sont pas suffisants pour reconstruire
le signal d'origine. 27
De l’analogique vers le numérique

 La valeur du taux d'échantillonnage, pour un CD audio par exemple, n'est pas


arbitraire, elle découle en réalité du théorème de Shannon, qui stipule que
pour numériser fidèlement une valeur ayant une fréquence donnée, il faut
numériser au double de cette fréquence. Or l'oreille humaine n'arrive pas à
distinguer des sons dont la fréquence dépasse 22 000 Hz, ainsi il faut
numériser à 44 Khz!

− -Son qualité CD: 44100 Hz


− - Son qualité DVD: 48000 Hz
− - Son qualité téléphone: 8000 Hz
− - Son qualité radio FM: 22050 Hz

28
De l’analogique vers le numérique

 Résolution et quantification:
− La résolution numérique du son est le nombre de « niveaux » ou de "paliers« qu'il
est possible d'enregistrer pour reproduire l'amplitude du signal.
− La précision ou résolution du signal obtenu en sortie va dépendre du convertisseur
utilisé, autrement dit de l'électronique mise en oeuvre. La limite théorique de la
résolution est définie par le nombre de bits du convertisseur analogique
numérique.
− Lorsque le codage s'effectue sur 2 bits, chaque bit pouvant prendre deux valeurs («
0 » ou « 1 »), 22 valeurs seront stockées, soient 4 valeurs possibles.
 Avec une résolution de 16bit, on dispose de 216 , soit 65535 valeurs possibles
pour traduire l'amplitude du son. Ainsi, plus la résolution est élevée, meilleur
sera la dynamique (l'écart entre le son le plus faible et le plus fort qu'il est
possible de reproduire)

29
De l’analogique vers le numérique

 La quantification consiste en une deuxième phase ou le chiffre de


l'amplitude prélevé sera arrondi à l'entier le plus proche.

 Le signal numérisé est représenté en rouge, l'erreur de quantification en


pointillé rouge
30
De l’analogique vers le numérique

 Caractéristique d’un CAN


− Pas de quantification:
− Appelé aussi précision du CAN, il dépend du nombre de bits n du CAN et de la
tension pleine échelle Vref.

00 0 V

01 3.33 V

10 6.66 V

11 9.99 V
 Dans cet exemple, le signal a une amplitude de 10 volts : donc p= 10/3= 3.333 V
31
De l’analogique vers le numérique

 Un CNA est un outil de conversion des signaux numériques en des signaux


analogiques.
 Une donnée numérique est plus facile à stocker et à manipuler, par ailleurs il
faut tout de même pouvoir l'exploiter. A quoi servirait un son numérique si l'on
ne pouvait pas l'entendre !!!????
 Ainsi, sur un ordinateur multimédia on trouve des convertisseurs numérique
analogique pour la plupart des sorties :
▪ sorties audio des cartes-sons
▪ synthétiseur musical
▪ imprimante
▪ modem (à l'émission)

32
Mémoire de stockage

Mémoire requise pour stocker un son:


− Il est simple de calculer la taille d'une séquence sonore non compressée en
connaissant le nombre d'échantillons par seconde (fréquence d'échantillonnage), la
résolution (nombre de bits sur lequel est codé un échantillon) , le temps de la
séquence (en seconde) et le nombre de voies utilisées :
Débit (octet/s) = Fréquence d'échantillonnage (Hz) x Résolution (octet) x Nombre
de voies
poids (octet) = Débit (octet/s) x Durée (seconde)
Calculer le poids d'1 minute audio en 44100Hz, 16bit, stéréo. On souhaite une
réponse en Mega Octet (Mo).

33
Exemple: Calcul d’une minute audio qualité
CD

Débit (octet/s) = Fréquence d'échantillonnage (Hz) x Résolution (octet) x


Nombre de voies
Poids:44100(Hz) x 16 (bit) x 60 (sec) x 2 (voies)
Donc poids=44100 x 2 x 60 x 2 = 10584000 octet
Conversion de octet vers Kilo-octet (Ko): 10584000 / 1024 = 10335 Ko
Conversion de Kilo-octet (Ko)vers Mega-octet (Mo): 10335 / 1024 = 10 Mo

34
Enregistrement et compression de l’audio

 Enregistrement:
− Après numérisation, il faut penser à l’enregistrement, au stockage et transport de
cette information.
− Différents systèmes existent pour coder ou compresser les fichiers son, appelé
CoDec (Code-Decode).
 Format de fichiers non compressés:
− .WAV : Mis au point par Microsoft et IBM, le format Wave PCM est le format son
standard de Windows.
− .AIFF : format de stockage des sons sur les ordinateurs Macintosh d'Apple. C'est
l'équivalent du format WAV dans le monde Macintosh.
− .RAW : Format audio brut
− .AU : Le format AU est assez bien répandu grâce à Unix et Linux. La fréquence
d'échantillonnage est comprise entre 1 kHz et 200 kHz.
35
Formats sans compression

 Format Waveform Audio file (WAV): (Sans compression)


− Le format WAV est un dérivé de la spécification RIFF (Resource Interchange File
Format) de Microsoft dédiée au stockage et archivage de données multimédias. Il
est libre d'utilisation et le plus répandu. Ce format est lisible sur la plupart des
Systemes d’Exploitations et reconnus par toutes les applications sur Windows. Le
seul problème avec ce format est qu'il est volumineux (10 MB/min).
− Le format PCM (Pulse Code Modulation) dans lequel les échantillons sont codés de
manière "brute" (aucune compression)
− Le format PCM est une suite de données audio non compressées, qui est
généralement stocké sous forme de .WAV sur Windows ou sous .Aiff sur Mac OS
Le fichier WAVE pris en exemple (voir diapo. suivant) représente un message vocal d'une durée d'environ 2
secondes, numérisé avec les paramètres d'échantillonnage suivants :
fréquence d'échantillonnage : 11025Hz,
taille de l'échantillon : 8 bits,
nombre de canaux : 1 (mono).
36
Formats sans compression

 Format Waveform Audio file (WAV): (Sans compression)


 On lit l’octet de poids
le plus faible vers
l’octet de poids le plus
fort (format little
endian)

 Windows fournit
différents logiciels
(CODEC) pour restituer
et lire les fichiers WAV,
comme A-LAW, micro-
LAW, DSP TrueSpeech …

37
Formats de compression sans perte

 Les tailles des fichiers non compressés en fonction de la qualité de la


numérisation voulue est assez volumineux. Il est donc évident nécessaire de
trouver un moyen d'en réduire la taille.

 Format Free Lossless Audio Codec (FLAC): (Sans perte)


− C’est un codec libre, de compression audio sans perte. Permettre une réduction de
taille de 30 à 70 %. La réduction de taille est dépendante de la source : plus le signal
est constitué d'ondes régulières (sons naturels), meilleure est la compression. Par
contre, un signal aléatoire (bruit) ne se compresse pas très bien.

38
Formats de compression sans perte

 Format Free Lossless Audio Codec (FLAC): (Sans perte)


− La séquence audio est découpée en plusieurs blocs de même taille (entre 16 et
65535 échantillons). Chaque bloc est également découpé en plusieurs sous-blocs de
même taille.
− Cette technique de compression cherche à décrire le sous-bloc par une fonction
mathématique. Chaque bloc ou sous-bloc peut se voir appliquer une méthode de
description dont quatre existes. Les sous-blocs ainsi compressés sont ensuite
rassemblés pour reproduire la séquence audio.
− FLAC est libre et open source ; ne nécessitant pas le paiement de charges, il est
bien supporté par de nombreux logiciels.
− Les fichiers FLAC ont pour extensions .flac ou . fla
− Codage/décodage par de nombreux outils gratuits ou OpenSource dont Cooledit et
Audacity, lecture par VLC.
39
Formats de compression avec perte

 Compression: (Avec perte)


− Format MPEG Audio Layer 3 (MP3): (Avec perte)
▪ Le MP3 est un format de compression avec perte d’audio développée par l'organisation
de standardisation internationale (ISO). Ce format permet de compresser à un taux de
1:12 les formats audio habituels (WAV ou CD audio).
▪ MPEG est l’acronyme de "Moving Pictures Experts Groups“, qui établit des normes
différentes pour le codage audio et vidéo.
▪ Le MP3 a été lancé pour la première fois sur Internet par la société Nullsoft, éditrice du
logiciel Winamp MP3 permettant d'écouter de la musique téléchargée.
▪ Elle est dédiée à des applications nécessitant des débits faibles (128 kbit/s) d'où une
adhésion très rapide du monde Internet à ce format de compression.
▪ "Layer", couche indique la version du standard. La première est layer 1 (1987).

40
Formats de compression avec perte

 Format MPEG Audio Layer 3 (MP3): (Avec perte)


− Contexte
▪ la compression MPEG layer 3 consiste à retirer des données audio les fréquences
inaudibles par l'oreille humaine.
▪ La compression consiste à déterminer les sons que nous n'entendons pas et à les
supprimer, on perd ainsi des données.

 Techniques utilisées
1. Suppression des sons trop graves (inférieure à 20 Hz) ou trop aigus (supérieur à 20
KHz)
2. L’effet de masque: suppression des sons trop faibles. En effet, si deux sons
d’intensités suffisamment différentes sont émis simultanément, le son ayant
l’intensité la plus faible est supprimé.

41
Formats de compression avec perte

 Techniques utilisées (suite)


▪ Stéréo jointe: Un fichier stéréo peut être codé sur deux pistes (stéréophonie) auxquelles
correspondent des sons différentes. Cependant, il arrive que ces deux pistes contiennent des
sons identiques. Donc, ces deux pistes peuvent être rassemblées en une seule
(monophonique) c’est-à-dire ils sont enregistrées en mono mais accompagnées d’informations
complémentaires afin de restituer un minimum d’effet spatial.

▪ Codage Huffman: Introduit par David Huffman en 1952, Le codage Huffman est un algorithme
qui agit à la fin de la compression en créant des codes de longueurs variables sur un grand
nombre de bits. Les codes ont l'avantage d'avoir un préfixe unique, ils peuvent toutefois être
décodés correctement malgré leur longueur variable , et rapidement grâce à une
correspondance de tables.

42
Formats de compression avec perte

 Principe de codage Huffman:


− Pour comprendre le principe de codage de Huffman, on va utilisée un exemple de chaîne à
coder.
 On va coder cette phrase de 32 caractères:"traversing threaded binary trees »
 La taille d’un fichier contenant cette phrase et utilisant le code ASCII-8 bit est de: nbre de
caractère x 8 = ... bits 32 x 8 = 256 bits
 On crée une liste d’éléments qui contient au début les lettres avec leurs probabilités
d’apparition.
 NL (1); SP (3); a (3); b (1); d (2); e (5); g (1); h (1); i (2); n (2); r (5); s (2); t (3); v (1); y (1)
− Avec NL: nombre de ligne et SP: nombre d’espace
 À partir de cette liste, on définit un graphe arborescent :On crée une liste d’éléments qui
contient au début les lettres classées dans l’ordre de leurs probabilités d’apparition
décroissantes. À partir de cette liste, on définit un graphe arborescent.
43
Formats de compression avec perte

 On liste tous les caractères utilisées, en même temps que la fréquence avec
laquelle se produisent dans le message.
 On considère chacune de ces paires (caractère, fréquence) comme des noeuds.
 On Choisit les deux noeuds avec la fréquence la plus basse, et si il ya une
égalité entre les fréquences, choisir au hasard parmi ceux dont les fréquences
sont égales.
 On continue le processus jusqu’à ce que la liste ne contienne plus qu’un
dernier sommet qui sera la racine de l’arbre.
 On construit un sommet de l’arbre en réunissant les deux éléments de plus
petite fréquence (la fréquence de ce sommet est la somme des fréquence)

44
Formats de compression avec perte

45
Formats de compression avec perte

46
Formats de compression avec perte

 Notez que le code est de longueur variable.

 Les lettres avec des fréquences plus élevées ont des codes courts.

 L'arbre aurait pu être construit dans un certain nombre de façons, chacun d'entre eux a abouti à des codes
différents, mais le code serait encore minime.

 Le texte a été compressé par seulement 122 caractères, donc un taux de compression de 52%.

47
Formats de compression avec perte

 Format MP3 Pro:


− La compression mp3Pro se présente comme un successeur avantageux au mp3
depuis 2001.
− Les fichiers générés par un encodeur mp3PRO sont compatibles avec tous les
lecteurs mp3. Cependant seuls les lecteurs certifiés mp3PRO bénéficient des
avantages supplémentaires de cet encodage.
− MP3Pro présente trois particularités offrant de meilleurs résultats sonores que
ceux d'un simple mp3 standard :
▪ L'utilisation du VBR;
▪ La préservation de la bande passante aiguë;
▪ Une qualité sonore équivalente au 320 kbit/s du layer III en VBR (qui varie entre 64 kbit/s
et 128 kbit/s) permet un gain par rapport à un fichier mp3 standard (entre 25% et 50% de
gain).

 Codage/décodage : Thomsom Encoder, ou Audion pour Mac.


48
Formats de compression avec perte

 Format Advanced Audio Coding (AAC):


− L’AAC est un algorithme de compression audio avec perte permettant d'offrir un
meilleur ratio qualité/compression que le format MP3. Utilisé dans iTunes, iPod et
largement répandu grâce au succès de l'Itunes Store.
− Les améliorations apportées par l'AAC concernent:
▪ les fréquences d'échantillonnage : de 8 à 96 kHz (MP3 officiel : 16 à 48 kHz)
▪ le nombre de canaux : jusqu'à 48
▪ Utilisation du VBR (débit variable )
− Intégration du système DRM (Digital Right Management) « Protection anticopy »
− L'extension de fichier généralement adoptée est .mp4 (pour MPEG-4), .m4a(pour
MPEG-4 audio) ou .m4p (pour MPEG-4 protégé).
− Codage/décodage : iTunes, QuickTime, RealPlayer 10.5, VLC pour le décodage des
fchiers sans DRM
49
Formats de compression avec perte

 Format Windows Media Audio (WMA):


− WMA est un format propriétaire de compression audio avec perte développé par Microsoft
et qui existe depuis 1991. Il offre une performance équivalente voir meilleure à MP3. WMA
est protégé contre la copie illégale par DRM.
− Le format existe sous deux formes :
▪ le WMA Standard, le premier à être sorti, le plus répandu sur Internet et le seul à être lisible
(actuellement),
▪ le WMA Pro, théoriquement de meilleure qualité mais bien moins répandu.
− Ils sont capables de coder en débit constant (CBR) ou en débit variable (VBR).
L’application Windows Media Player version 9 suffit pour lire les fichiers WMA.
− Pour les fichiers WMA avec DRM, les appareils électroniques courants (stéréos, DVD, radio,
…) doivent être compatible avec Microsoft DRM.
− Cas de format Music Instrument Digital Interface MIDI:
▪ C'est un protocole de communication et de commande permettant l'échange de données
entre instruments de musique électronique (des ordinateurs).

50
Formats de compression avec perte

 Format midi (suite):


− On ne code pas le signal mais les notes qui lui correspondent.
− Il s’agit d’un texte ASCII contenant des informations tels que (La hauteur,
l’intensité, la durée, …)
− Ils prennent en général très peu de place puisque ne sont codées que des
descriptions textuelles des sons à reproduire.
− Les fichiers MIDI ont une extension .mid et les applications à utiliser pour lire ces
fichiers sont:
▪ Windows Media Player
▪ QuickTime Player (Mac)
▪ Tout logiciel de composition musicale: Cubase-Cakewall, …

51
Formats de compression avec perte

 Format Ogg Vorbis:


− Ogg Vorbis est un format de compression de données audio avec perte développé par la
fondation Xiph.org.
− Le format Ogg Vorbis est un format ouvert (OpenSource), contrairement aux principaux
formats concurrents tels que le MP3, WMA, Atrac ou AAC
− Ogg Vorbis permet l’enregistrement en polyphonique (plusieurs canaux) et permet ainsi
une restitution sur des installations utilisant 4, 5 ou 7 canaux.
− Ogg Vorbis est un format plus récent que le format MP3 (la version 1.0 date du lundi 8 mai
2000), il permet donc une meilleure restitution sonore, dans la bande de fréquence 8kHz-
48.0kHz.
− Les fichiers au format Ogg Vorbis ont généralement une taille plus petites que les fichiers
au format MP3.
− Ogg Vorbis n’est pas compatible avec MP3, donc il faut installer un codec spécifique ou
utiliser un lecteur supportant le format.
− Récemment, le matériels MP3 supporte le format Ogg Vorbis.

52
Formats de compression avec perte

 Format Dolby Digital (AC3):


− Le format dolby Digital est un standard de codage numérique audio 5.1 développé
par les laboratoires Dolby Labs lancé en 1987.
− Le format Dolby Digital s'appuie sur un algorithme de compression appelé AC3
(Audio Coding 3), permettant de compresser les flux audio avec un facteur 10 à 12
et un échantillonnage sur 16 bits à 48 kHz, soit un débit global d'environ 384
kbit/s.
− D’ici vient la nomination Dolby AC3 pour les professionnels.
− Dolby Digital est très utilisé dans les équipements de home cinéma.
− Pour pouvoir exploiter des supports au format Dolby Digital (DVD vidéo ou DVD
audio par exemple), il est nécessaire de posséder un équipement possédant un
décodeur AC3 intégré.
− Le format Dolby Digital permet la restitution grâce à 6 canaux audio indépendants
et une bande passante comprise entre 20Hz à 20KHz.

53
Formats de compression avec perte

 Format Real Audio (RA.RAM):


− Le format RealAudio est très ancien, il permet de diffuser de la musique sur
internet en utilisant la technique du streaming. Ce format audio propriétaire
vient de la société RealNetworks et est lisible avec RealPlayer, on peut le créer
avec RealProducer. Helix Player et aussi Real Alternative.
− Le format binaire propriétaire des séquences audio et vidéo sur Net est de qualité
satisfaisante, tout en tenant compte de la satisfaction à la vitesse du Net.
− L’application RealPlayer permet de lire des fichiers avec les extensions:
▪ .ra : real audio
▪ .rm : real media
▪ .smil : Synchronized Multimedia Integration Language (langage d'intégration multimédia
synchronisé)
▪ .ram : Real Audio Metadata
▪ .RMVB : fichier vidéo vbr
▪ .rv : real video

54
Formats de compression avec perte

 Etude comparative sur un morceau qui durera 4m 17 s. Les compressions ont été
faites sur un PC Pentuim 3 cadencé à 500 MHz avec une SDRam de 256 Mo.

55

Vous aimerez peut-être aussi