Vous êtes sur la page 1sur 87

Chapitre 2 : Le signal audio

Qu'est-ce que le son ?

 Un son est un ébranlement élastique de l’air, d’un fluide ou


d’un solide qui se manifeste par des variations de pression
autour de la pression moyenne du milieu.
 Les êtres humains, comme beaucoup d'animaux, ressentent
cette vibration grâce au sens de l'ouïe (audition).
 Les ondes sonores se déplacent à environ 344 m/s dans de
l'air à 20 °C
 En milieu non gazeux, le son peut se propager encore plus
rapidement : dans l’eau, sa vitesse est de 1482 m/s ; dans
l'acier de 5050 m/s.
 Le son ne se propage pas dans le vide puisqu’il n'y a pas de
matière pour supporter les ondes produites. Le vide est
donc un excellent isolant phonique !
2
Le son est une onde acoustique progressive
mécanique périodique tridimensionnelle et
longitudinale

 Onde : une perturbation de la matière par transfert d’énergie,


mais sans que la matière ne soit elle-même transportée.
 Progressive : l’onde se déplace dans l’espace.
 Périodique : l’onde se reproduit à l’identique et à intervalles
réguliers.
 Tridimensionnelle : l’onde sonore se propage en effet dans
toutes les directions de l’espace .
 Longitudinale : la matière est perturbée de façon parallèle.

3
 Le son se propage en faisant vibrer
l’air autour de la source
 Chaque branche d’air se comprime
et se dilate périodiquement
 La perturbation cesse quand la
source se tait

4
Figure 3 : Propagation du son dans l’air
Une onde sonore est caractérisée par trois paramètres essentiels, liés
entre eux :
 sa vitesse; la célérité

Milieu Célérité c (m.s-1)


Air sec à 20° 344
Eau à 20° 1500 Vson(solide) > Vson(liquide) > Vson(gaz)
Acier 5000
Diamant 18000

 sa fréquence: le nombre d’oscillations complètes de l’onde


effectuées par seconde (Hertz). f = 1/T
 sa longueur d’onde: la distance entre deux crêtes

5
 L’onde sonore se propage jusqu’au récepteur à la vitesse c
dans la direction x
 Dans l’intervalle de temps T elle parcours la distance
c*
  est la longueur d’onde de l’onde sonore, c’est la période
spatiale
 f est la fréquence
 T=1 / f est la période temporelle

6
Mesure d’un signal sonore:

Niveau d'intensité sonore (L) : C’est une mesure relative


de pression sonore P. Elle est comparée relativement à
une pression sonore de référence qui est généralement le
seuil de perception de l’audition humaine P0

Intensité sonore (I) : C’est une grandeur permettant de


donner une indication sur la "force" d'un son : plus l'intensité
sonore est élevée et plus le son perçu est fort par l'oreille
humaine. correspond à un "débit" d'énergie par unité de
surface.

7
 L'oreille humaine peut en moyenne percevoir des sons ayant une intensité sonore supérieure à 10-
12 W.m-2.

 Cette intensité sonore minimale est noté I0 = 10-12 W.m-2 et appelée seuil d'audibilité.
 Un son dont l'intensité sonore est très forte peut provoquer une douleur, ainsi qu'une perte
d'audition partielle ou totale
 Le seuil de douleur correspond à une valeur d'environ 10 W.m-2 (intensité maximale)
 L'intensité sonore perceptible prend des valeurs entre I0 = 10-12 W.m-2 et 10 W.m-2 soit un facteur
de 1013 (10 000 milliards !) entre la limite inférieure et la limite supérieure.
 Le niveau d'intensité sonore d'un son audible par l'oreille humaine est donc compris entre 0 et 130
dB.

8
Exemple de niveaux sonores

9
Audition

 Un signal sonore est un signal perçu par l’oreille humaine.


 Toutes les fréquences de vibration ne sont pas entendues par
l'homme.
 L'oreille ne perçoit ni les sons qui ont une fréquence inférieure à 20
Hz (les infrasons), ni les sons qui ont une fréquence supérieure à 20 000
Hz (les ultrasons).
 La gamme audible par l'homme est donc comprise entre 20 et 20
000 Hz.

10
 Limite des fréquences audibles selon les espèces:

11
capteur de son
 Exemple : le microphone électrostatique
Principe : l’onde sonore déforme une membrane qui entraine la variation
de l’épaisseur de la capacité

Capacité Grille de protection


dC
i(t)  U
dt Membrane

dC
u(t)  RU i(t)
dt U Air
u(t) R
S
C
e

Pour avoir une bonne sensibilité il faut que U et R


soient importantes car les variations de C sont faibles.
Le signal acoustique est transformé en un signal électrique
12
C’EST UN CAPTEUR
I. Propriétés des signaux analogiques
sonores
I. 1. Allure temporelle d’une note musicale
 L’amplitude du son évolue dans l’enveloppe
 A l’intérieure de l’enveloppe le son évolue de façon
périodique en fonction de la note jouée et de l’instrument
utilisé

enveloppe

 Durant le corps de la note, la forme d’onde périodique est


caractéristique de l’instrument

13

Forme d’onde en triangle: Flute Forme d’onde en dents de scie: Violon


I. Propriétés des signaux analogiques
sonores
bruit
I. 2. Notion du bruit
 Un bruit est un ensemble de son pouvant avoir un caractère aléatoire
non structuré qui ne véhicule pas d’information
Vs signal
 Un signal est porteur d’une information structurée ayant une certaine
organisation.

 L’identification de cette structure par l’homme lui permet de


comprendre le message. Exemple: signal de parole, signal sismique,
echo radar, signal musical….

 Dans la pratique, il y a toujours la présence d’un bruit


 du fait du milieu ambiant qui perturbe le signal
14
 du fait des erreurs de calcul
15
I. Propriétés des signaux analogiques
sonores
1.3. Hauteur et timbre
 La hauteur d’une note de musique correspond à la
fréquence de la forme d’onde.
 C’est le nombre de périodes de vibrations produites par
l’instrument pendant une seconde. Elle est mesurée en
Hertz.
 Exemples : la note "La" pure à 440 Hz
l’expression mathématique du signal
s(t)  0.9 * cos(2 *  * 440 * t)
 C’est le chronogramme d’un signal sinusoïdal,
analogique et continu de la note
" La" pure à 880 Hz 16
 Le timbre d’une note de musique est caractérisée par la forme
d’onde de l’instrument
 La note d’un instrument n’est pas pure.
 Elle résulte d’une somme de sinusoïdes
 Exemple de la corde vibrante: Les ondes à différentes fréquences
s’ajoutent pour former la forme d’onde

LA 440 Hz

1 1 1 1
Onde  * sin(2 *  * f 0 t)  * sin(2 *  * f1t)  * sin(2 *  * f 2 t)  * sin(2 *  * f 3 t)
2 2 2 2
17
On obtient une forme d’onde en dents de scie:
I. Propriétés des signaux analogiques
sonores
1.4. Représentation fréquentielle de la forme d’onde
1 1 1 1
Onde  * sin(2 *  * f 0 t)  * sin(2 *  * f1t)  * sin(2 *  * f 2 t)  * sin(2 *  * f 3 t)
2 2 2 2

Amplitude Amplitude

1
0,5

f0 f1 f2 f3 Fréquence
Temps

18
II. Introduction à l’analyse de Fourier
Décomposition en série de Fourier
1
Tout signal périodique x p (t ) de période T 0 
f 0
peut s'écrire: Joseph Fourier,
1768-1830
 
x p (t )  a0  an cos(2 * * n * f 0 * t )  bn sin(2 * * n * f 0 * t )
n1 n1

Tout signal périodique de fréquence fo est une somme


d’harmoniques et on sait déterminer l’amplitude de chaque
harmonique: 1 T 0
a0   x p (t ) dt
T0 0

19
2 T0 2 T0
an   x p (t ) cos(2 * * n * f0 * t )dt bn   x p (t ) sin(2 * * n * f0 * t )dt
T0 0 T0 0
II. INTRODUCTION À L’ANALYSE DE FOURIER
DÉCOMPOSITION EN SÉRIE DE FOURIER
Exemple, cas d'un signal carré : T
T
2
Spectre de phase
Spectre d'amplitude

f 3f 5f 7f f 3f 5f 7f
1 
ao  an  0  n  Arctg() 
2
2
2
bn  si n impair bn  0 sinon
n
n 3 n 11 n 15 n  21

20
II. INTRODUCTION À L’ANALYSE DE FOURIER
DÉCOMPOSITION EN SÉRIE DE FOURIER

Principe de l’analyse spectrale (ou harmonique)


 Le spectre de fréquence F(f) est obtenu en appliquant la
transformation mathématique de Fourier TF à un signal fonction
du temps s(t).

S( f )  s ( t )e  i 2  ft dt avec f  Cas d’un signal continu



1 N 1
  2  kn   2  kn   Cas d’un signal
S ( f ) 
N
 s ( n )  cos 
 N


 i sin 
 N
  discret

n  0 

 De même, si on connait le spectre de fréquence F(f), on peut


retrouver le signal s(t) par la transformation de Fourier inverse
TFI.
21
III. Numérisation du signal:
Echantillonnage

 Théorème de Shannon
 L’expérience montre que l’on ne perd pas d’information en échantillonnant le
signal si:

f e  2  fsignal

C’est la condition d’échantillonnage de Shannon


Shannon montre que dans ce cas on peut reconstruire en
théorie le signal analogique à partir des échantillons Claude Elwood Shannon
(30 avril 1916 - 24 février 2001)

Il existe dans ce cas un interpolateur idéal

22
III. Numérisation du signal: Echantillonnage

 Applications

Hifi=high fidelity (reproduire un enregistrement de façon à obtenir une


diffusion sonore aussi parfaitement conforme que possible à l'original)
23
III. Numérisation du signal: quantification

 L’opération de quantification consiste à coder les échantillons à l’aide


d’un ensemble de combinaisons binaires. Avec N bits, on a
2N combinaisons pour quantifier des échantillons.

 Il s’agit de choisir les niveaux de quantifications de sorte que toute la


gamme des échantillons soit quantifiable avec un pas de
quantification constant.

24
Application :
 Soit le signal échantillonné se(t) dont les échantillons sont
compris entre les tensions Vmin et Vmax.

 On désire effectuer la quantification sur N bits. On dispose


donc de 2N combinaisons possibles qu’il faut répartir entre
Vmin et Vmax.

 Le pas de quantification, pour répartir les niveaux de


quantification par rapport aux niveaux de tension, dans une
quantification linéaire est donc:
pas = (Vmax - Vmin )/ 2N

25
III. Numérisation du signal
CALCUL du DÉBIT ET TAILLE D’UN SON NUMÉRIQUE
 Quelques exemples de résolutions (nombres de bits) fréquemment utilisées:
Son qualité téléphone: 8000 Hz 8 bits
 Son qualité radio FM: 22050 Hz 16 bits
 Son qualité CD: 44100 Hz 16 bits
 Son qualité DVD: 48000 Hz 24 bits
 Son audio professionnel: 96000 et 192000 Hz 24 et
32 bits.
 Le débit et la taille d’un son numérisé:
 croissent proportionnellement à
la fréquence d’échantillonnage fe
et à la longueur binaire des échantillons N
 et décroissent par contre proportionnellement au taux de
26
compression.
III. Numérisation du signal
CALCUL du DÉBIT ET TAILLE D’UN SON NUMÉRIQUE

 Taille d’un son numérisé = mémoire requise pour stocker un


son en connaissant :
le nombre d'échantillons par seconde (fréquence
d'échantillonnage),
La résolution (nombre de bits sur lequel est codé un
échantillon) ,
le temps de la séquence (en seconde)
et le nombre de voies utilisées (1 canal pour mono et 2
canaux pour stéréo)
poids (octet) = Fréquence d'échantillonnage (Hz) x Résolution
(octet) x Durée (seconde) x Nombre de voies
27
III. Numérisation du signal
CALCUL du DÉBIT ET TAILLE D’UN SON NUMÉRIQUE

Exemple: Calcul d'une seconde d'audio qualité CD

 Rappel: 1octet = 8bit et 1kilo-octet (ko) = 1024 octet

=> Calculer le poids d'1 minute audio en 44100Hz, 16bit, stéréo. On

souhaite une réponse en Mega Octet (Mo).

 44100(hz) x 16 (bit) x 60 (sec) x 2 (voies)

 44100 x 2 x 60 x 2 = 10584000 octets

28
III. Numérisation du signal
CALCUL du DÉBIT ET TAILLE D’UN SON NUMÉRIQUE

Débit d’un son numérisé


 Le débit associé à un son numérisé est le nombre de bits créés
chaque seconde par l’opération de numérisation, c’est aussi le
nombre de bits à télécharger par seconde pour jouer le son sans
ralentir .
 Le débit s’exprime en bit par seconde (bps).
 Un son numérisé en monophonie avec fe échantillons de N bits
chaque seconde
 Provoque un débit de numérisation de N*fe bps (bit par seconde).
 En cas de stéréophonie, on utilise deux haut-parleurs pour recréer
l’information des sources sonores, il faut doubler le débit par rapport à
la monophonie.

29
III. Numérisation du signal
CALCUL du DÉBIT ET TAILLE D’UN SON NUMÉRIQUE

Taux de compression
 Le taux de compression peut être calculé
indifféremment en faisant le rapport des tailles ou le
rapport des débits du son avant compression et du son
compressé.
 C= Taille finale/taille initiale
 Gain de compression =
Quantité d’information supprimé = 1-C
 Ainsi, si on applique un taux de compression C à un son
numérique,
f e * N * t * Nb
 Sa taille est divisée par C et devient bit
C
30
 Et son débit est divisé par C et devient f e * N * Nb bps
C
III. Numérisation du signal
CALCUL du DÉBIT ET TAILLE D’UN SON NUMÉRIQUE
 Préfixes SI / Préfixesbinaire
 Les premiers informaticiens n’ont pas éprouvé le besoin d’inventer de
nouveaux préfixes :
 Ils ont utilisé les préfixes SI en changeant légèrement leurs valeurs (par exemple kilo → 1024
au lieu de 1000).
 Si l’erreur ainsi faite est faible pour les premières capacités mémoires qui s’exprimaient en ko
(2,4 %),
 elle devient difficilement tolérable dans le cas des capacités actuelles qui s’expriment en
To (10 %).
Création de préfixes binaires

Préfixes SI (Système International d'unités ) Préfixes binaires


Nom Symbole Valeur Nom Symbole Valeur
kilooctet ko 103 Kibioctet Kio 210
mégaoctet Mo 106 Mébioctet Mio 220
gigaoctet Go 109 Gibioctet Gio 230
31
téraoctet To 1012 Tébioctet Tio 240
IV. LES FORMATS DE FICHIER SON

 Le type de format correspond habituellement à l'extension du


fichier (c.-à-d. les lettres qui se trouvent après le point dans le nom
du fichier, par exemple .mp3, .wav, .ogg, .wma).

32
IV. LES FORMATS DE FICHIER SON 33
Principaux formats de fichier non compressés:
.WAV : Mise au point par Microsoft et IBM, le format Wave nommé
aussi PCM est le format son standard de Windows. Il est limité à un
poids de 2Go. Le format "Disque compact" 44.1 kHz, 16 bits et stéréo
nous servira de référence pour le calcul du poids et ratio des autres
formats.
.AIFF : format de stockage des sons sur les ordinateurs Macintosh
d'Apple. C'est l'équivalent du format WAV dans le monde Macintosh.
Les résolutions de 8, 16, 20, 24 et 32 bits (à virgule flottante) sont
acceptées.
.RAW : Format audio brut (fichier binaire).
.AU : Le format AU est assez bien répandu grâce à Unix et Linux. La
fréquence d'échantillonnage est comprise entre 1 kHz et 200 kHz.
Mais les applications de rendu audio ne lisent principalement que
trois fréquences d'échantillonnage: 8012.821Hz (codec entré),
22050Hz et 44100Hz.
Les résolutions 8, 16, 20, 24 et 32 bits (flottant) sont33 acceptées.
IV. LES FORMATS DE FICHIER SON 34

Principaux formats de fichier compressés:


.MP3 : MPEG-1/2 Audio Layer 3, format de compression très
populaire permettant d'occuper 4 à 12 fois moins d'espace de
données. En effet, certaines fréquences inaudibles par l'oreille
humaine vont être totalement supprimées dans le fichier. La
compression au format MP3 exploite aussi un modèle psycho-
acoustique de l'effet dit de « masque » : si deux fréquences
d'intensités différentes sont présentes en même temps, l'une
peut être moins perçue que l'autre par l'oreille, selon que ces
deux fréquences sont proches ou non.
.AAC: Advanced Audio Coding. Amélioration du format MP3,
c'est le format des fichiers audio supportés par Apple au sein de
son baladeur numérique iPod et de son logiciel iTunes. L’AAC est
un format de compression audio standardisé par l’ISO basé sur
les nomes du MPEG-4, d’ou son nom MP4. Les fréquences
d’échantillonnage vont de 8 kHz à 96 kHz (MP3 officiel
34 : 16 à 48
kHz) et il peut gérer jusqu‘aux 48 canaux.
IV. LES FORMATS DE FICHIER SON 35
Principaux formats de fichier compressés:

.WMA (Windows Media Audio) : format de compression audio


propriétaire développé par Microsoft. Il fut à l'origine présenté pour
remplacer le MP3 grâce à ses fonctionnalités de compression plus
élevées. Il offre la possibilité de protéger dès l'encodage les fichiers
de sortie contre la copie illégale par une technique nommée gestion
numérique des droits (ou GND).
.OGG Vorbis (ou OGA): formats et codecs multimédias ouverts, libres
et dégagés de tout brevet. Le format de compression audio « Vorbis
» est proposé par la fondation Xiph.Org. Moins populaire que le MP3,
il lui est pourtant supérieur en terme de qualité à poids égal. Débit
variable : le débit s'adapte à la musique pour conserver une qualité
sonore constante. Bitrate : débit instantané. CBR (Constant Bit Rate) /
VBR (Variable Bit Rate)
.RA: .ra (real audio), .rv (real video), .rm (real media), .ram (real audio
metadata). Famille de codecs audio propriétaires (RealNetworks).
Très ancien, il permet de diffuser de la musique sur internet
35 en utilisant
la technique du streaming.
V. Compression

Motivations:
 Volume d’informations de plus en plus grand
 Stockage: capacités de stockage limitées !!!
 Transmission: bande passante des réseaux très chère

Solutions:
 Augmenter les débits des réseaux (infrastructure)
 Réduire la taille des données: compression

36
V. Compression: Classification des
algorithmes de compression

La compression sans perte (réversible)


 Après décompression, on retrouve exactement les données de la source
 Taux de compression max obtenu de l’ordre de 40% (insuffisant parfois)
 Les algorithmes sont indépendants du type des données (image, son,
vidéo…)

37
V. Compression: Classification des
algorithmes de compression

La compression avec perte (irréversible)


 Une dégradation est acceptée sous la réserve qu’elle soit indiscernable
et n’affecte pas la qualité du signal
 Ce type de compression exploite les faiblesses de l’homme
 Applications:
 Image : JPEG
 Vidéo : MPEG
 Son : MPEG
 Taux de compression très performants allant à 90%

38
V.1 Méthodes de compression 39
 Elles se basent sur des méthodes de codage.
 Un CODEC (pour COder DECoder) est un traitement logiciel utilisé
pour appliquer un taux de compression à un fichier audio (on dit
aussi coder), et ensuite pour décompresser (ou décoder) le fichier
compressé.
 2 types de compression:

• Compression sans perte :


 Codage RLE (Run Length Encoding),
 Codage Huffman,
 Codage LZW.
• Compression avec perte :
 MP3, Ogg Vorbis,
 JPEG,
 MPEG.
V.2 Compression sans perte 40

• Codage RLE :
 Toute suite de bits identiques est remplacée par
un couple (nbre occurrence, bit).
• Codage Huffman :
 Coder ce qui est fréquent sur peu de place et
coder sur des séquences plus longues ce qui
revient rarement.
• Codage LZW : des séquences plus longues
(code zip et format gif)
Des successions de caractères se retrouvent plus
souvent que d'autres ; on les remplace40
par un
nouveau caractère, en construisant au fur et à
mesure un dictionnaire.
V.2 Compression sans perte: codage RLE
(Run Length Encoding)
 la compression (ou compactage) : Pour une même donnée, on essai de
trouver la représentation la plus compacte possible. On peut facilement
passer de l'un à l'autre:
 On repère les répétitions et on les note de façon plus compacte.
 On peut par exemple utiliser un symbole spécial, comme * pour indiquer une répétition.

AAAAABBBCDDDD compactage *5ABBBC*4D

AAAAABBBCDDDD décompactage *5ABBBC*4D

*5A on répète 5 fois A


BBB on laisse tel quel (*3B n'est pas plus compacte que BBB)
C on laisse tel quel
*4D on répète 4 fois D (c'est plus compacte que
41 DDDD)
V.2 Compression sans perte: codage RLE
(Run Length Encoding)
Exemple: AAAAABBBCDDDD
Taille avant compression (ASCII étendue) =
13*8 = 104 bits
Séquence compressée: *5ABBBC*4D
Entête : *
Taille après compression =10*8 = 80 bits
Taux de compression C= 0.769 (soit 76.9%)
Gain de compression 1-C= 0.25 (soit 25%)
42
V.2 Compression sans perte: codage RLE
(Run Length Encoding)

43
V.2 Compression sans perte: codage RLE
(Run Length Encoding)

Ligne par ligne Colonne par colonne


1 Wwwbwwww 1 wwwbwwww
2 wwbwbwww 2 wwbbwwww
3 wbwwwbww 3 wbwbwwww
4 Bbbbbbbw 4 bwwbbbbb
5 wwwbwwww 5 wbwbwwww
6 Wwwbwwww 6 wwbbwwww
7 Wwwbwwww 7 wwwbwwww
8 wwwbwwww 8 wwwwwwww

Compression CpC:
Compression LpL:
41 bits
42 bits
44 Tc=41/64 = 0.64
Tc=42/64 = 0.75
Avant compression : on a 8*8 pixels = 64 pixels (1 pixel sur 1 bit)
 1 wwwbwwww wwwb*6wbwb*4wbwwwbww*7b
 2 wwbwbwww
 3 wbwwwbww
 4 bbbbbbbw
 5 wwwbwwww
 6 Wwwbwwww
 7 Wwwbwwww
 8 wwwbwwww
IV.1 Compression sans perte: codage
Huffman
 David Huffman a proposé en 1952 une méthode statistique qui permet
d'attribuer un mot de code binaire aux différents symboles à compresser
(pixels ou caractères par exemple).
 La longueur de chaque mot de code n'est pas identique pour tous les
symboles:
 les symboles les plus fréquents (qui apparaissent le plus souvent) sont
codés avec de petits mots de code, tandis que les symboles les plus rares
reçoivent de plus longs codes binaires.
 On parle de codage à longueur variable (en anglais VLC pour variable
code length)

46
IV.1 Compression sans perte: codage
47
Huffman
 Le codage de Huffman réalise la compression de données en utilisant
un nombre inférieur de bits pour la représentation des caractères avec
une apparition plus fréquente.
 Soit " bonjourtous " la séquence demande 77 bits.
Caractére ASCII Binaire
b 62 1100010
o 6f 1101111
n 6E 1111110
j 6A 1101100
u 75 1110101
r 72 1110010
t 74 1110110
s 73 1110011

Le code numérique de la séquence à compresser est:


62 6F 6E 6A 6F 75 72 74 6F 75 73
La suite de bits correspondante est:
1100010 110111 1101110 1101100 1101111 1110110 1110010 1110110
47 1101111
1110101 1110011
IV.1 Compression sans perte: codage
Huffman
 Table des fréquences d’apparition
 Pour chaque symbole S de la séquence S, déterminer la probabilité
pi (nombre d’occurrences divisé par le nombre total de symboles)
 Exemple : S = bonjourtous

Alphabet probabilité
b
j
n
r
s
t
48
u
o
IV.1 Compression sans perte: codage
Huffman
 Table des fréquences d’apparition
 Pour chaque symbole S de la séquence S, déterminer la probabilité
pi (nombre d’occurrences divisé par le nombre total de symboles)
 Exemple : s = bonjourtous

Alphabet probabilité
b 1/11=0,09
j 1/11=0,09
n 1/11=0,09
r 1/11=0,09
s 1/11=0,09
t 1/11=0,09
49
u 2/11=0,18
o 3/11=0,27
IV.1 Compression sans perte:
codage Huffman
 Construction de l’arbre de Huffman
1) Ranger les symboles par ordre décroissant de fréquences
2) Combiner les 2 symboles les moins probables p et p
3) Former, à partir de ces 2 symboles, un nœud dont la probabilité est la
somme p +
4) Ignorer les deux nœuds d’origine
5) Revenir à l’étape 2 jusqu’à obtenir un seul nœud de probabilité 1

50
IV.1 Compression sans perte: 51
codage Huffman
 Etape 1: trier par nombre d’apparition dans le sens décroissant:

Alphabet probabilité
Alphabet probabilité

b 1/11=0,09
o 3/11=0,27

j 1/11=0,09
u 2/11=0,18

n 1/11=0,09
t 1/11=0,09

r 1/11=0,09
s 1/11=0,09

s 1/11=0,09
r 1/11=0,09

t 1/11=0,09 n 1/11=0,09

u 2/11=0,18 j 1/11=0,09
51

o 3/11=0,27 b 1/11=0,09
 Etape 2,3,4,5

Symb 1ère 2ème 3ème 4ème 5ème 6ème 7ème


classific classific classific classific classific classific classific
et ation ation ation ation ation ation ation
prob
o=0,27 0.27 0.27 0.27 0.36 0.36 0.63

u=0,18 0.18 0.18 0.18 0.27 0.36 1

t=0,09 0.18 0.18 0.18 0.18 0.27 0.36

s=0,09 0.09 0.18 0.18 0.18

r=0,09 0.09 0.09 0.18

n=0,09 0.09 0.09

j=0,09 0.09
52
b=0,09
 Etape 2,3,4,5

Symb 1ère 2ème 3ème 4ème 5ème 6ème 7ème


classific classific classific classific classific classific classific
et ation ation ation ation ation ation ation
prob
o=0,27 0.27 0.27 0.27 0.36 0.36 0.63

u=0,18 0.18 0.18 0.18 0.27 0.36 1

t=0,09 0.18 0.18 0.18 0.18 0.27 0.36

s=0,09 0.09 0.18 0.18 0.18

r=0,09 0.09 0.09 0.18

n=0,09 0.09 0.09

j=0,09 0.09
53
b=0,09
 Etape 2,3,4,5

Symb 1ère 2ème 3ème 4ème 5ème 6ème 7ème


classific classific classific classific classific classific classific
et ation ation ation ation ation ation ation
prob
o=0,27 0.27 0.27 0.27 0.36 0.36 0.63

u=0,18 0.18 0.18 0.18 0.27 0.36 1

t=0,09 0.18 0.18 0.18 0.18 0.27 0.36

s=0,09 0.09 0.18 0.18 0.18

r=0,09 0.09 0.09 0.18

n=0,09 0.09 0.09

j=0,09 0.09
54
b=0,09
 Etape 2,3,4,5

Symb 1ère 2ème 3ème 4ème 5ème 6ème 7ème


classific classific classific classific classific classific classific
et ation ation ation ation ation ation ation
prob
o=0,27 0.27 0.27 0.27 0.36 0.36 0.63

u=0,18 0.18 0.18 0.18 0.27 0.36 1

t=0,09 0.18 0.18 0.18 0.18 0.27 0.36

s=0,09 0.09 0.18 0.18 0.18

r=0,09 0.09 0.09 0.18

n=0,09 0.09 0.09

j=0,09 0.09
55
b=0,09
 Etape 2,3,4,5

Symb 1ère 2ème 3ème 4ème 5ème 6ème 7ème


classific classific classific classific classific classific classific
et ation ation ation ation ation ation ation
prob
o=0,27 0.27 0.27 0.27 0.36 0.36 0.63

u=0,18 0.18 0.18 0.18 0.27 0.36 1

t=0,09 0.18 0.18 0.18 0.18 0.27 0.36

s=0,09 0.09 0.18 0.18 0.18

r=0,09 0.09 0.09 0.18

n=0,09 0.09 0.09

j=0,09 0.09
56
b=0,09
 Etape 2,3,4,5

Symb 1ère 2ème 3ème 4ème 5ème 6ème 7ème


classific classific classific classific classific classific classific
et ation ation ation ation ation ation ation
prob
o=0,27 0.27 0.27 0.27 0.36 0.36 0.63

u=0,18 0.18 0.18 0.18 0.27 0.36 1

t=0,09 0.18 0.18 0.18 0.18 0.27 0.36

s=0,09 0.09 0.18 0.18 0.18

r=0,09 0.09 0.09 0.18

n=0,09 0.09 0.09

j=0,09 0.09
57
b=0,09
 Etape 2,3,4,5

Symb 1ère 2ème 3ème 4ème 5ème 6ème 7ème


classific classific classific classific classific classific classific
et ation ation ation ation ation ation ation
prob
o=0,27 0.27 0.27 0.27 0.36 0.36 0.63

u=0,18 0.18 0.18 0.18 0.27 0.36 1

t=0,09 0.18 0.18 0.18 0.18 0.27 0.36

s=0,09 0.09 0.18 0.18 0.18

r=0,09 0.09 0.09 0.18

n=0,09 0.09 0.09

j=0,09 0.09
58
b=0,09
 Etape 2,3,4,5

Symb 1ère 2ème 3ème 4ème 5ème 6ème 7ème


classific classific classific classific classific classific classific
et ation ation ation ation ation ation ation
prob
o=0,27 0.27 0.27 0.27 0.36 0.36 0.63

u=0,18 0.18 0.18 0.18 0.27 0.36 1

t=0,09 0.18 0.18 0.18 0.18 0.27 0.36

s=0,09 0.09 0.18 0.18 0.18

r=0,09 0.09 0.09 0.18

n=0,09 0.09 0.09

j=0,09 0.09
59
b=0,09
 Etape 2,3 Trier

Priority queue
03/11=0,27
u 2/11=0,18
t 1/11=0,09
s1/11=0,09
r 1/11=0,09
n 1/11=0,09
j 1/11=0,09
b 1/11=0,09
bj/0.18

b j
 Etape 4,5
Trier

Priority queue
03/11=0,27
u 2/11=0,18
bj0.18
t 1/11=0,09
s1/11=0,09
r 1/11=0,09
n 1/11=0,09
nr/0.18 bj/0.18

n r b j
 Etape 4,5
Trier

Priority queue
03/11=0,27
u 2/11=0,18
bj0.18
nr0.18
t 1/11=0,09
s1/11=0,09

st/0.18 nr/0.18 bj/0.18

s t r
n b j
 Etape 4,5

Trier

Priority queue
03/11=0,27
u 2/11=0,18
bj0.18

strn/0.36 nr0.18
st0.18

st/0.18 nr/0.18 bj/0.18

s t r
n b j
 Etape 4,5
Trier

Priority queue
srnt0.36
03/11=0,27
u 2/11=0,18
bj0.18
strn/0.36 bju/0.36

st/0.18 nr/0.18 bj/0.18 u

s t r
n b j
 Etape 4,5

Trier

Priority queue
srnt0.36
obju/0.63
bju0.36
03/11=0,27
strn/0.36 o bju/0.36

st/0.18 nr/0.18 bj/0.18 u

s t r
n b j
 Etape 4,5 Trier
srntobju/~1

0 Priority queue
obju0.63
1
obju/0.63 srnt0.36
1 0

strn/0.36 o bju/0.36
1 0
1 0

st/0.18 nr/0.18 bj/0.18 u


1 0 1 0 1 0
s t r
n b j
Ajouter les poids des fils de l’arbre:
Par convention:
• « 0 » à droite
• « 1 » à gauche
IV.1 Compression sans perte: codage
Huffman: Exemple

 Détermination des mots de code


1) Etiqueter les transitions montantes (à gauche) de 1 et
descendantes (à droite) de 0 (ou bien l’inverse) en cas
d’addition de deux fréquences.
2) Déterminer les mots de code en faisant un parcours à
partir du haut de l’arbre ou du fin du tableau.

67
 Etape 1,2 pour la détermination des mots de code

1/ Ajouter les poids des fils de l’arbre:


Par convention: srntobju/~1
• « 0 » à droite
0
• « 1 » à gauche
2/ Etablissement du tableau des codes 1
 on parcourt l’arbre de haut en bas obju/0.63
Alphabet probabilité code 1 0

b 1/11=0,09 strn/0.36 o bju/0.36


j 1/11=0,09
1 0
n 1/11=0,09 1 0
r 1/11=0,09
st/0.18 nr/0.18 bj/0.18
s 1/11=0,09 u
t 1/11=0,09 1 0 1 0 1 0 000
u 2/11=0,18
s t r
n b j
o 3/11=0,27 100
 Etape 1,2 pour la détermination des mots de code

1/ Ajouter les poids des fils de l’arbre:


Par convention: srntobju/~1
• « 0 » à droite
0
• « 1 » à gauche
2/ Etablissement du tableau des codes 1
 on parcourt l’arbre de haut en bas obju/0.63
Alphabet probabilité code 1 0

b 1/11=0,09 0011 strn/0.36 o bju/0.36


j 1/11=0,09 0010
1 0
n 1/11=0,09 101 1 0
r 1/11=0,09 100
st/0.18 nr/0.18 bj/0.18
s 1/11=0,09 111 u
t 1/11=0,09 110 1 0 1 0 1 0 000
u 2/11=0,18 000
s t r
n b j
o 3/11=0,27 01 100
IV.1 Compression sans perte: 70
codage Huffman
Exemple de calcul de gain
Alphabet probabilité code

b 1/11=0,09 0011  Etude de l’efficacité


j 1/11=0,09 0010
 Taille après compression ?
n 1/11=0,09 101
 Taux de compression ?
r 1/11=0,09 100
 Gain ?
s 1/11=0,09 111
t 1/11=0,09 110
u 2/11=0,18 000

o 3/11=0,27 01

70
IV.1 Compression sans perte: 71
codage Huffman
Exemple de calcul de gain
Alphabet probabilité code

b 1/11=0,09 0011  Etude de l’efficacité


j 1/11=0,09 0010
 Taille après compression ?
n 1/11=0,09 101
 2 lettres sur 4 bits + 4 lettres sur 3 bits + 2 fois
r 1/11=0,09 100 lettre ‘u’ sur 3 bits +3 fois lettre ‘o’ sur 2 bits
=32 bits
s 1/11=0,09 111
t 1/11=0,09 110  Taux de compression ? 32/77 = 0.42
u 2/11=0,18 000  Gain ? 1 - 0.42= 0.58

o 3/11=0,27 01

71
IV.1 Compression sans perte: 72
codage Huffman
Exemple 2

 Texte a coder : HOURRA HOURRA HOURRRRA

72
IV.1 Compression sans perte: 73
codage Huffman VS RLE
Exemple 3
 1/ Codage RLE
Sens de compression, 4 bits pour chaque pixel
 2/ Codage Hufmann
7 7 9 9 Avant compression :
4(L)*4(c)*4(bits)=64 bits
Image : 9 15 11 11
Alphabet probabilité code
11 11 11 11
0 0 0 0 11 6/16=0.375
0 4/16=0.25

RLE : 7799915#611#40  Tc=14 pixels * 4bits =48 bits 9 3/16=0.19


7 2/16=0.125
15 1/16=0.062
73
IV.1 Compression sans perte: 74
codage Huffman VS RLE
Exemple 3
Alp probabilité
hab
et
11 6/16=0.375 0.375 0.38 0.62 1

0 4/16=0.25 0.25 0.375 0.38


9 3/16=0.19 0.19 0.25
7 2/16=0.125 0.19
15 1/16=0.062

74
 L’arbre Huffman 0111579/1
1

011/0.62
0
1 0

0 11
0.25 0.375 1579/0.38
0
1
157/0.19
9
Alphabet probabilité code 0.19 1 0

11 6/16=0.375 10 7 15
0 4/16=0.25 11
9 3/16=0.19 01
Huffman : 6*2 +4*2 +3*2 +2*3+1*3 =35 bits
7 2/16=0.125 001
15 1/16=0.062 000
IV.1 Compression sans perte: codage
Huffman
Exemple

 La compression
 Restituer chaque symbole par le mot de code correspondant
selon l’arbre de Huffman
 La décompression
 Suivre la règle du préfixe ou utiliser l’arbre de Huffman
 Entête nécessaire pour le décodage (la table de codage doit
être transmise)

76
IV.1 Compression sans perte: codage
77
Huffman
Décompression
 Pour la décompression, vous lisez l'entête du fichier (On cherche la
combinaison qui se trouve dans le dictionnaire).
 puis, pour chaque bit lu, vous descendez dans votre arbre à chaque
feuille terminale,
 Exemple: à partir de l’arbre de codage obtenue précédemment décoder
la séquence suivante: 001101101110010000100

taille _ compressé
C
 On définit le ratio de compression : taille _ initiale

 Le problème est que la construction de l'arbre prend beaucoup plus de


temps (l'arbre est plus gros, il y 65536 doublets possibles
77
de
caractères ASCII étendu par exemple). De même, l'en-tête prend une
place considérable.
 Décompression

srntobju/~1

0
1
0011011011100100001000 obju/0.63
bontouou
1 0

strn/0.36 o bju/0.36
1 0
1 0

st/0.18 nr/0.18 bj/0.18 u


1 0 1 0 1 0 000
s t r
n b j
100
79
IV.2.Compression avec perte
• La compression sans perte est pour les
fichiers multi-média car le récepteur
(Système auditif, SVH) n'est pas sensible à
toutes les variations (fréquences) du signal.
• MP3, Ogg Vorbis, JPEG, MPEG...
• Ces compressions se basent sur une autre
représentation du signal (représentation
fréquentielle et non temporelle)

79
80
IV.2.Compression avec perte
Représentation fréquentielle d’un signal

Flûte
fondamental : 440
Hz 3 harmoniques

80
81
IV.2.Compression avec perte
Principe de la compression MP3
1. Division du signal audio en plusieurs échantillons
2. Traduction des échantillons temporels en représentation
fréquentielle ( TFD : Transformée de Fourier Discrète),
3. Découpage en des intervalle de fréquence: plusieurs bandes
spectrales (32 bandes critiques)
4. Analyse selon le modèle psycho-acoustique
a) Toute fréquence en dessous du seuil d’écoute est éliminée
b) Toute composante masquée par une autre est éliminée
5. Quantification et codage: Codage Huffman pour traduire les
données.
6. Formatage du flux et correction d’erreurs 81
IV.2.Compression avec perte
La norme mp3

82
IV.2.Compression avec perte
Principe de la compression MP3
 Modèle psycho-acoustique
 Masquage fréquentiel
 Deux sons successifs de fréquences très proches sont fusionnés en
une seule fréquence:
 Même instant: un seul son : celui dont l’amplitude est plus forte
 Masquage temporel
 Un son de forte amplitude est perçu plus longtemps (écho) et masque
les sons qui suivent.

83
IV.2.Compression avec perte
La norme mp3

 La compression MPEG layer 3 consiste à retirer des données audio les


fréquences inaudibles pour l'auditeur moyen dans des conditions
habituelles d'écoute.
 La compression vise donc à analyser les composantes d'un signal
audio, et de ne conserver que les sons « audibles ».
 L'oreille humaine est capable de discerner, en moyenne, des sons
entre 0.02 kHz et 20 kHz, sachant que sa sensibilité est maximale pour
des fréquences entre 2 et 5 kHz (la voix humaine est entre 0.5 et 2
kHz), suivant une courbe donnée par la loi de Fletcher et Munson.
 La compression consiste à déterminer les sons que nous n'entendons
pas et à les supprimer, il s'agit donc d'une compression destructive,
c'est-à-dire avec une perte d'information.

84
IV.2.Compression avec perte
La norme mp3

 Pour l'encodage de fichiers son en MP3 on parle plutôt en terme de


bitrate que de taux de compression.
Le bitrate est le nombre de bits autorisés en 1 seconde.
On aura donc la relation suivante : plus on veut compresser un morceau
(pour qu'il prenne le moins de place possible) plus le bitrate à choisir
devra être faible.
 Evidemment, plus on compresse et moins la qualité audio est bonne.
Il faut faire un compromis taille du fichier/qualité audio.
Ce compromis peut être dicté par vos exigences mais aussi par
l'utilisation que vous voulez faire de vos fichiers MP3. En effet, vous pouvez
être peu exigeant si vos MP3 sont destinés à votre baladeur et être très
exigeant pour une écoute sur chaîne Hifi !
 Un bon compromis consiste à utiliser un bitrate de 128 kbits/s.

85
IV.2.Compression avec perte
La norme mp3

86
IV.2.Compression avec perte
Exemple de compression MP3 simplifié

 Selon les étapes décrites précédemment:


 On considère un signal.
 On notera r le facteur de compression souhaité. (un facteur 3 signifie
que le fichier compressé est 3 fois plus petit que l’original)
 Réalisez les étapes de compression en calculant un seuil s tel que :
- Toutes les fréquences de puissance inférieure à s seront négligées
- les fréquences de puissance supérieure à s seront gardées ;
- le pourcentage de fréquences gardées (100/r)% correspond à un
facteur de compression de r.

87

Vous aimerez peut-être aussi