Académique Documents
Professionnel Documents
Culture Documents
3
Le son se propage en faisant vibrer
l’air autour de la source
Chaque branche d’air se comprime
et se dilate périodiquement
La perturbation cesse quand la
source se tait
4
Figure 3 : Propagation du son dans l’air
Une onde sonore est caractérisée par trois paramètres essentiels, liés
entre eux :
sa vitesse; la célérité
5
L’onde sonore se propage jusqu’au récepteur à la vitesse c
dans la direction x
Dans l’intervalle de temps T elle parcours la distance
c*
est la longueur d’onde de l’onde sonore, c’est la période
spatiale
f est la fréquence
T=1 / f est la période temporelle
6
Mesure d’un signal sonore:
7
L'oreille humaine peut en moyenne percevoir des sons ayant une intensité sonore supérieure à 10-
12 W.m-2.
Cette intensité sonore minimale est noté I0 = 10-12 W.m-2 et appelée seuil d'audibilité.
Un son dont l'intensité sonore est très forte peut provoquer une douleur, ainsi qu'une perte
d'audition partielle ou totale
Le seuil de douleur correspond à une valeur d'environ 10 W.m-2 (intensité maximale)
L'intensité sonore perceptible prend des valeurs entre I0 = 10-12 W.m-2 et 10 W.m-2 soit un facteur
de 1013 (10 000 milliards !) entre la limite inférieure et la limite supérieure.
Le niveau d'intensité sonore d'un son audible par l'oreille humaine est donc compris entre 0 et 130
dB.
8
Exemple de niveaux sonores
9
Audition
10
Limite des fréquences audibles selon les espèces:
11
capteur de son
Exemple : le microphone électrostatique
Principe : l’onde sonore déforme une membrane qui entraine la variation
de l’épaisseur de la capacité
dC
u(t) RU i(t)
dt U Air
u(t) R
S
C
e
enveloppe
13
LA 440 Hz
1 1 1 1
Onde * sin(2 * * f 0 t) * sin(2 * * f1t) * sin(2 * * f 2 t) * sin(2 * * f 3 t)
2 2 2 2
17
On obtient une forme d’onde en dents de scie:
I. Propriétés des signaux analogiques
sonores
1.4. Représentation fréquentielle de la forme d’onde
1 1 1 1
Onde * sin(2 * * f 0 t) * sin(2 * * f1t) * sin(2 * * f 2 t) * sin(2 * * f 3 t)
2 2 2 2
Amplitude Amplitude
1
0,5
f0 f1 f2 f3 Fréquence
Temps
18
II. Introduction à l’analyse de Fourier
Décomposition en série de Fourier
1
Tout signal périodique x p (t ) de période T 0
f 0
peut s'écrire: Joseph Fourier,
1768-1830
x p (t ) a0 an cos(2 * * n * f 0 * t ) bn sin(2 * * n * f 0 * t )
n1 n1
19
2 T0 2 T0
an x p (t ) cos(2 * * n * f0 * t )dt bn x p (t ) sin(2 * * n * f0 * t )dt
T0 0 T0 0
II. INTRODUCTION À L’ANALYSE DE FOURIER
DÉCOMPOSITION EN SÉRIE DE FOURIER
Exemple, cas d'un signal carré : T
T
2
Spectre de phase
Spectre d'amplitude
f 3f 5f 7f f 3f 5f 7f
1
ao an 0 n Arctg()
2
2
2
bn si n impair bn 0 sinon
n
n 3 n 11 n 15 n 21
20
II. INTRODUCTION À L’ANALYSE DE FOURIER
DÉCOMPOSITION EN SÉRIE DE FOURIER
1 N 1
2 kn 2 kn Cas d’un signal
S ( f )
N
s ( n ) cos
N
i sin
N
discret
n 0
Théorème de Shannon
L’expérience montre que l’on ne perd pas d’information en échantillonnant le
signal si:
f e 2 fsignal
22
III. Numérisation du signal: Echantillonnage
Applications
24
Application :
Soit le signal échantillonné se(t) dont les échantillons sont
compris entre les tensions Vmin et Vmax.
25
III. Numérisation du signal
CALCUL du DÉBIT ET TAILLE D’UN SON NUMÉRIQUE
Quelques exemples de résolutions (nombres de bits) fréquemment utilisées:
Son qualité téléphone: 8000 Hz 8 bits
Son qualité radio FM: 22050 Hz 16 bits
Son qualité CD: 44100 Hz 16 bits
Son qualité DVD: 48000 Hz 24 bits
Son audio professionnel: 96000 et 192000 Hz 24 et
32 bits.
Le débit et la taille d’un son numérisé:
croissent proportionnellement à
la fréquence d’échantillonnage fe
et à la longueur binaire des échantillons N
et décroissent par contre proportionnellement au taux de
26
compression.
III. Numérisation du signal
CALCUL du DÉBIT ET TAILLE D’UN SON NUMÉRIQUE
28
III. Numérisation du signal
CALCUL du DÉBIT ET TAILLE D’UN SON NUMÉRIQUE
29
III. Numérisation du signal
CALCUL du DÉBIT ET TAILLE D’UN SON NUMÉRIQUE
Taux de compression
Le taux de compression peut être calculé
indifféremment en faisant le rapport des tailles ou le
rapport des débits du son avant compression et du son
compressé.
C= Taille finale/taille initiale
Gain de compression =
Quantité d’information supprimé = 1-C
Ainsi, si on applique un taux de compression C à un son
numérique,
f e * N * t * Nb
Sa taille est divisée par C et devient bit
C
30
Et son débit est divisé par C et devient f e * N * Nb bps
C
III. Numérisation du signal
CALCUL du DÉBIT ET TAILLE D’UN SON NUMÉRIQUE
Préfixes SI / Préfixesbinaire
Les premiers informaticiens n’ont pas éprouvé le besoin d’inventer de
nouveaux préfixes :
Ils ont utilisé les préfixes SI en changeant légèrement leurs valeurs (par exemple kilo → 1024
au lieu de 1000).
Si l’erreur ainsi faite est faible pour les premières capacités mémoires qui s’exprimaient en ko
(2,4 %),
elle devient difficilement tolérable dans le cas des capacités actuelles qui s’expriment en
To (10 %).
Création de préfixes binaires
32
IV. LES FORMATS DE FICHIER SON 33
Principaux formats de fichier non compressés:
.WAV : Mise au point par Microsoft et IBM, le format Wave nommé
aussi PCM est le format son standard de Windows. Il est limité à un
poids de 2Go. Le format "Disque compact" 44.1 kHz, 16 bits et stéréo
nous servira de référence pour le calcul du poids et ratio des autres
formats.
.AIFF : format de stockage des sons sur les ordinateurs Macintosh
d'Apple. C'est l'équivalent du format WAV dans le monde Macintosh.
Les résolutions de 8, 16, 20, 24 et 32 bits (à virgule flottante) sont
acceptées.
.RAW : Format audio brut (fichier binaire).
.AU : Le format AU est assez bien répandu grâce à Unix et Linux. La
fréquence d'échantillonnage est comprise entre 1 kHz et 200 kHz.
Mais les applications de rendu audio ne lisent principalement que
trois fréquences d'échantillonnage: 8012.821Hz (codec entré),
22050Hz et 44100Hz.
Les résolutions 8, 16, 20, 24 et 32 bits (flottant) sont33 acceptées.
IV. LES FORMATS DE FICHIER SON 34
Motivations:
Volume d’informations de plus en plus grand
Stockage: capacités de stockage limitées !!!
Transmission: bande passante des réseaux très chère
Solutions:
Augmenter les débits des réseaux (infrastructure)
Réduire la taille des données: compression
36
V. Compression: Classification des
algorithmes de compression
37
V. Compression: Classification des
algorithmes de compression
38
V.1 Méthodes de compression 39
Elles se basent sur des méthodes de codage.
Un CODEC (pour COder DECoder) est un traitement logiciel utilisé
pour appliquer un taux de compression à un fichier audio (on dit
aussi coder), et ensuite pour décompresser (ou décoder) le fichier
compressé.
2 types de compression:
• Codage RLE :
Toute suite de bits identiques est remplacée par
un couple (nbre occurrence, bit).
• Codage Huffman :
Coder ce qui est fréquent sur peu de place et
coder sur des séquences plus longues ce qui
revient rarement.
• Codage LZW : des séquences plus longues
(code zip et format gif)
Des successions de caractères se retrouvent plus
souvent que d'autres ; on les remplace40
par un
nouveau caractère, en construisant au fur et à
mesure un dictionnaire.
V.2 Compression sans perte: codage RLE
(Run Length Encoding)
la compression (ou compactage) : Pour une même donnée, on essai de
trouver la représentation la plus compacte possible. On peut facilement
passer de l'un à l'autre:
On repère les répétitions et on les note de façon plus compacte.
On peut par exemple utiliser un symbole spécial, comme * pour indiquer une répétition.
43
V.2 Compression sans perte: codage RLE
(Run Length Encoding)
Compression CpC:
Compression LpL:
41 bits
42 bits
44 Tc=41/64 = 0.64
Tc=42/64 = 0.75
Avant compression : on a 8*8 pixels = 64 pixels (1 pixel sur 1 bit)
1 wwwbwwww wwwb*6wbwb*4wbwwwbww*7b
2 wwbwbwww
3 wbwwwbww
4 bbbbbbbw
5 wwwbwwww
6 Wwwbwwww
7 Wwwbwwww
8 wwwbwwww
IV.1 Compression sans perte: codage
Huffman
David Huffman a proposé en 1952 une méthode statistique qui permet
d'attribuer un mot de code binaire aux différents symboles à compresser
(pixels ou caractères par exemple).
La longueur de chaque mot de code n'est pas identique pour tous les
symboles:
les symboles les plus fréquents (qui apparaissent le plus souvent) sont
codés avec de petits mots de code, tandis que les symboles les plus rares
reçoivent de plus longs codes binaires.
On parle de codage à longueur variable (en anglais VLC pour variable
code length)
46
IV.1 Compression sans perte: codage
47
Huffman
Le codage de Huffman réalise la compression de données en utilisant
un nombre inférieur de bits pour la représentation des caractères avec
une apparition plus fréquente.
Soit " bonjourtous " la séquence demande 77 bits.
Caractére ASCII Binaire
b 62 1100010
o 6f 1101111
n 6E 1111110
j 6A 1101100
u 75 1110101
r 72 1110010
t 74 1110110
s 73 1110011
Alphabet probabilité
b
j
n
r
s
t
48
u
o
IV.1 Compression sans perte: codage
Huffman
Table des fréquences d’apparition
Pour chaque symbole S de la séquence S, déterminer la probabilité
pi (nombre d’occurrences divisé par le nombre total de symboles)
Exemple : s = bonjourtous
Alphabet probabilité
b 1/11=0,09
j 1/11=0,09
n 1/11=0,09
r 1/11=0,09
s 1/11=0,09
t 1/11=0,09
49
u 2/11=0,18
o 3/11=0,27
IV.1 Compression sans perte:
codage Huffman
Construction de l’arbre de Huffman
1) Ranger les symboles par ordre décroissant de fréquences
2) Combiner les 2 symboles les moins probables p et p
3) Former, à partir de ces 2 symboles, un nœud dont la probabilité est la
somme p +
4) Ignorer les deux nœuds d’origine
5) Revenir à l’étape 2 jusqu’à obtenir un seul nœud de probabilité 1
50
IV.1 Compression sans perte: 51
codage Huffman
Etape 1: trier par nombre d’apparition dans le sens décroissant:
Alphabet probabilité
Alphabet probabilité
b 1/11=0,09
o 3/11=0,27
j 1/11=0,09
u 2/11=0,18
n 1/11=0,09
t 1/11=0,09
r 1/11=0,09
s 1/11=0,09
s 1/11=0,09
r 1/11=0,09
t 1/11=0,09 n 1/11=0,09
u 2/11=0,18 j 1/11=0,09
51
o 3/11=0,27 b 1/11=0,09
Etape 2,3,4,5
j=0,09 0.09
52
b=0,09
Etape 2,3,4,5
j=0,09 0.09
53
b=0,09
Etape 2,3,4,5
j=0,09 0.09
54
b=0,09
Etape 2,3,4,5
j=0,09 0.09
55
b=0,09
Etape 2,3,4,5
j=0,09 0.09
56
b=0,09
Etape 2,3,4,5
j=0,09 0.09
57
b=0,09
Etape 2,3,4,5
j=0,09 0.09
58
b=0,09
Etape 2,3,4,5
j=0,09 0.09
59
b=0,09
Etape 2,3 Trier
Priority queue
03/11=0,27
u 2/11=0,18
t 1/11=0,09
s1/11=0,09
r 1/11=0,09
n 1/11=0,09
j 1/11=0,09
b 1/11=0,09
bj/0.18
b j
Etape 4,5
Trier
Priority queue
03/11=0,27
u 2/11=0,18
bj0.18
t 1/11=0,09
s1/11=0,09
r 1/11=0,09
n 1/11=0,09
nr/0.18 bj/0.18
n r b j
Etape 4,5
Trier
Priority queue
03/11=0,27
u 2/11=0,18
bj0.18
nr0.18
t 1/11=0,09
s1/11=0,09
s t r
n b j
Etape 4,5
Trier
Priority queue
03/11=0,27
u 2/11=0,18
bj0.18
strn/0.36 nr0.18
st0.18
s t r
n b j
Etape 4,5
Trier
Priority queue
srnt0.36
03/11=0,27
u 2/11=0,18
bj0.18
strn/0.36 bju/0.36
s t r
n b j
Etape 4,5
Trier
Priority queue
srnt0.36
obju/0.63
bju0.36
03/11=0,27
strn/0.36 o bju/0.36
s t r
n b j
Etape 4,5 Trier
srntobju/~1
0 Priority queue
obju0.63
1
obju/0.63 srnt0.36
1 0
strn/0.36 o bju/0.36
1 0
1 0
67
Etape 1,2 pour la détermination des mots de code
o 3/11=0,27 01
70
IV.1 Compression sans perte: 71
codage Huffman
Exemple de calcul de gain
Alphabet probabilité code
o 3/11=0,27 01
71
IV.1 Compression sans perte: 72
codage Huffman
Exemple 2
72
IV.1 Compression sans perte: 73
codage Huffman VS RLE
Exemple 3
1/ Codage RLE
Sens de compression, 4 bits pour chaque pixel
2/ Codage Hufmann
7 7 9 9 Avant compression :
4(L)*4(c)*4(bits)=64 bits
Image : 9 15 11 11
Alphabet probabilité code
11 11 11 11
0 0 0 0 11 6/16=0.375
0 4/16=0.25
74
L’arbre Huffman 0111579/1
1
011/0.62
0
1 0
0 11
0.25 0.375 1579/0.38
0
1
157/0.19
9
Alphabet probabilité code 0.19 1 0
11 6/16=0.375 10 7 15
0 4/16=0.25 11
9 3/16=0.19 01
Huffman : 6*2 +4*2 +3*2 +2*3+1*3 =35 bits
7 2/16=0.125 001
15 1/16=0.062 000
IV.1 Compression sans perte: codage
Huffman
Exemple
La compression
Restituer chaque symbole par le mot de code correspondant
selon l’arbre de Huffman
La décompression
Suivre la règle du préfixe ou utiliser l’arbre de Huffman
Entête nécessaire pour le décodage (la table de codage doit
être transmise)
76
IV.1 Compression sans perte: codage
77
Huffman
Décompression
Pour la décompression, vous lisez l'entête du fichier (On cherche la
combinaison qui se trouve dans le dictionnaire).
puis, pour chaque bit lu, vous descendez dans votre arbre à chaque
feuille terminale,
Exemple: à partir de l’arbre de codage obtenue précédemment décoder
la séquence suivante: 001101101110010000100
taille _ compressé
C
On définit le ratio de compression : taille _ initiale
srntobju/~1
0
1
0011011011100100001000 obju/0.63
bontouou
1 0
strn/0.36 o bju/0.36
1 0
1 0
79
80
IV.2.Compression avec perte
Représentation fréquentielle d’un signal
Flûte
fondamental : 440
Hz 3 harmoniques
80
81
IV.2.Compression avec perte
Principe de la compression MP3
1. Division du signal audio en plusieurs échantillons
2. Traduction des échantillons temporels en représentation
fréquentielle ( TFD : Transformée de Fourier Discrète),
3. Découpage en des intervalle de fréquence: plusieurs bandes
spectrales (32 bandes critiques)
4. Analyse selon le modèle psycho-acoustique
a) Toute fréquence en dessous du seuil d’écoute est éliminée
b) Toute composante masquée par une autre est éliminée
5. Quantification et codage: Codage Huffman pour traduire les
données.
6. Formatage du flux et correction d’erreurs 81
IV.2.Compression avec perte
La norme mp3
82
IV.2.Compression avec perte
Principe de la compression MP3
Modèle psycho-acoustique
Masquage fréquentiel
Deux sons successifs de fréquences très proches sont fusionnés en
une seule fréquence:
Même instant: un seul son : celui dont l’amplitude est plus forte
Masquage temporel
Un son de forte amplitude est perçu plus longtemps (écho) et masque
les sons qui suivent.
83
IV.2.Compression avec perte
La norme mp3
84
IV.2.Compression avec perte
La norme mp3
85
IV.2.Compression avec perte
La norme mp3
86
IV.2.Compression avec perte
Exemple de compression MP3 simplifié
87