Académique Documents
Professionnel Documents
Culture Documents
Outils
Marco Cagnazzo
17 septembre 2012
Plan
1 Principes fondamentaux
Compression
Critères d’évaluation de un algorithme de compression
2 Outils
Codage sans pertes
Quantification
L’oeil
Lumière transformée en impulsion nerveuse par les récepteurs (rétine)
Cônes (6÷7 millions, au centre de la rétine) : très sensibles aux
couleurs, une bonne résolution, demandent beaucoup de lumière
Bâtonnets (75÷150 millions) : sensibles à l’intensité lumineuse,
faible résolution, très sensibles à faible luminosité
180000
Blind spot Cônes
Nombre de récepteurs par mm2
Bâtonnets
135000
90000
45000
80 60 40 20 0 20 40 60 80
Degrees
Perception de la lumière
Luminosité perçue : fonction logarithmique de
l’intensité
Dynamique des valeurs d’intensité : ≈ 1010
(100dB)
Le système visuel ne peut pas opérer sur cette
échelle simultanément
Changements de la sensibilité globale,
dynamique beaucoup plus limitée
Intensité lumineuse
Luminosité perçue : ce n’est pas une simple Intensité perçue
fonction de l’intensité
2
La sensibilité au
contrast est
% Constrast
l’habilité à discerner
6 différents niveaux
de luminosité
Maximum à environ
2-5 cycles par
25 degré
100
240 120 60 30 15
Pixels per cycle
Perception de la couleur
Absorption
65% sensible au rouge
33% sensible au vert
2% sensible au bleu (mais très sensibles)
Sensation de la couleur :
correspond au tristimulus
400 450 500 550 600 650 700
Couleur obtenue comme
Wavelenght [nm]
combinaison des couleurs
primaires
n
fn,m = fk
N
= = = =
Y Y Y Y
+ + + +
1 2 3 4 1 2 3 4 1 2 3 4 1 2 3 4
1/4 horizontal resolution 1/2 horizontal resolution 1/2 horizontal resolution Full horizontal resolution
Full vertical resolution 1/2 vertical resolution Full vertical resolution Full vertical resolution
Quantification
Résolution de la vidéo
Échantillonnage spatial et temporel
Compression : Motivations
Exemple 1 : Libraire de photos numériques
Compression : Motivations
Exemple 2 : Télévision
système analogique
⇒ bande de fréquence : 6 MHz
système numérique
1 composante de luminance 576 × 720
2 composantes de chrominance 288 × 360
quantification sur 8 bits
25 images par seconde
R ≈ 125 Mbps
⇒ bande de fréquence ?
2 heures de film > 100 Go
Fondements de la compression
Algorithmes symétriques
Même complexité au codeur et au décodeur
Pas de compensation de mouvement
Faible rapport de compression
Temps réel
Algorithmes asymétriques
Codeur beaucoup plus complexe du décodeur
Estimation/compensation du mouvement
Rapport de compression élevé
Usage “off line”, distribution sur supports de mémoire
Débit
Qualité et distorsion
Qualité et distorsion
Effets spatiaux
Intensité lumineuse
Intensité perçue
Perception de la vidéo
Scene
Change
Besoins contradictoire :
⇓ Débit
⇑ Qualité
⇓ Complexité
⇑ Robustesse
⇓ Retard
Plan
1 Principes fondamentaux
Compression
Critères d’évaluation de un algorithme de compression
2 Outils
Codage sans pertes
Quantification
Choix du code
Information et entropie
Codage entropique
Théorème de Shannon:
Taux de codage code optimale ≥ Entropie de la source (1)
du coup le nom Codage Entropique.
Codage de Huffman
Symbole Probabilité
A 0.4
B 0.2
C 0.15
D 0.15
E 0.05
F 0.05
Codage de Huffman
A A
40% 40%
B B
20% 20%
C C
15% 15%
D D
15% 15% 0
25%
E E
5% 0 5% 0 1
10% 10%
F 1 F 1
5% 5%
Codage de Huffman
A
40%
0
B
20% 0 100%
35%
C 1 0 1
15%
60%
D
15% 0 1
25%
E
5% 0 1
10%
F 1
5%
Codage de Huffman
Code de Huffman
18
Distribution des
16
lettres dans un
14
texte français
12
% Freq
10
0
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
Codage de Huffman
1
H(X K ) → H(X ) ≤ H(X )
K
2
Les trigrams plus communs :
K
L
M
N
O
P
1.5 ait ent les
Q
R
1.59% 1.25% 0.94%
1
S
T lle des ant
U
V
W
0.5
0.78% 0.72% 0.70%
X
Y
que our ien
Z
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
0
0.67% 0.63% 0.60%
Distribution des digrams dans un texte
français
A B C D E F
0 0.4 0.6 0.75 0.9 0.95 1
A B C D E F
0 0.4 0.6 0.75 0.9 0.95 1
A B C D E F
0 0.4 0.6 0.75 0.9 0.95 1
A B C D E F
0 0.4 0.6 0.75 0.9 0.95 1
0.297
0.24 0.3
A B C D E F
0 0.4 0.6 0.75 0.9 0.95 1
0.297
0.24 0.3
A B C D E F
0 0.4 0.6 0.75 0.9 0.95 1
0.297
0.24 0.3
x̂7
x̂6
x̂5
d0 d1 d2 d3 d4
d5 d6 d7 d8
x̂4
x̂3
x̂2
x̂1
Typiquement,
1) Θi = (di−1 , di )
2) x̂i ∈ Θi
d0 di−1 di dL
x̂i
Θi
Quantification uniforme
Simple
Minimise l’erreur maximale
Optimale pour v.a. uniforme
Courbe D(R) pour une v.a. uniforme :
D = σX2 2−2R
D = KX σX2 2−2R
Quantification optimale
Quantification optimale
Algorithme de Max-Lloyd
Algorithme de Max-Lloyd
1 initialiser les régions (p.e. uniforme)
2 trouver les meilleures régions pour le dictionnaire donné
x̂i + x̂i+1
di = , i ∈ {1, . . . , L − 1}
2
3 trouver le meilleur dictionnaire pour les régions données
R
Θ xfX (x)dx
x̂i = E [X |X ∈ Θi ] = R i
Θi fX (x)dx
Quantification uniforme
Exemple de quantification
Quantification uniforme
Exemple de codage
Quantification uniforme
Exemple de codage
Quantification uniforme
Exemple de codage
Quantification uniforme
Exemple de codage
Quantification uniforme
Exemple de codage
Quantification uniforme
Exemple de codage
Quantification uniforme
Exemple de codage
Quantification
Conclusion
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
−0.2 −0.2
−0.4 −0.4
−0.6 −0.6
−0.8 −0.8
−1 −1
0 20 40 60 80 100 120 140 160 180 200 −1 −0.5 0 0.5 1
Quantification vectorielle
Introduction
Généralisation de la QS à l’espace R N
La QS est un cas particulier de la QV
Les régions de décisions sont délimité par des hyperplans
orthogonaux aux axes
Les représentants sont alignés parallèlement aux axes
Gains potentiels de la QV
Gain géométrique : forme arbitraire des régions de décision
et position arbitraire des représentants
Gain de corrélation : on exploite directement la corrélation
du signal
Propriétés de la VQ
Quantification vectorielle
Définition
Q : x ∈ RK → y ∈ C = {b x L } ⊂ RK
b2 , . . . b
x1 , x
Quantification vectorielle
VQ comme codage et décodage
x i y
E D
{Θi } C = {b
xi }i
Quantificateur régulier
Régions convexes
b
xi ∈ Θi
Limites et applications de la VQ
Quantification scalaire
Exemple de codage
Quantification vectorielle
Exemple de codage
Quantification scalaire
Exemple de codage
Quantification vectorielle
Exemple de codage
Quantification vectorielle
Exemple de codage
Quantification scalaire
Exemple de codage
Quantification vectorielle
Exemple de codage
Quantification vectorielle
Exemple de codage
Exemples de dictionnaires
N = 4, L ∈ {4, 16, 64}
Quantification : bilan
Quantification scalaire
Simple
Modèles débit-distorsion
Allocation des ressources
Seule est peu efficace (transformée, prediction)
Quantification vectorielle
Complexe
Théoriquement optimale
Difficile à utiliser en pratique
Difficile à utiliser conjointement à autres techniques