Vous êtes sur la page 1sur 7

UBBA, D.

ELECTRONIQUE, M2ST, Technologie et protocoles pour le multimédia ChapII(2021/2022)

Chapitre 2. Les signaux multimédia II.1.3. Timbre : est le paramètre qui permet de différencier
Son (Ton ou hauteur tonale, Intensité, timbre, Durée, un son d'un autre son. Il montre la proportion dans laquelle
analyse spectrale …etc), Image, vidéo. Rappels sur la la fréquence fondamentale du son est mélangée à d'autres
compression image. Descriptif sur la Compression des fréquences multiples de la fréquence fondamentale et
signaux Audio. Introduction sur la compression vidéo. appelées sons harmoniques.
Problématique du changement de formats. Edition de II.1.4 Durée : la répétition d'une onde sonore donne à son
documents multimédia. tour la durée du son. Elle s'exprime en secondes et
II.1 Le son : est une onde qui se propage dans l'air et qui correspond au temps pendant lequel l'énergie du son est
est perceptible grâce au détecteur de pression qu'est le perceptible.
tympan, logé dans l'oreille. Ces vibrations sont ensuite Exemple1 : une source émet une puissance acoustique W
converties en signaux transmis au cerveau par le nerf = 3 W, calculer :
auditif. 1. L'intensité acoustique à 5 m de la source, et à 10 m.
Les propriétés de l'onde acoustique peuvent être exprimées 2. Le niveau d'intensité sonore à 5 m, à 10 m.
sous la forme de grandeurs objectives : hauteur tonale, 3. Le niveau de puissance de la source.
-12 2 -12
intensité, timbre et durée. Ces quatre paramètres suffisent à On donne : I0 = 10 W/m ; W0 = 10 W.
décrire globalement un son. **
II.1.1. Ton ou hauteur tonale : le nombre d'oscillations 1. I1 = W/4πd12 = 3/4π.52 = 9,55.10-3 W/m2 , I2 = I1/4 =
d'un son dans un temps donné (1s) est sa fréquence, c'est la 2,39.10-3 W/m2
2. = 10.log I1/I0 = 10.log 9,55.109 = 100 dB , = 94
hauteur tonale ou ton du son perçu (La fréquence
dB
fondamentale). L'oreille humaine répond aux fréquences 3. = 10.log W/W0 = 125 dB
allant de 20 Hz (son grave) à 20 Khz (son aigu). On parle Exemple2 : Les évolutions temporelles de deux sons sont
d’infrasons quand les fréquences sont inférieures à 20 Hz représentées par la Figure 1 (10 ms→7,2 cm ,4T→ 6,6 cm)
et d’ultrasons quand les fréquences sont supérieures à 20 et la figure 2 (10 ms→7,5 cm, 4T→6,8cm).
KHz (Infrasons < plage audible (20HZ-20 KHZ) <
Ultrasons).
II.1.2. L’intensité : l’intensité correspond au volume
d’énergie d’une onde. L’amplitude du son est la mesure du
changement de pression par rapport à une valeur moyenne.
Cette mesure est l’intensité acoustique I qui est la
puissance transportée par unité de surface du front d’onde
Figure1 Figure 2
et s’exprime en [W/m²].
Calcul de l’intensité acoustique, le niveau d’intensité
acoustique, et le niveau de puissance :

- Si une source sonore est caractérisée par sa puissance


acoustique W [W], L’énergie de l’onde acoustique
Figure 3
produite est caractérisée par l’intensité acoustique =
= [W/m²]. d : la distance entre la source et le
point (surface) de mesure.
- La puissance de référence est notée W0 et vaut W0 = 10-12
W.
- L'intensité acoustique au seuil d'audibilité est notée I0 et
vaut I0 = 10-12 W/m2.
- Le niveau d’intensité acoustique (sonore) permet de
prendre en compte la variation de la sensation auditive
avec l’intensité. Il se définit par : = 10 log ( )
- La source se caractérise par son niveau de puissance :
Figure 4
= 10 log ( ) 1. Déterminer la fréquence fondamentale de chaque son.
1 CHAP II :TPM (M2ST,2021/2022)
UBBA, D. ELECTRONIQUE, M2ST, Technologie et protocoles pour le multimédia ChapII(2021/2022)

2. Quelle caractéristique du son est associée à la fréquence Exemple : 1573157 2557255 1573157 070007 2557255
fondamentale d’un son ? 08990899 1573157 08990899
3. L’analyse spectrale du son de la Figure 2 fournit le 1573157 codé par 1
graphique de la Figure 4. 2557255 codé par 2
3.1. À quoi correspondent les différents pics ? 070007 codé par 3
3.2. Quelle caractéristique du son associe-t-on à leur 08990899 codé par 4
présence et à leur amplitude relative ? La séquence donnée devient : 121332414
3.3. Compléter, en justifiant, le spectre de la Figure 1sur - ALAC: L'ALAC (Apple Lossless Audio Codec), est un
de la Figure 4. format de codage sans perte (lossless) créé en 2004 par
*** Apple.
1. f1 = 436 Hz, f2=441 Hz. II.2.2. Algorithme de compression avec perte : la suite
2. La fréquence fondamentale du son traduit sa hauteur. de bits obtenue après les opérations de compression et de
3.1. Les différents pics correspondent aux fréquences des décompression est différente de l’originale mais
harmoniques qui composent le son. l’information reste sensiblement la même, utilisé pour les
Le premier pic est l’harmonique n°1 ou fondamental de types de données : images, sons et vidéos.
fréquence f1 = 441 Hz. Les algorithmes utilisés pour le son sont principalement le
Les pics suivants sont les harmoniques (n° 2, 3, 4 et 5) du MPEG (pour le format MP3), l’AAC (MP3Pro),
son dont les fréquences sont des multiples de f1, telles que l’ATRAC (Sony Minidisc), le PASC (Philips DCC), et
fn = n.f1 avec n Є N enfin les Dolby AC-1, AC-2 et AC-3.
3.2. Le profil spectral caractérise le timbre du son. II.2.3. Etude d’un algorithme : MP3
3.3. Un seul pic : le fondamental dont la fréquence est de Le MPEG-1/2 Audio Layer 3, plus connu sous son
436 Hz. abréviation de MP3, est la spécification sonore du standard
MPEG-1/MPEG-2, du Moving Picture Experts Group
(MPEG). C'est un algorithme de compression audio
capable de réduire sensiblement la quantité de données
nécessaire pour restituer de l'audio, mais qui, pour
l'auditeur, ressemble à une reproduction du son original
non compressé : avec une bonne compression la différence
de qualité devenant difficilement perceptible. L'extension
de nom de fichier est .mp3
Le codage MP3 s’effectue en trois phases :
- Au début de la conversion le programme découpe le
II.2. Descriptif sur la Compression des signaux Audio : fichier audio en petit «paquets» de durée égale, les chunks.
On distingue les algorithmes de compression avec et sans La taille des chunks peut influencer sur la qualité de
perte. conversion.
II.2.1. Algorithmes de compression sans perte : la suite - Puis le programme analyse chaque chunk dans le
de bits obtenue après les opérations de compression et de domaine audible (analyse spectrométrique par transformée
décompression est strictement identique à l’originale, ces de Fourier), cette opération ne produit pas de perte de
algorithmes sont utilisés pour nombreux types de données qualité.
(documents, fichiers exécutables, fichiers textes,…). - Ensuite, le programme utilise un profil
- RLE (Run Length Encoding : Codage par plages): Toute psycho*acoustique pour supprimer les sons que l’oreille
suite de bits ou de caractères identiques est remplacé par humaine ne peut pas entendre, le choix du type de profil est
un couple :(nombre d’occurrence, bit ou caractère répété) déterminant pour la qualité finale.
Exemple1 : AAAAAAAAZZZEEEE devient 7A3Z4E. - Pour finir, les informations restantes sont codées dans le
Exemple2 :125 fichier MP3 en appliquant un algorithme de Huffman,
125 125 125 125 005 005 005 005 000 255 255 255 255 07 (algorithme de codage de type ZIP) cela permet de gagner
6 076 076 076 076 076 devient encore presque 20% sur la taille du fichier sans perte de
0061250040050010000042555006076 qualité.
- LZW (Lempel Ziv Welch) : Codage par dictionnaire (une II.3. L’image : est une perception visuelle d’un objet
table de données contenant des chaînes de caractères), peu donné par une surface réfléchissante de lumière et de
efficace pour les images et donne de bons résultats pour les couleurs.
textes et les données informatiques en général (plus de 50
II.3.1. La couleur
%).

2 CHAP II :TPM (M2ST,2021/2022)


UBBA, D. ELECTRONIQUE, M2ST, Technologie et protocoles pour le multimédia ChapII(2021/2022)

A. La couleur en Informatique : la représentation - L’étendu des nuances de gris ou de couleur de chaque


informatique de la couleur nécessite deux facteurs : pixel (dynamique de l’image)
* Il faut avoir une base : une base est un ensemble fini On distingue deux types d’images matricielles et
d'éléments qui ont les propriétés suivantes : vectorielles.
- Toutes les couleurs sont obtenues par combinaison des A. Images matricielles: l'image est considérée comme un
éléments de la base. rectangle constitué de points élémentaires de couleur
- Aucun élément de la base ne peut être une combinaison uniforme, les pixels. Décrire l'image revient alors à
des autres éléments de la base (indépendance). préciser la couleur de chaque point. (BMP, JPEG, GIF,
Exemple: rouge, vert et bleu constituent une base. PNG,…).
* Il faut faire une quantification : limitation du nombre de B. Images vectorielles : l'image est considérée comme un
valeurs que peuvent prendre les éléments de la base. ensemble de figures élémentaires pouvant être décrites par
B. Synthèse additive et soustractive : la synthèse des données mathématiques (coordonnées de points,
additive est la composition de trois couleurs primaires par tangentes en un point d'une courbe, etc.). Le fichier décrit
addition de lumière (par exemple en projetant des spots ces différentes figures, véritables "objets" graphiques
lumineux sur un fond noir) à télévision, moniteur indépendants les uns des autres. (DXF, PIC, WMF, SVG,
d'ordinateur. SWF, PDF,…).
- Couleurs primaires : rouge, vert, bleu. II.4. Rappels sur la compression image : il existe
- Couleurs secondaires : cyan, magenta, jaune. différents algorithmes de compression d’images :
- La superposition des trois couleurs donne le blanc et - Sans perte (RLE, LZW, Codage de Huffman) ;
l'absence de couleur le noir. - Avec perte : Par transformation : DCT, DWT, FT, Par
La synthèse soustractive est la composition de trois prédiction : DPCM, ADPCM.
couleurs primaires par soustraction de lumière (par A. Codage de Huffman : réduire le nombre de bits
exemple en superposant des filtres sur une surface blanche) utilisés pour le codage des caractères fréquents dans un
à peinture, impression. texte et d’augmenter ce nombre pour des caractères plus
- Couleurs primaires : cyan, magenta, jaune. rares.
- Couleurs secondaires : rouge, vert, bleu. Le principe de l’algorithme de compression est le suivant:
- La superposition des trois couleurs donne le noir et le - On cherche la fréquence des caractères ;
fond est blanc en l'absence de couleur. - On trie les caractères par ordre décroissant de fréquence ;
II.3.2. Modélisation Informatique de la couleur : - On construit un arbre pour donner le code binaire de
A. Mode RVB : une image RVB est composée de trois chaque caractère.
couches de couleurs: rouge, verte et bleue. En fait chaque Exemple : une imprimante à jet d'encre utilise 3 types de
pixel d'une image RVB est un mélange de ces trois cartouches : jaune, cyan, magenta. Préciser les cartouches
couches dans des proportions différentes: une certaine qui sont utilisées pour imprimer sur une page ordinaire : un
tricot jaune, une veste rouge, un chapeau noir, des
quantité de rouge, de bleu ou de vert (de 0 à 255).
chaussures magenta, un pantalon bleu, une branche avec
B. Mode CMJ : le système CMY (Cyan, Magenta, des feuilles vertes, un manteau blanc, un tablier cyan.
Yellow) ou CMJ (Cyan, Magenta, Jaune) C'est le principe On rappelle que les encres agissent comme des filtres. La
de la synthèse soustractive des couleurs, à la base de la page imprimée est observée sous une lumière blanche.
plupart des imprimantes. Les couleurs de base C, M, Y **
sont en fait des pigments (encres) qui absorbent certaines L'encre jaune laisse passer le rouge et le vert mais bloque
longueurs d'onde donc certaines couleurs de la lumière le bleu.
L'encre cyan laisse passer le vert et le bleu mais bloque le
blanche (qui contient toutes les couleurs). La conversion
rouge.
entre le mode RVB et CMJ est : L'encre magenta laisse passer le rouge et le bleu mais
bloque le vert.

C. Mode TSL : la couleur est caractérisée par une teinte,


Saturation et Luminosité ou (T S L)
II.3.3. Image numérique : l’image numérique est un
ensemble de points élémentaires représentant chacun une
portion de l’image : le pixel. Une image est définie par:
tricot
- Nombre de pixels en largeur et hauteur l'encre jaune.
jaune

3 CHAP II :TPM (M2ST,2021/2022)


UBBA, D. ELECTRONIQUE, M2ST, Technologie et protocoles pour le multimédia ChapII(2021/2022)

un mélange d'encres jaune et magenta. II.5.2. La vidéo numérique : est constituée d’une suite de
L'encre jaune laisse passer le rouge et le trames formées d'une matrice rectangulaire de pixels. Le
vert mais bloque le bleu. L'encre magenta principe de balayage utilisé est sensiblement le même que
veste
laisse passer le rouge et le bleu mais bloque pour la vidéo analogique mais l’entrelacement n'est
rouge
le vert. Un "mélange" des 2 encres jaune et généralement pas utilisé en vidéo numérique puisque les
magenta bloque le bleu et le vert mais laisse
moniteurs rafraîchissent l'écran 75 fois par seconde ou
passer le rouge.
plus.
un mélange d'encres jaune, cyan et II.6. Introduction sur la compression vidéo
magenta. L'encre jaune laisse passer le II.6.1. Hiérarchie des données :
rouge et le vert mais bloque le bleu. L'encre - Hiérarchie des données Vidéo :
chapeau cyan laisse passer le vert et le bleu mais
noir. bloque le rouge. L'encre magenta laisse
passer le rouge et le bleu mais bloque le
vert. Un "mélange" des 3 encres jaune, cyan
et magenta bloque le bleu, le rouge, le vert.
Rien ne passe : NOIR
chaussures
l'encre magenta.
magenta
Un mélange des 2 encres cyan (vert + bleu)
pantalon
et magenta (rouge et bleu) laisse passer le
bleu.
bleu. Les données sont hiérarchisées de la façon suivante :
feuille Un mélange des 2 encres jaune et cyan ne Séquence vidéo: elle commence par une en-tête de
vertes laisse passer que le vert. séquence, contient un ou plusieurs groupe d'images et
s'achève par un code de fin de séquence.
manteau Aucune encre n'est déposée sur la partie de Groupe d'images : il regroupe une en-tête et une série
blanc la feuille limitant le manteau. d'une ou plusieurs images permettant d'y accéder de façon
tablier aléatoire.
l'encre cyan.
cyan. Images : c'est l'unité élémentaire pour le codage de la
séquence vidéo. Une image est un groupe de trois matrices
II.5. La vidéo: une vidéo est une succession d'images à rectangulaires qui représentent la luminance (Y) et la
chrominance (Cb et Cr), un élément de la matrice
une certaine cadence. L'œil humain a comme
représentant un pixel. Cette représentation YCbCr est
caractéristique d'être capable de distinguer environ 20 équivalente à celle RGB. Elle lui est préférable, car l'œil
images par seconde. On caractérise la fluidité d'une vidéo étant plus sensible à la luminosité qu'à la chrominance, il
par le nombre d'images par secondes, exprimé en FPS n'est pas nécessaire de stocker autant d'informations dans
(Frames per second, en français trames par seconde). les matrices Cb et Cr que dans la matrice Y, alors qu'en
Il existe deux grandes familles de systèmes vidéo : les RGB, les trois matrices sont de même taille. Les matrices
systèmes vidéo analogiques et les systèmes vidéo Cb et Cr sont ainsi de dimension deux fois plus petites que
la matrice Y.
numériques.
II.5.1. La vidéo analogique : représente l'information
comme un flux continu de données analogiques, destiné à
être affichées sur un écran de télévision. Chaque image est
affichée en deux temps : les lignes impaires sont affichées
en premier, suivies de lignes paires.
Parmi les normes, citons :
- NTSC (National Television Standards Committee), Tranche : les tranches sont un ou plusieurs macro blocs
utilisée aux Etats- Unis et au Japon, utilise un système de adjacents ordonnées de gauche à droite puis de haut en bas.
525 lignes entrelacées à 30 images/sec (donc à une Ce sont des éléments importants pour la gestion des
fréquence de 60Hz). erreurs. Si le flux de données contient une erreur, le
- PAL/SECAM : (Phase Alternating Line/Séquentiel décodeur peut sauter la tranche et passer au début de la
Couleur avec Mémoire), utilisé en Europe pour la suivante directement. Plus il y a de tranches, meilleur est le
traitement des erreurs mais fait perdre de la place.
télévision hertzienne, permet de coder les vidéos sur 625
Macro blocs : c'est une matrice rectangulaire de dimension
lignes (576 seulement sont affichées car 8% des lignes 2 et constituée de blocs.
servent à la synchronisation) à raison de 25 images par Blocs : c'est un ensemble des valeurs de luminance et
seconde à un format 4:3 chrominance de 8 lignes de 8 pixels.
- Hiérarchie des données Audio: le standard MPEG

4 CHAP II :TPM (M2ST,2021/2022)


UBBA, D. ELECTRONIQUE, M2ST, Technologie et protocoles pour le multimédia ChapII(2021/2022)
Chap

définit une hiérarchie de structures de données qui code le


signal audio. Ce flux audio est composé de paquets selon le
schéma suivant :

II.6.2. La compression au format JPEG (Joint


Photographic Experts Group) :
Le principe de l’algorithme JPEG pour une image à
niveaux de gris (étant donné qu’une image couleur est la
somme de 3 images de ce même type) est le suivant :
La matrice des pixels de l’image numérique est
décomposée en blocs de 8x8 pixels qui vont tous subir le
même traitement. Une transformation linéaire, le plus
souvent du type FFT (Fast Fourier Transform) ou DCT Le maximum d‘information sur l‘image se trouve
(Discret consine Transform) est réalisée sur chaque bloc. concentré sur la partie supérieure gauche de la matrice et la
Ces transformations complexes concentrent l’information compression de l‘image sera facilitée.
sur l’image en haut et à gauche
uche de la matrice.
Les coefficients de la matrice après avoir été transformée
sont ensuite quantifiés à l’aide d‘une table de 64 éléments
définissant les pas de quantification. Cette table permet de
choisir un pas de quantification important pour certaines
certain
composantes jugées peu significatives visuellement. On
introduit ainsi un critère perceptif qui peut être rendu
dépendant des caractéristiques de l’image et de
l’application.
Des codages (prédictif, entropique, l’algorithme de
Huffmann ou arithmétique), sans distorsion, sont ensuite
réalisés en utilisant les propriétés statistiques des images.

* La quantification et lecture en zigzag : la


quantification représente la phase non conservatrice du
processus de compression JPEG. Elle réduit le nombre de
On peut noter que l’œil est beaucoup plus sensible à de
bits nécessaires
ssaires : chaque valeur de la matrice DCT est
faibles variations d’intensité
ntensité lumineuse (luminance) qu‘à
divisée par un nombre (quantum), fixé par une table (ex( :
celles de la couleur (chrominance) : les informations sur la
mémorisée sous la forme d’une matrice 8 x 8) de
couleur peuvent donc être davantage compressées que
quantification, puis arrondie à l’entier le plus proche. La
celles sur la luminance. Ainsi si l’image initiale est codée
matrice quantifiée sera ensuite lue selon le mode zigzag.
sous une forme RVB, une séparation luminance- luminance
Exemple : soit oit la matrice suivante qui représente la
chrominance peut être d’abord effectuée.
composante rouge d'une image (soit 256 rouges) :
* La transformation DCT : à partir des valeurs f(x,y) du
bloc considéré de NxN pixels, la transformation calcule les 255 255 255 0 0 0 0 0
coefficients F(u,v) par : 36 255 100 100 36 36 36 36 image originale :
73 255 100 73 100 73 73 73
109 255 100 100 100 100 100 109
146 146 100 146 100 146 146 146
182 182 100 182 100 100 100 182
218 218 218 218 100 218 218 218

5 CHAP II :TPM (M2ST,2021/2022)


UBBA, D. ELECTRONIQUE, M2ST, Technologie et protocoles pour le multimédia ChapII(2021/2022)

Dans de nombreuses séquences vidéo, de nombreuses


255 255 255 255 100 100 100 255
scènes sont fixes, cela se nomme la redondance temporelle.
Lorsque seules les mains de l'actrices bougent, presque
seuls les pixels des mains vont être modifiés d'une image à
l'autre, il suffit donc de ne décrire seulement le
changement d'une image à l'autre. C'est là la différence
majeure entre le MPEG et le M-JPEG.
- Calculer la matrice de la transformation DCT ; Cependant cette méthode aura beaucoup moins d'impact
- Trouver la matrice quantifiée en utilisant la matrice de sur une scène de mouvement.
quantification Q suivante : Il existe donc 4 façons d'encoder une image avec le
6 11 16 21 26 31 36 41 MPEG-1:
- Intra coded frames (Frames I, correspondant à un codage
11 16 21 26 31 36 41 46 interne): les images sont codées séparément sans faire
16 21 26 31 36 41 46 51 référence aux images précédentes
21 26 31 36 41 46 51 56 - Predictive coded frames (frames P ou codage prédictif):
les images sont décrites par différence avec les images
26 31 36 41 46 51 56 61 précédentes
31 36 41 46 51 56 61 66 - Bidirectionally predictive coded frames (Frames B): les
36 41 46 51 56 61 66 71 images sont décrites par différence avec l'image précédente
et l'image suivante
41 46 51 56 61 66 71 76 - DC Coded frames: les images sont décodées en faisant
1. La transformation DCT des moyennes par bloc.
50 258 135 -120 -73 -76 -57 -103 Les frames I : ces images sont codées uniquement en
utilisant le codage JPEG, sans se soucier des images qui
-319 148 -9 28 -124 -101 -55 63 l'entourent. De telles images sont nécessaires dans une
68 170 52 -89 -15 31 80 35 vidéo MPEG car ce sont elles qui assurent la cohésion de
-21 25 40 44 16 68 60 30 l'image (puisque les autres sont décrites par rapport aux
images qui les entourent), elles sont utiles notamment pour
22 81 46 -9 14 14 55 47 les flux vidéo qui peuvent être pris en cours de route
66 33 39 33 -54 4 29 38 (télévision), et sont indispensables en cas d'erreur dans la
réception. Il y en a donc une ou deux par seconde dans une
-31 68 30 -10 54 -29 13 33
vidéo MPEG.
41 -30 0 34 -31 37 36 29 Les frames P : ces images sont définies par différence par
2. La quantification rapport à l'image précédente. L'encodeur recherche les
On divise maintenant la matrice obtenue par la différences de l'image par rapport à la précédente et définit
transformation DCT par la matrice de quantification. Le des blocs, appelés macroblocs (16x16 pixels) qui se
résultat est le suivant : superposeront à l'image précédente.
8 23 8 -5 -2 -2 -1 -2 L'algorithme compare les deux images bloc par bloc et à
partir d'un certain seuil de différence, il considère le bloc
-29 9 0 1 -4 -2 -1 1 de l'image précédente différent de celui de l'image en cours
4 8 2 -2 0 0 1 0 et lui applique une compression JPEG.
C'est la recherche des macroblocs qui déterminera la
-1 0 1 1 0 1 1 0
vitesse de l'encodage, car plus l'algorithme cherche des
0 2 1 0 0 0 0 0 "bons" blocs, plus il perd de temps...
2 0 0 0 -1 0 0 0 Par rapport aux frames-I (compressant directement), les
frames-P demandent d'avoir toujours en mémoire l'image
0 1 0 0 0 0 0 0
précédente.
1 0 0 0 0 0 0 0 Les frames B : de la même façon que les frames P, les
II.6.3. Etude de la compression des vidéos numériques : frames B sont travaillée par différence par rapport à une
A. Le M-JPEG : image de référence, sauf que dans le cas des frames B cette
La première idée qui vient à l'esprit après s'être intéressé à différence peut s'effectuer soit sur la précédente (comme
la compression d'images est d'appliquer l'algorithme de dans les cas des frames P) soit sur la suivante, ce qui donne
compression JPEG à une séquence vidéo (qui n'est une meilleure compression, mais induit un retard (puisqu'il
finalement qu'une suite d'images). C'est notamment le cas faut connaître l'image suivante) et oblige à garder en
du M-JPEG (qui n'est pas vraiment ce que l'on appelle le mémoire trois images (la précédente, l'actuelle et la
MPEG) qui autorise un débit de 8 à 10 Mbps, ce qui le suivante).
rend utilisable dans les studios de montage numérique, Les frames D : ces images donnent une résolution de très
d'autant plus que chaque image étant codée séparément, on basse qualité mais permettent une décompression très
peut y accéder aléatoirement. rapide, cela sert notamment lors de la visualisation en
B. Le MPEG : avance rapide car le décodage "normal" demanderait trop
de ressources processeur.
6 CHAP II :TPM (M2ST,2021/2022)
UBBA, D. ELECTRONIQUE, M2ST, Technologie et protocoles pour le multimédia ChapII(2021/2022)

Dans la pratique... Afin d'optimiser le codage MPEG, les - Compensation du mouvement : la compensation de
séquences d'images sont dans la pratique codées suivant mouvement est une technique pour optimiser la
une suite d'images I, B, et P (D étant comme on l'a dit compression des images intermédiaires et des images clés
réservé à l'avance rapide) dont l'ordre a été déterminé en éliminant la redondance temporelle. Les algorithmes de
expérimentalement. La séquence type appelée GOP compensation de mouvement travaillent au niveau des
(Group Of Pictures ou en français groupes d'images) est la macro blocs. Quand un macro bloc est compressé par la
suivante: IBBPBBPBBPBBI technique de compensation de mouvement, le fichier
Une image I est donc insérée toutes les 12 frames. compressé contient les informations suivantes :
II.6.4. Principe de la compression vidéo MPEG1: Le vecteur spatial entre le macro bloc de référence et le
Il faut ajouter 2 types de compressions pour la vidéo : macro bloc qui va être codé (vecteur déplacement)
- Compression temporelle : La différence entre le contenu du macro bloc de référence
Son objet est de ne stocker que ce qui est modifié lors du et du macro bloc qui va être codé (terme d'erreurs)
passage d'une image à une autre dans une séquence vidéo. Toutes les informations d'une image ne peuvent pas être
Les images ainsi compressées peuvent être de deux types : prédites de l'image précédente. Considérons une scène
image clé ou image delta. Les images clés sont des images dans laquelle une porte s'ouvre : les détails visuels de la
de références, qui contiennent en elle-même, toute chambre derrière la porte ne peuvent pas être prédits de
l'information. Les images delta ne contiennent que les l'image précédente quand la porte était fermée.
pixels modifiés vis à vis de l'image précédente, qui peut Quand un cas comme celui-ci arrive, c'est-à-dire lorsqu'un
être elle-même une image clé ou une image delta. La macro bloc ne peut pas être codé de manière efficace dans
première image est nécessairement une image clé. Des une image prédite par la technique de la compensation de
techniques particulières, dont la compensation de mouvement, il est codé de la même façon qu'un macro bloc
mouvement, permettent d'optimiser la génération et la dans son image clé.
compression des images delta. La différence, au niveau de la compensation de
- Compression spatiale : mouvement, entre une image prédite et une image
Cette compression s'applique exclusivement à une image bidirectionnelle est la suivante : les macro blocs d'une
donnée (clé ou delta), sans tenir compte des images image prédite n'utilisent que des références à l'image
environnantes. Il y a là différentes techniques : null antérieure, alors que les images bidirectionnelles utilisent
suppression, RLE (Run Length Encoding), JPEG (Join toute combinaison d'images futures et/ou passées.
Pictures Expert Group), Vector Quantization. MPEG Il y a ainsi quatre types d'encodage d'un macro bloc d'une
utilise la compression JPEG. image prédite :
II.6.5. Application de la Compression temporelle : Codage interne : pas de compensation de mouvement
Le standard MPEG spécifie trois types d'images : Prédiction avant : l'image de référence précédente est
Images clés : Ces images sont comprimées utilisée comme référence
indépendamment de leur contexte, c'est à dire qu'on ne Prédiction arrière : l'image suivante est utilisée comme
tient compte que du contenu de l'image elle-même et non référence
des images environnantes. Elles autorisent l'accès aléatoire, Prédiction bidirectionnelle : deux images de référence sont
soit l'accès à la séquence vidéo depuis n'importe lequel de utilisées, la précédente image de référence et la prochaine
ses points. Elles ont un taux de compression moderé, image de référence.
typiquement 2 bits par pixel codé.
- L'encodage des images clés : La compression MPEG
compressé s'est d'images avec un algorithme prend trois
étapes : Transformation en cosinus discrète (DCT),
Quantification , Run-length encoding

Images bidirectionnelles : ces images utilisent à la fois


l'image précédente et l'image suivante comme références.
Ceci a le grand avantage d'offrir le meilleur taux de
compression, sans pour autant propager les erreurs
puisqu'elles ne sont jamais utilisées comme références.

Images prédites : Ces images sont codées par rapport à


l'image précédente. Elles utilisent la compensation de
mouvement pour un meilleur taux de compression. Par
ailleurs, elles ont l'inconvénient de propager les erreurs, du
fait qu'elles réutilisent les informations de l'image
précédente.

7 CHAP II :TPM (M2ST,2021/2022)

Vous aimerez peut-être aussi