Vous êtes sur la page 1sur 64

Traitement Numrique du Signal CM1 : Signal et information

Universit du Havre, IUT du Havre Dpartement GEII


Novembre 2011.
Mise en uvre du TNS Page 1 sur 64

PPN 2008: MC-II3

Traitement du signal Applications en GEII Mise en uvre Test DSP CAN/CNA TF, compression, codage

Mise en uvre du TNS

Page 2 sur 64

Plan
Signal et Information

Information Signal Compression sans perte Compression destructive Conclusion

Mise en uvre du TNS

Page 3 sur 64

1. Information

Mise en uvre du TNS

Page 4 sur 64

Information

Information : Contenu, intrt Sens du mot information: L'information est un concept ayant plusieurs sens. Il est troitement li aux notions de contrainte, communication, contrle, donne, formulaire, instruction, connaissance, signification, perception et reprsentation. L'information dsigne la fois le message communiquer et les symboles utiliss pour l'crire ; elle utilise un code de signes porteurs de sens tels qu'un alphabet de lettres, une base de chiffres, des idogrammes ou pictogrammes. Au sens tymologique, l'information est ce qui donne une forme l'esprit. Elle vient du verbe latin informare, qui signifie "donner forme " ou "se former une ide de". Hors contexte, elle reprsente le vhicule des donnes comme dans la thorie de l'information et, hors support, elle reprsente un facteur d'organisation.

http://fr.wikipedia.org/wiki/Information
Mise en uvre du TNS Page 5 sur 64

Information

Information : Contenu, intrt Sens du mot information: Selon la thorie de l'information, des donnes contiennent de l'information quand celles-ci ne sont que peu compressibles et qu'elles sont complexes. En effet, l'information contenue dans un message compos d'une seule lettre se rptant un grand nombre de fois tel que AAAAAAAAA... est quasiment nulle. La conception la plus rpandue de l'information est lie au couple "message + rcepteur", le dernier possdant des implicites valorisant le message (de fait, tout message est incomprhensible sans ces implicites). Ainsi, la phrase "Mdor est un chien" contient plus d'information que "Mdor est un quadrupde", bien que la seconde contienne plus de lettres. La diffrence est mettre au compte de la connaissance d'un dictionnaire implicite et faisant partie du contexte. Les notions de quantit d'information et d'entropie font l'objet d'une discipline spcialise, la thorie de l'information, initie par Shannon.
http://fr.wikipedia.org/wiki/Information
Mise en uvre du TNS Page 6 sur 64

Information

Information : Contenu, intrt Vecteurs dinformation: schma fonctionnel Sources d information; Moyens de codage et dadaptation; Moyens de stockage, de traitement et de transmission.

Source dinformation Emetteur

Stockage Adaptation Traitement Codage Transmission Codage Utilisateur Adaptation Prsentation

Mise en uvre du TNS

Page 7 sur 64

Information

Information : Contenu, intrt Vecteurs dinformation: schma fonctionnel Sources d information; Moyens de codage et dadaptation; Moyens de stockage, de traitement et de transmission. Source de bruit: Perturbation.

Source d'information

metteur Message Signal mis

+ + Signal reu Bruit

Rcepteur

Message

Destination

Source de bruit

Mise en uvre du TNS

Page 8 sur 64

2. Signal

Mise en uvre du TNS

Page 9 sur 64

Signal

Signal : Message Un signal est un message simplifi et gnralement cod. Il existe sous forme d'objets ayant des formes particulires : Il existe sous forme d'objet ayant une forme particulire.
Codets alpha-2 correspondants de l'ISO 3166-1 FRANCE GERMANY GREECE ITALY SPAIN UNITED KINGDOM FRANCE ALLEMAGNE GRCE ITALIE ESPAGNE ROYAUME-UNI FR DE GR IT ES GB

STOP

Mise en uvre du TNS

Page 10 sur 64

Signal

Signal : Message Un signal est un message simplifi et gnralement cod. Il existe sous forme d'objets ayant des formes particulires : Le signal lectrique est une des formes les plus rcentes de signal. L'alphabet morse ou code morse, est un code permettant de transmettre un texte l'aide de sries d'impulsions courtes et longues, qu'elles soit produites par des signes, une lumire ou un geste. Invent par Samuel Morse en 1835 pour la tlgraphie, ce codage de caractres assigne chaque lettre, chiffre et signe de ponctuation une combinaison unique de signaux intermittents. Le code morse est considr comme le prcurseur des communications numriques.
Mise en uvre du TNS Page 11 sur 64

Signal

Signal : Message Un signal est un message simplifi et gnralement cod. Il existe sous forme d'objets ayant des formes particulires : En lectronique, on utilise le signal analogique ou numrique.

Mise en uvre du TNS

Page 12 sur 64

Signal

Signal : Message Un signal est un message simplifi et gnralement cod. Il existe sous forme d'objets ayant des formes particulires : En informatique, le signal permet la communication : change de donnes inter-processus. Synchronisation des processus. Systmes de transmission d'information entre priphriques : Filaire: IEEE 1394, SCSI, USB, ATA, SATA, eSATA Rseau: Ethernet, InfiniBand, TokenTing, CPL Sans fils: Bluetooth, WiFi, irDA, WirelessUSB Les signaux lumineux permettent la communication grande distance.

Mise en uvre du TNS

Page 13 sur 64

Signal

Signal : Extension Une image est un signal (x, y). En informatique, l'image brute (raw) est code au format BMP : Exemple : Image 4x2 = 8 pixels cods sur 24 bits(/pixel) NX = 4 pixels

5
NY = 2 pixels

6 2

7 3

8 4

1
Taille du fichier (octets) :

No = 24 bits = 3 octets

Taille = En-tte + NXNYNo Soit Taille = 54 + 4x2x3 = 78 octets


Mise en uvre du TNS Page 14 sur 64

Signal

Signal : Extension Une image est un signal (x, y). En informatique, l'image brute (raw) est code au format BMP : Exemple :

Pixel 1: Code RVB (little-endian) i.e. B = "FF", V = "00", R = "00"


Mise en uvre du TNS Page 15 sur 64

Signal

Signal : Extension Une image est un signal (x, y). En informatique, l'image brute (raw) est code au format BMP : Exemple :
Octets 42 4D 4E 00 00 00 00 00 00 00 36 00 00 00 28 00 00 00 04 00 00 00 02 00 00 00 01 00 18 00 00 00 00 00 18 00 00 00 C4 0E 00 00 C4 0E 00 00 00 00 00 00 00 00 00 00 Signification Caractres B($42) et M($4D) indiquant un fichier de type BMP Taille du fichier $0000004E = 78 octets (de l'offset 0 l'offset 77) Rserv (toujours 0) Offset de l'image $00000036 = 54 Taille de l'entte $00000028 = 40 octets Largeur de l'image $00000004 = 4 pixels Hauteur de l'image $00000002 = 2 pixels Nombre de plans utiliss $0001 = 1 Nombre de bits par pixel = $0018 = 24 (3 octets) Mthode de compression : 0 pas de compression Taille de l'image $00000018 = 24 octets = 8 (pixels) x 3 (octets par pixel) Rsolution horizontale $00000EC4 = 3780 pixels par mtre Rsolution verticale $00000EC4 = 3780 pixels par mtre Couleurs utilises : 0 palette entire Nombre de couleurs important Mise en uvre du TNS Page 16 sur 64

14

40

Signal

Signal : Extension Une image est un signal (x, y). En informatique, l'image brute (raw) est code au format BMP :

Octets FF 00 00 00 00 00 FF 00 FF FF FF FF 00 00 FF 00 FF 00 00 FF FF FF FF 00 B=0,

Signification B=255, V=0, V=0, B=255, V=0, B=0, B=0, B=0, V=0, R=0 R=0 : Bleu : Noir

R=255 : Violet R=255 : Rouge : Vert : Cyan


Page 17 sur 64

B=255, V=255, R=255 : Blanc V=255, R=0

V=255, R=255 : Jaune

B=255, V=255, R=0


Mise en uvre du TNS

Signal

Signal : Extension Un signal est un message simplifi et gnralement cod. Ce signal peut comporter plus de une dimension : En gnral, par signal on entend : y(x) ou x(t). Par extension, une image (2D) est aussi un signal : Monochrome: (x, y, 0 ou 1) 16 couleurs: (x, y, 0 2^41) 256 couleurs: (x, y, 0 2^81) 65536 couleurs: (x, y, 0 2^161) 24 bits couleurs: (x, y, 0 2^241) Par extension, une vido (3D) est aussi un signal : Monochrome: (x, y, t, 0 ou 1) 16 couleurs: (x, y, t, 0 2^41) 256 couleurs: (x, y, t, 0 2^81) 65536 couleurs: (x, y, t, 0 2^161) 24 bits couleurs: (x, y, t, 0 2^241)
Mise en uvre du TNS Page 18 sur 64

Signal

Signal : Extension Un signal est un message simplifi et gnralement cod. Ce signal peut comporter un nombre de dimensions variables : Par extension, une vido "3D" (hors temps, 4D en fait) est aussi un signal : Couleurs: (x, y, z, t, niveau couleur) En pratique, une vido "3D" est constitue de deux vidos, une pour chaque il : principe de la stro Couleurs: 2(x, y, t, niveau couleur) Il existe cependant des vraies images 3D animes (4D, donc) : Scanner: (x, y, z, t, niveau couleur)

http://fr.wikipedia.org/wiki/Scanner_(mdecine)
Mise en uvre du TNS Page 19 sur 64

Signal

Signal : Extension Un signal est un message simplifi et gnralement cod. Ce signal peut comporter un nombre de dimensions variables : Se pose alors le problme de la reprsentation de ces donnes :

http://fr.wikipedia.org/wiki/Imagerie_par_rsonance_magntique
Mise en uvre du TNS Page 20 sur 64

3. Compression

Mise en uvre du TNS

Page 21 sur 64

Compression

Compression : Rduction du codage et conservation de l'information Quantification du codage: Nombre de bits ncessaires. Nombre de symboles. Quantification de l'information : Probabilit d'occurrence. Nombre de symboles. Codage adapt l'alphabet. Codage adapt l'information: probabilit d'occurrence. Codage intgrant des codes correcteurs. Probabilit d'occurrence p(x) inconnue...
Mise en uvre du TNS Page 22 sur 64

Nom
Binaire Doigts Jours Mois Chiffres Alphabet ASCII ASCII tendu Niveaux sur 16 bits Niveaux sur 24 bits

Nombre de symboles
2 (0, 1) 5 (pouce, , annulaire) 7 (lundi, , dimanche) 12 (janvier, , dcembre) 10 (0 9) 26 (A Z) 27 = 128 28 = 256 216 = 65536 224 = 16777216

Compression

Compression : Rduction du codage et conservation de l'information Quantit d'information: Selon Shannon, la quantit d'information I(x) s'crit :

1 I ( x) = log 2 p( x)
soit

I ( x) = log 2 ( p ( x) )

La quantit d'information et son traitement sont directement lis la base numrique de quantification (base 2) et la nature de la source. On vrifie bien I(x) = 0 pour p(x) = 1 et I(x) + pour p(x) = 0.
Mise en uvre du TNS Page 23 sur 64

Compression

Compression : Rduction du codage et conservation de l'information Quantit d'information: Selon Shannon, la quantit d'information I(x) s'crit :

Mise en uvre du TNS

Page 24 sur 64

Compression

Compression : Rduction du codage et conservation de l'information Gnralisation: Soit une source d'information discrte finie stationnaire sans mmoire, soit l'mission d'une variable alatoire X = {x1, x2, , xN} avec une probabilit d'occurrence p = {p(x1), p(x2), , p(xN)} = {p1, p2, , pN} associe respectivement chacun des caractres, alors l'entropie [de Shannon] associe chacun des caractres s'crit :

H ( xk ) = pk .I ( xk ) = pk log 2 ( pk )
L'entropie d'une source d'information est la quantit d'information moyenne associe chaque symbole de la source. L'entropie de Shannon s'crit en fonction des probabilits doccurrence pk de chacune des quantits d'information I(xk) constituant le signal :

H ( X ) = E ( I ( X ) ) = pk log 2 ( pk )
k =1
Mise en uvre du TNS

avec

p
k =1

=1
Page 25 sur 64

Compression

Compression : Rduction du codage et conservation de l'information Borne suprieure: Dans le cas d'un alphabet constitu de N variables indpendantes et quiprobables, alors pn = 1/N pour tout 1 n et l'entropie est maximale :

H max ( X ) = pk log 2 ( pk )
k =1

soit

H max ( X ) = log 2 ( N )

Cette valeur limite de l'entropie Hmax(X), obtenue pour une distribution uniforme, constitue la borne suprieure de l'entropie :

H ( X ) log 2 ( N )
Mise en uvre du TNS Page 26 sur 64

Compression

Compression : Rduction du codage et conservation de l'information Source binaire: Dans ce cas, l'alphabet se rduit X = {0 ; 1}, et l'entropie est donne en fonction de p0 = p et p1 = 1p, par :

H ( X ) = p log 2 ( p ) (1 p ) log 2 (1 p )
et

H (X ) = 0

si p = {0;1}

La valeur de l'entropie H (X), n'excde pas la borne suprieure de l'entropie Hmax(X) obtenue dans le cas equiprobable, i.e. p = 0,5 :

H max ( X ) = 1
Mise en uvre du TNS Page 27 sur 64

3.1. Compression non destructive

Mise en uvre du TNS

Page 28 sur 64

Compression

Compression numrique sans perte Informatiquement, un signal numrique est une suite de bits reprsentant la succession des valeurs prises certains instants. Chaque chantillon correspond code ou codage. Par exemple, un signal de N chantillons cods chacun sur 2 octets ncessite N28 bits. Le problme pos est le suivant : Pour un signal numrique donn, est-il possible den rduire le codage, sans perdre dinformation ? "Sans perdre dinformation" signifie que le signal initial peut tre reconstruit exactement partir de cette reprsentation, soit une compression sans perte. Prenons lexemple du code Morse. Chaque caractre est cod par une succession de points et traits. Mais ce codage est longueur variable, adapte la frquence dapparition des lettres : la lettre E (frquente) est code par : "", alors que la lettre Z (rare) est code par : " ".
Mise en uvre du TNS Page 29 sur 64

Compression

Compression numrique sans perte Chaque chantillon correspond code ou codage. Ainsi, la lettre E (frquente) ncessite 1 symbole tandis que la lettre Z (rare) ncessite 4 symboles. Par exemple, pour notre alphabet latin de 26 lettres, une premire approche nous indique que 5 symboles binaires sont ncessaires: 2^5 = 32 (> 26). Par des mthodes de compression (RLE, Huffman, LZW) on peut rduire le nombre moyen de symboles ncessaires. Cas particulier et contre-exemple: "La disparition" de Georges Perec. Le but est de transmettre en moyenne un moins grand nombre de symboles lmentaires (trait ou point) quavec un codage o toutes les lettres seraient reprsentes par le mme nombre de symboles. Dans ce chapitre nous formalisons ces notions, dans le cadre de la thorie statistique de linformation de Claude Shannon (1916-2001) dveloppe essentiellement dans les annes 1940-1950.
Mise en uvre du TNS Page 30 sur 64

Compression

Compression RLE : Run Length Encoding Compression RLE : Ce type de compression, surtout efficace et utilis pour les images avec peu de couleurs consiste relever les rptitions de symboles et indiquer leur nombre. Exemple: Soit la chane de caractres suivante: "AAAAAAAAAAAAAAABBBBBAAAAAAAACCCCCCCCCCCCCCCCDD". On a: A15 B5 A8 C16 D2 La compression RLE donne donc: "A#15 $ B#5 $ A#8 $ C#16 $ D#2" Avec "#" le nombre d'occurrences successives, et "$" le sparateur de relevs. On est pass de 46 symboles 21 symboles, soit = 21/46 = 46%. Taux de compression : On dfinit le taux de compression par le ratio entre le nombre de symboles aprs compression Nc et celui avant compression Ni :

Nc Ni
Mise en uvre du TNS Page 31 sur 64

Compression

Compression numrique sans perte Codes prfixes: Codages (i.e. les concatnations de mots binaires) pouvant tre dcods sans ambigut. On appelle code prfixe tout code tel que chaque mot nest le dbut daucun autre. Exemple: Soit un alphabet 4 symboles : X = {A; B; C; D}, classs par ordre dcroissant de frquence d'apparition ou probabilit d'occurrence. 0 xk wk A 0 B 10 C 110 D 111 A B 0 0 1 1 1 D

C Ingalit de Kraft: Si {w1, w2, , wN} est un code prfixe binaire, alors il vrifie :

2 lk 1
k =1
Mise en uvre du TNS Page 32 sur 64

Compression

Compression Huffman Code Huffman: On considre larbre binaire pondr construit rcursivement selon lalgorithme suivant : Initialisation : les symboles, pondrs par leur probabilit, sont les feuilles. Itration : tant que le graphe courant nest pas connexe, fusionner les deux arbres dont les racines sont de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. Le code prfixe associ larbre cr (appel "code de Huffman") minimise la longueur moyenne parmi tous les codes prfixes :

Lmoy = lk pk
k =1

Remarques : H ( X ) Lmoy < H ( x) + 1 Le code de Huffman vrifie donc : Il ny a pas unicit du code minimal : il peut y avoir des choix de fusion dans lalgorithme de Huffman, et le choix daffectation des branches "gauche" et "droite" nest pas spcifi.
Mise en uvre du TNS Page 33 sur 64

Compression

Compression Huffman Code Huffman: On considre larbre binaire pondr construit rcursivement selon lalgorithme suivant : Initialisation : les symboles, pondrs par leur probabilit, sont les feuilles. Itration : tant que le graphe courant nest pas connexe, fusionner les deux arbres dont les racines sont de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. Exemple: Soit un alphabet 8 symboles : X = {A; B; C; D; E; F; G; H}, classs par ordre dcroissant de frquence d'apparition ou probabilit d'occurrence. xk pk wk E 01 A 11 B D C G H F 0,05

0,25 0,20 0,15 0,15 0,10 0,05 0,05

001 101 100 0001 00001 00000

Dcoder: "1000010001010100000100" et "0000010001010100000100".


Mise en uvre du TNS Page 34 sur 64

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Arbre : Fusionner les deux arbres dont les racines sont de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. 1,00 0,55 0,25 0,15 0,45 xk pk E A B 0,30 D C G H 0,10 F 0,05
Page 35 sur 64

0,25 0,20 0,15 0,15 0,10 0,05 0,05


Mise en uvre du TNS

Compression

Compression Huffman Code Huffman: Mthode de lecture de l arbre : Le dcodage dun mot consiste parcourir larbre en choisissant les branches de gauche ou de droite selon la valeur 0 ou 1 lue ; lorsquon arrive une feuille on crit la lettre correspondante et on continue la lecture aprs tre revenu la racine. 1,00 0,55 0,25 0,15 0,45 xk pk wk E 00 A 01 B 0,30 D C G H 0,10 F 0,05

0,25 0,20 0,15 0,15 0,10 0,05 0,05

100 101 110 1110 11110 11111


Mise en uvre du TNS Page 36 sur 64

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk pk wk wk E 01 00 A 11 01 B D C G H F 0,05 Solution 1 Solution 2

0,25 0,20 0,15 0,15 0,10 0,05 0,05

001 101 100 0001 00001 00000 100 101 110 1110 11110 11111

On vrifie facilement quil sagit bien dun code prfixe : aucun code nest le prfixe dun autre. On obtient un code Huffman diffrent de celui propos initialement : il n y a pas unicit de la solution... Dcoder: "1000010001010100000100" et "0000010001010100000100".
Mise en uvre du TNS Page 37 sur 64

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk E A B D C G H F pk 0,25 0,20 0,15 0,15 0,10 0,05 0,05 0,05
Mise en uvre du TNS Page 38 sur 64

It.1 0,25 0,20 0,15 0,15 0,10 0,10 0,05

It.2 0,25 0,20 0,15 0,15 0,15 0,10

It.3 0,25 0,25 0,20 0,15 0,15

It.4 0,30 0,25 0,25 0,20

It.5 0,45 0,30 0,25

It.6 0,55 0,45

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk E A B D C G H F pk 0,25 0,20 0,15 0,15 0,10 0,05 0,05 0,05
Mise en uvre du TNS Page 39 sur 64

It.1 0,25 0,20 0,15 0,15 0,10 0,10 0,05

It.2 0,25 0,20 0,15 0,15 0,15 0,10

It.3 0,25 0,25 0,20 0,15 0,15

It.4

It.5

It.6 0,55 0

0,30 00 0,45 0,25 0,20 0,25 01

0,25 01 0,30 00 0,45 1

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk E A B D C G H F pk 0,25 0,20 0,15 0,15 0,10 0,05 0,05 0,05
Mise en uvre du TNS Page 40 sur 64

It.1 0,25 0,20 0,15 0,15 0,10 0,10 0,05

It.2 0,25 0,20 0,15 0,15 0,15 0,10

It.3 0,25 0,25 0,20 0,15 0,15

It.4

It.5

It.6

0,30 00 0,45 1 0,55 0 0,25 01 0,30 00 0,45 1 0,25 10 0,25 01 0,20 11

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk E A B D C G H F pk 0,25 0,20 0,15 0,15 0,10 0,05 0,05 0,05
Mise en uvre du TNS Page 41 sur 64

It.1 0,25 0,20 0,15 0,15 0,10 0,10 0,05

It.2 0,25 0,20 0,15 0,15 0,15 0,10

It.3 0,25 0,25 0,20 0,15 000 0,15 001

It.4 0,30 00 0,25 01 0,25 10 0,20 11

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk E A B D C G H F pk 0,25 0,20 0,15 0,15 0,10 0,05 0,05 0,05
Mise en uvre du TNS Page 42 sur 64

It.1 0,25 0,20 0,15 0,15 0,10 0,10 0,05

It.2 0,25 0,20 0,15 0,15 0,15 0,10

It.3 0,25 01 0,25 10 0,20 11 0,15 000 0,15 001

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk E A B D C G H F pk 0,25 0,20 0,15 0,15 0,10 0,05 0,05 0,05
Mise en uvre du TNS Page 43 sur 64

It.1 0,25 0,20 0,15 0,15 0,10 0,10 0,05

It.2 0,25 0,20 0,15 0,15 0,15 100 0,10 101

It.3 0,25 0,25 0,20 0,15 0,15 01 10 11 000 001

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk E A B D C G H F pk 0,25 0,20 0,15 0,15 0,10 0,05 0,05 0,05
Mise en uvre du TNS Page 44 sur 64

It.1 0,25 0,20 0,15 0,15 0,10 0,10 0,05

It.2 0,25 01 0,20 11 0,15 000 0,15 001 0,15 100 0,10 101

It.3 0,25 0,25 0,20 0,15 0,15 01 10 11 000 001

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk E A B D C G H F pk 0,25 0,20 0,15 0,15 0,10 0,05 0,05 0,05
Mise en uvre du TNS Page 45 sur 64

It.1 0,25 0,20 0,15 0,15 0,10 0,10 1000 0,05 1001

It.2 0,25 0,20 01 11

0,15 000 0,15 001 0,15 100 0,10 101

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk E A B D C G H F pk 0,25 0,20 0,15 0,15 0,10 0,05 0,05 0,05
Mise en uvre du TNS Page 46 sur 64

It.1 0,25 0,20 0,15 0,15 0,10 01 11 000 001 101

It.2 0,25 0,20 01 11

0,15 000 0,15 001 0,15 100 0,10 101

0,10 1000 0,05 1001

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk E A B D C G H F pk 0,25 0,20 0,15 0,15 0,10 0,05 01 11 000 001 101 1001 It.1 0,25 0,20 01 11

0,15 000 0,15 001 0,10 101 0,10 1000 0,05 1001

0,05 10000 0,05 10001

Mise en uvre du TNS

Page 47 sur 64

Compression

Compression Huffman Code Huffman: Mthode d'laboration : Tableau : Fusionner les deux probabilits de poids les plus petits en crant une nouvelle racine de poids gal la somme de ces poids, lie ces deux sous-arbres. xk pk wk wk E 01 01 A 11 11 B D C G H F 0,05 Solution 1 Solution 3

0,25 0,20 0,15 0,15 0,10 0,05 0,05

001 101 100 0001 00001 00000 000 001 101 1001 10000 10001

On vrifie facilement quil sagit bien dun code prfixe : aucun code nest le prfixe dun autre. On obtient un code Huffman diffrent de celui propos initialement : il n y a pas unicit de la solution... Dcoder: "1000010001010100000100" et "0000010001010100000100".
Mise en uvre du TNS Page 48 sur 64

Compression

Compression Autres codes de compression: Codage arithmtique (1976) : Comme le codage de Huffman, le codage arithmtique appartient la famille des codages entropiques, dans le sens o il se base sur les frquences dapparition des lettres pour coder avec peu de bits une lettre trs frquente. Dans le codage arithmtique, un message est cod par un dcimal entre 0 et 1. Codage LZW (Lempel, Ziv, Welch,1984) : Dans les codages entropiques du type de celui de Huffman, un dictionnaire est cr pour associer chaque lettre de lalphabet un mot binaire (de longueur variable), laide des statistiques de frquence des lettres dans le message compresser. Dans le codage de LZW, le dictionnaire associe des chane de lettres de longueur variable figurant dans le message compresser des mots binaires de longueur fixe. Ceci permet dexploiter les corrlations entre les sorties de la source X.

Mise en uvre du TNS

Page 49 sur 64

Compression

Compression Autres codes de compression: http://sun.aei.polsl.pl/~sdeor/pub/deo03.pdf, p.107-115 Comparaison:

The LZ methods are denoted by "o", the PPM methods by "*", and the BWT methods by "".
Mise en uvre du TNS Page 50 sur 64

Compression

Compression Formats informatiques: Donnes : ZIP, RAR, 7z... Images : BMP RLE (8 bits), GIF (8 bits), PNG (24 bits)...

Exemple : Image 800x600 avec 4 quartiers : rouge, vert, bleu, gris. Compression ZIP: 5 344 octets Compression RAR: 4 755 octets Compression 7zip: 2 522 octets Original BMP (24 bits): 1 440 054 octets Compression BMP (RLE): 7 078 octets Compression GIF (8 bits): 4 656 octets Compression PNG (24 bits): 2 805 octets Exercice : Retrouver la taille du fichier BMP (24 bits) par le calcul.
Mise en uvre du TNS Page 51 sur 64

Compression

Compression Formats informatiques: Donnes : ZIP, RAR, 7z... Images : BMP RLE (8 bits), GIF (8 bits), PNG (24 bits)...

Exemple 2 : Image 800x600 avec de nombreuses dtails. Compression ZIP: 882 523 octets Compression RAR: 779 488 octets Compression 7zip: 715 501 octets Original BMP (24 bits): 1 440 054 octets Compression BMP (RLE): 365 908 octets Compression GIF (8 bits): 222 321 octets Compression PNG (24 bits): 697 615 octets

Mise en uvre du TNS

Page 52 sur 64

3.2. Compression destructive

Mise en uvre du TNS

Page 53 sur 64

Compression destructive

Compression numrique avec perte Dans de nombreux domaines (image, son), la restitution des donnes sans pertes nest pas un impratif absolu. Pour tayer ce constat, on peut partir de considrations mathmatiques, mais aussi physiques et physiologiques. Considration mathmatique: Dcroissance des coefficients de Fourier Ce constat donne lide de "compresser" les signaux en ne transmettant que les coefficients de Fourier suffisamment grands (puisquun certain nombre, correspondant |n| grand, seront assez petits), par exemple en tronquant la srie de Fourier. Nanmoins, ceci est la cause des phnomnes de pr-cho dans les fichiers MP3, ou du phnomne de ringing (surlignage des bords contrasts) dans les fichiers JPEG. Considration physique: Au-del dun certain chantillonnage et dune certaine quantification, le signal parait continu nos sens. Considration physiologique: Nos sens sont "aveugls" par des composantes dominantes, on parle de masquage.
Mise en uvre du TNS Page 54 sur 64

Compression destructive

Compression numrique avec perte Le format JPG : La compression JPEG (Joint Photographies Experts Group) Schma de principe :

Bloc 8x8

TCD

DC

AC

Zig-Zag

AC

Run Length Coding

1,2,.

Mise en uvre du TNS

Page 55 sur 64

Compression destructive

Compression numrique avec perte Le format JPG : La compression JPEG (Joint Photographies Experts Group)
Image originale Coefficients TCD Image reconstruite Image erreur

64 coefficients

32 coefficients

Mise en uvre du TNS

Page 56 sur 64

Compression destructive

Compression numrique avec perte Le format JPG : La compression JPEG (Joint Photographies Experts Group)
Image originale Coefficients TCD Image reconstruite Image erreur

8 coefficients

1 coefficient

Mise en uvre du TNS

Page 57 sur 64

Compression destructive

Compression numrique avec perte Le format JPG : La compression JPEG (Joint Photographies Experts Group) Rfrence 11 240 octets FQ = 4 2 582 octets = 23% FQ = 10 1 582 octets = 14% FQ = 100 528 octets = 5%

Mise en uvre du TNS

Page 58 sur 64

Compression

Compression numrique avec perte Le format JPG : Compression Donnes : FQ=1: FQ=2: FQ=5: 409 302 octets 348 320 octets 259 456 octets

FQ=10: 189 363 octets FQ=20: 135 222 octets FQ=50: FQ=99: 84 788 octets 17 835 octets
Mise en uvre du TNS Page 59 sur 64

Compression destructive

Compression numrique avec perte Le format MP1 audio : fond sur le standard MUSICAM
(Masking Pattern Adapted Universal Subband Integrated Coding)

Dbit WAV (CD) :Dbit 1411 kb/s (2x44100/sx16bits). Dbit MPEG 1 : Dbit 192 kb/s (2x96kbits/s)
A (dB) 120 Courbe de sensibilit de l oreille humaine

Au dessous du seuil, les sons ne sont plus audibles

Zone audible 60 Seuil de perception

0 son S2 son S1
Mise en uvre du TNS

log(f) Frquence
Page 60 sur 64

Compression destructive

Compression numrique avec perte Le format MP1 audio : fond sur le standard MUSICAM
A (dB) 120 Zone audible 60 Seuil de perception A (dB) 120 0 log(f) S1 S2 Frquence 60 Seuil de perception Zone audible

Le son S2 ne doit pas tre pris en compte : il est masqu par un son S1 plus important.

Le seuil de perception varie en fonction du contenu spectral.

0 log(f) S1 S2 S3 S4 Frquence Page 61 sur 64

Mise en uvre du TNS

Compression destructive

Compression numrique avec perte Le format MP1 audio : fond sur le standard MUSICAM Les spectre audio est dcoup en 32 sous-bandes de frquence :
Sous-bande 750 Hz fe/2 =24 kHz

La courbe de masquage est dtermine en temps rel : modle psycho-acoustique.


A (dB) f 120 Modle psycho-acoustique

60

La quantification varie en fonction de la sensibilit de loreille : modle psycho-acoustique.

0 log(f)
Frquences

Mise en uvre du TNS

Page 62 sur 64

Compression destructive

Production d une squence MPEG Images animes Numrisation DCT Quantification


Compression spatiale

Seuillage RLC Huffman (VLC)

Non rversible

Compression temporelle

MPEG
Mise en uvre du TNS Page 63 sur 64

Compression destructive

Production d une squence MPEG Mthode irrversible : Taux de compression lev => Perte dinformation leve Image spatiale Image frquentielle (TCD) Image frquentielle Spectre 2D Quantification Privilgie les harmoniques principaux Mthode Zig-Zag Codage du Run Length Code (RLC) + Codage d Huffman Compression temporelle Trame de rfrence.
Mise en uvre du TNS Page 64 sur 64