Académique Documents
Professionnel Documents
Culture Documents
CODAGE DE
SOURCE
1
30/08/2020
L’INFORMATION ???
Pour déf inir une théorie scientif ique de l’inf ormation, il a f allu tout
d’abord partir d’une déf inition scientif ique du mot « information », avec
un sens précis qui peut différer du langage usuel(coté subjectif ), et qui
permet de mesurer la quantité d’inf ormation contenu dans un message
REMARQUE:
Il est inutile de transmettre un message qui est connu du destinataire
CONSEQUENCE:
L’approche probabiliste des communications se justifie (outre la
présence d’un bruit additif ) par le f ait que si il n’y avait aucune incertitude
sur le message émis, il n’y aurait pas d’inf ormation à la réception du
message.
2
30/08/2020
OBJECTIFS
Points Noirs N : 18
Points Gris G : 15
Points Blancs B :111
pN=18/144=0.125
pG=15/144=0.104
pB = 111/144=0.771
3
30/08/2020
SOURCES D’INFORMATION
Source sans mémoire Si la production des différents symboles est
indépendante des symboles précédemment émis, et identiquement
distribuées on parle alors de source discrète sans mémoire.
Points Noirs N : 18
Points Gris G : 15
Points Blancs B :111
pN=18/144=0.125
pG=15/144=0.104
pB = 111/144=0.771
4
30/08/2020
5
30/08/2020
CODAGE DE SOURCE:
xN pN cN nN
N
La longueur moyenne des mots code: n pi. ni
i 1
pN=18/144=0.125
pG=15/144=0.104
pB = 111/144=0.771
Codage Directe : B → 11 N → 00 G → 10
longueur moyenne : L = 2bits/msg
Il faut donc chercher d’autre codes qui permettent de réduire cette redondance
6
30/08/2020
1) Régularité : deux messages différents sont codés par deux mots-code différents
Exemple 1:
Source S à 5 messages de probabilités respectives : 0,4 ; 0,19 ; 0,16 ; 0,15 ; 0,1.
H(S)= 2,15 bits/msg
7
30/08/2020
Exemple 2 :
Transmission d’une image à trois niveaux de gris : source d’information qui
peut être modélisée par la variable aléatoire S qui peut prendre les valeurs N, G
ou B avec les probabilités respectives :
pN=0.125 pG=0.104 et pB=0.771 H(S)=1bit/msg
Codage Directe : B → 11 N → 00 G → 10
longueur moyenne L= 2bits/msg
Codage FANO : B → 1 N → 01 G → 11
L= 0.771+2*0.125+2*0.104=1.229 bits/msg
Codage2 : FANO
1 00 1 00 1 00 1 01 1 01 01 1
18
8
30/08/2020
2. Codage de Huffman :
Exemple 1:
Source S à 5 messages de probabilités respectives : 0,4 ; 0,19 ; 0,16 ; 0,15 ; 0,1.
Cas d’un codage de source binaire de type Hufman, on obtient les mot-codes
respectifs : 1, 000, 001, 010, 011
avec : L=2,2 bits/msg.,
Lmin = H(S)/1=2,15 bits/msg. => efficacité η= Lmin/L=97,7%, redondance = 2,3%
Codage HUFFMAN : B → 1 N → 01 G → 11
L= 0.771+2*0.125+2*0.104=1.229 bits/msg
Codage Directe : B → 11 N → 00 G → 10
L= 2bits/msg
9
30/08/2020
A LGORITHME DE HUFFMAN
10
30/08/2020
CODAGE DE CANAL
11
30/08/2020
K symboles
N K
d(01100101,11101100)=3 = w(00000111)
12
30/08/2020
Le Code à répétition :
Le bit de parité :
Vérification H
Vérification H et V
13
30/08/2020
14