Académique Documents
Professionnel Documents
Culture Documents
Initiation au
traitement du
signal - S
eance 3
Seance 3
F. Sur - ENSMN
F. Sur - ENSMN
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
Conclusion
Ecole
des Mines de Nancy
www.loria.fr/sur/enseignement/signal/
Position du probl`eme
Codage et decodage
Codes prefixes
Frederic Sur
1/23
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
2/23
Seance 3
Initiation au
traitement du
signal - S
eance 3
Position du probl`eme
F. Sur - ENSMN
3/23
Initiation au
traitement du
signal - S
eance 3
Position du probl`eme
Codage et decodage
Codes prefixes
Theorie statistique de linformation
Notion dentropie
Theor`eme de Shannon
Code de Huffman
Initiation au
traitement du
signal - S
eance 3
F. Sur - ENSMN
Position du
probl`
eme
Signaux consideres :
signaux discrets = suites de symboles dans un alphabet de
taille K : {x1 , x2 , . . . , xK }.
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
Conclusion
4/23
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
Initiation au
traitement du
signal - S
eance 3
F. Sur - ENSMN
Initiation au
traitement du
signal - S
eance 3
Id
ee plus
evolu
ee : codes plus courts pour les symboles
plus frequents.
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
5/23
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
6/23
Le decodage
Initiation au
traitement du
signal - S
eance 3
Position du
probl`
eme
Th
eorie statistique
de linformation
a
0
b
10
c
110
F. Sur - ENSMN
Hypoth`
ese : le codage est fait en binaire.
Probl`
eme : comment decoder ?
Codage et d
ecodage
Codes pr
efixes
a
0
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
b prefixe de d
Conclusion
d
101
b
10
c
110
d
101
non-unicite du decodage.
b
10
c
110
d
111
decodage instantane.
F. Sur - ENSMN
Position du
probl`
eme
Initiation au
traitement du
signal - S
eance 3
F. Sur - ENSMN
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
Initiation au
traitement du
signal - S
eance 3
F. Sur - ENSMN
Position du
probl`
eme
Proposition
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
a
0
b
10
c
110
d
111
Conclusion
0
c
F. Sur - ENSMN
Donn
ee : alphabet de K symboles xk , probabilites pk .
But : construire un code prefixe qui minimise la longueur
moyenne de codage dun symbole
K
X
R(X ) =
lk pk (= E(L))
k=1
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
1
0
Initiation au
traitement du
signal - S
eance 3
Int
er
et : la longueur moyenne du codage dun texte de N
symboles est N.R(X ).
Decodage de 1001001101110 ?
9/23
10/23
Seance 3
Initiation au
traitement du
signal - S
eance 3
F. Sur - ENSMN
11/23
Position du probl`eme
Codage et decodage
Codes prefixes
Theorie statistique de linformation
Notion dentropie
Theor`eme de Shannon
Code de Huffman
Conclusion
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
Initiation au
traitement du
signal - S
eance 3
F. Sur - ENSMN
Position du
probl`
eme
Th
eorie statistique
de linformation
Conclusion
H(X ) =
K
X
pk log2 pk
k=1
12/23
Codage et d
ecodage
Codes pr
efixes
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Initiation au
traitement du
signal - S
eance 3
face : Pr(X = 0) = 1 p.
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
H(X)
0.8
Th
eorie statistique
de linformation
0.6
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
0.4
Conclusion
0.2
0
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
F. Sur - ENSMN
Pr(X=0)
Mesure de lincertitude :
p = 0 ou p = 1, H(X ) = 0 : pas dincertitude.
Initiation au
traitement du
signal - S
eance 3
F. Sur - ENSMN
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
14/23
Proprietes de lentropie
Entropie : H(X ) =
K
X
Initiation au
traitement du
signal - S
eance 3
pk log2 pk .
k=1
Position du
probl`
eme
Proposition
Codage et d
ecodage
Codes pr
efixes
0 6 H(X ) 6 log2 (K ).
Consequence de linegalite de Jensen (log est !
concave) :
K
K
X
X
H(X ) =
pk log2 (1/pk ) 6 log2
pk /pk = log2 (K ).
k=1
F. Sur - ENSMN
Le theor`eme de Shannon
F. Sur - ENSMN
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Initiation au
traitement du
signal - S
eance 3
Conclusion
Proposition
15/23
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
k=1
Position du
probl`
eme
Remarque
P:
PK
R(X ) = K
k=1 lk pk et H(X ) =
k=1 log2 (pk )pk
Pourquoi ne peut-il pas y avoir toujours egalite ?
16/23
Initiation au
traitement du
signal - S
eance 3
Le codage de Huffman
F. Sur - ENSMN
xk
pk
log2 (pk )
lk
a
0.05
4.3
5
X
Remarque :
b
0.05
4.3
5
c
0.05
4.3
5
2lk
d
0.1
3.3
4
e
0.1
3.3
4
2log2 (pk ) =
f
0.15
2.7
3
g
0.2
2.3
3
pk = 1
h
0.3
1.7
2
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
F. Sur - ENSMN
Donn
ee : alphabet de K symboles xk , probabilites pk .
But : construire un code prefixe optimal (minimisant R).
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
17/23
Exemple et proposition
a
0.05
b
0.05
c
0.05
d
0.1
Initiation au
traitement du
signal - S
eance 3
e
0.1
f
0.15
g
0.2
h
0.3
F. Sur - ENSMN
Un exemple
Fichier 1 : 2588 caract`eres (2588 octets) commencant par :
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
aezgfdh,,vcblsjgrjt,dwb*`
uGREG ?DHcnjz
efdgeg`azpor tjghdmrz`
ulrryel`
uhldg szsdg dhkfapaztc` (
(eet634eyteyrDFHFGZ((ujezaztrko=A=C
`
lk pk .
Position du
probl`
eme
Initiation au
traitement du
signal - S
eance 3
20/23
Initiation au
traitement du
signal - S
eance 3
F. Sur - ENSMN
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
Remarques
Initiation au
traitement du
signal - S
eance 3
Seance 3
F. Sur - ENSMN
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
F. Sur - ENSMN
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
Conclusion
22/23
Conclusion
Initiation au
traitement du
signal - S
eance 3
F. Sur - ENSMN
23/23
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion
Position du probl`eme
Codage et decodage
Codes prefixes
Initiation au
traitement du
signal - S
eance 3
Position du
probl`
eme
Codage et d
ecodage
Codes pr
efixes
Th
eorie statistique
de linformation
Notion dentropie
Th
eor`
eme de Shannon
Code de Huffman
Conclusion