Académique Documents
Professionnel Documents
Culture Documents
Vincent Vajnovszki
3 4
8 9 10 11 16 17 18 19
12 13 14 15 20 21 22 23
24 25 26 27 24 25 26 27
28 29 30 31 28 29 30 31
3 4
8 9 10 11 16 17 18 19 1 2 4 7
12 13 14 15 20 21 22 23 8 11 13 14
24 25 26 27 24 25 26 27 16 19 21 22
28 29 30 31 28 29 30 31 25 26 28 31
Observation Si
ni
pi =
N
est la probabilité de l’apparition d’un message en Xi
i=n
X
H(partition) = − pi log2 (pi )
i=1
H = log2 (1/p),
cela correspond à une entropie ou une incertitude maximale, et
l’information apportée en spécifiant le choix effectué est
maximale.
⠁⠃⠉⠙⠑⠋⠛⠓⠊⠚
a b c d e f g h i j
⠅⠇⠍⠝⠕⠏⠟⠗⠎⠞
k l m n o p q r s t
⠥⠧⠺⠭⠽⠵
u v w x y z
L’entropie est
k
X 1 1 1 1
H= pi log2 ( ) = ·log2 (2)+ ·log2 (4)+ ·log2 (4) = 1.5
pi 2 4 4
i=1
H
η=
L
et la redondance
r =1−η
0, 8 · 1 + 0, 2 · 1 = 1
1 · 0, 64 + 2 · 0, 16 + 3 · (0, 16 + 0, 04) = 1, 56
1,45
avec l’efficacité de η = 1,56 = 0.93 et la redondance de
r = 0.07