Vous êtes sur la page 1sur 6

Solution de série de TD n°=02

Exo01 : (on a changé c pour donner un bon exemple)

A=0 C= 01 G=001 T=101

1-Les longueurs des symboles :

L1=longueur(A)=1 L2= longueur (C)=2 L3= longueur (G)= 3 L4= longueur(T)=3

2- le code n’est pas intelligible car on a deux cas d’interprétation :

On peut considérer G comme étant G ou AC

−𝑙𝑖
3- si on applique l’inégalité de Kraft = ∑𝑘
𝑖 2 =2-1+2-2+ 2-3+2-3= 1 donc c’est code complet

Remarque : l’inégalité de kraft est vérifiée ≤1 mais le code n’est pas préfixe, c’est pour ça la définition dit
que l’inégalité est une condition d’existence de code instantané préfixe mais ça veut pas dire que c’est le
code dicté dans l’exercice(il existe un code).

Exo3 :

S S1 S2 S3 S4 S5 S6 S7 S8 S9 S10 S11
pi 0.22 0.15 0.12 0.11 0.10 0.08 0.07 0.06 0.04 0.03 0.02

Calculer l’entropie de la source.

H(S) = 3.197 sh
Remarque : Dans le cas de l’équiprobabilité : pi = 1/11
et H(S) = – log2(1/11) = 3.459
On constate bien que l’entropie est supérieure dans le cas de l’équiprobabilité des symboles.

Codage de Shannon

Les symboles si sont codés par un nombre li d’éléments unitaires tel que :

Donner un code de Shannon binaire pour la source ci-dessus. Une méthode simple consiste à
calculer la longueur de chaque mot de code puis à construire un arbre binaire respectant ces
longueurs.

lmoy =∑𝒏𝒊 𝑳𝒊. 𝑷𝒊 =3.83

Codage de Fano-Shannon
Il s’agit de construire un arbre en équilibrant à chaque fois au maximum les sous-arbres droit et
gauche.
2.4.1. Donner un code binaire pour la source ci-dessus en appliquant la méthode de Fano-Shannon.
Vous remarquez que : 0.49~0.51

C’est pourquoi on a subdivise le tableau en sous-ensembles de probabilités de valeurs proches ainsi


de suite.

A la fin on lit le code de chaque symbole.

Le codage obtenu est le suivant :

les
caractéristiques de ce code.

lmoy = 3.23

Codage de Huffman
Le codage obtenu est le suivant :

les caractéristiques de ce code.

lmoy = 3.22

Exo04 :

Remarque : on n’a pas pris l’espace en considération.


A chaque fois on somme les probabilités minimales. Je peux faire autrement :

X+R=2

X+R+L=3 ou L+U=3 mais…………

Toujours commencer par sommer les prob minim

Donc le code obtenu est :

Le code obtenue de la séquence « RESEAUX ET TELECOMMUNICATIONS » est :

00001/01/1001/01/1111/1000/00000/01/001/001/01/0001/01/1110/1010/1100/1100/1000/1011/110
1/1110/1111/001/1101/1010/1011/1001
Le gain de compression :

Le poids du fichier (taille du fichier) en utilisant code ASCII (8bits) = 27*8=216 bits

Le poids du fichier en utilisant code huffman :

Le poids= 1*5+1*5+1*4+2*4+2*4+2*4+2*4+2*4+2*4+2*4+2*4+3*3+5*2=97 bits

Le taux de compression G= 1-97/216=0.55

Exercice 5 :
Soit la séquence suivante : « abracadabrabracadabra »
clé a b c d r
fréquence 9 4 2 2 4

clé code
a 1
b 011
c 001
d 000
r 010

Le gain de compression :

Le poids du fichier (taille du fichier) en utilisant code ASCII (8bits) = 21*8=168 bits

Le poids du fichier en utilisant code huffman : 9*1+4*3+2*3+2*3+4*3=45 bits

Le taux de compression G= 1-45/168=0.73