Académique Documents
Professionnel Documents
Culture Documents
Exercice 0 :
Lors de la transmission par un canal, nous souhaitons récupérer l'information sans distorsion, autrement
dit, l'alphabet de sortie du canal doit être le même que celui de l'entrée. Simplifions encore l'exemple à un
canal qui doit transmettre des messages. Si nous appelons p la probabilité d'erreur nous pouvons
schématiser le fonctionnement du canal par le graphe suivant :
Ici c'est celui d'un canal dit "binaire symétrique" et il a la signification suivante:
Probabilités jointes entre les deux sources : calculées avec la loi de Bayes p( x , y ) = p( y/x ).p( x )
p( x1 , y1 ) =
p( x2 , y1 ) =
p( x1 , y2 ) =
p( x2 , y2 ) =
2
Probabilités marginales de la source Y : calculées à partir des probabilités jointes p( y j ) = ∑ p( xi , y j )
i =1
p( y1 ) =
p( y2 ) =
I( x2 ) =
I( y1 ) =
I( y2 ) =
Entropie jointe: H( X , Y )
H( X /Y ) =
Exercice 1
Soit une source décrite par la variable aléatoire X qui peut prendre 6 valeurs {A, B, C, D, E, F} avec les
1 2 3 4 5 6
probabilités , , , , ,
21 21 21 21 21 21
1°) Construire un code de Huffman binaire pour X. (le dessin de construction de codes)
2°) Tracer l’arbre du code finale (verticalement).
3°) Donner finalement les codes de chaque symbole de X.
4°) Calculer l’entropie H(X) de ce code.
5°) Calculer la longueur moyenne de ce code.
6°) Calculer l’efficacité de ce code.
7°) Calculer le rapport de compression entre le code de Huffman et le code ASCII (version 8 bits) pour
cette exemple.
8°) Refaire le codage en appliquant le code de Fano-Shannon.
9°) Comparer les 2 codes (Huffman et Fano-Shannon) en terme d‘efficacité. En déduire le code le plus
performant des deux pour cet exemple.
Exercice 2
Soit une source décrite par la variable aléatoire X qui peut prendre 7 valeurs
1 2 3 4 5 6 7
X= {A, B, C, D, E, F, G} avec les probabilités , , , , , ,
28 28 28 28 28 28 28
1°) Construire un code de Huffman binaire pour X. (le dessin de construction de codes)
2°) Tracer l’arbre du code finale (verticalement).
3°) Donner finalement les codes de chaque symbole de X.
4°) Calculer l’entropie H(X) de ce code.
5°) Calculer la longueur moyenne de ce code.
6°) Calculer l’efficacité de ce code.
7°) Calculer le rapport de compression entre le code de Huffman et le code ASCII (version 8 bits) pour
cette exemple.
8°) Refaire le codage en appliquant le code de Fano-Shannon.
9°) Comparer les 2 codes (Huffman et Fano-Shannon) en terme d‘efficacité. En déduire le code le plus
performant des deux pour cet exemple.
Exercice 3
Exercice 4
Soit le code cyclique de longueur 7 généré par le polynôme g(x) :
g(x) = 1 + x2 + x3
Exercice 5
Exercice 6
1°) Rappeler les propriétés d’un code cyclique systématique. Pour un tel code de type (n,k)
préciser le nombre de bits du message, le nombre de bits de contrôle et le nombre de bits du mot de code
généré. En appelant {ci} les bits du mot de code, {mj} les bits du message et {bm} les bits de contrôle,
indiquer clairement sur l’exemple d’un code (6,2) comment sont générés les bits {ci}à partir des bits {mj}
et {bm}. On précisera la place de ces bits dans le mot de code ainsi que la position des poids faibles et des
poids forts. Cette convention sera celle que vous devrez utiliser dans toute la suite de l’exercice.
Exercice 7
1°) Un code de convolution est généré avec les trois polynômes :
• g1(X)= 1+X2
• g2(X)= 1+X
• g3(X)= 1+X+X2
l’entrelacement étant effectué dans l’ordre 1,2,3.
1.c Avec la convention [poids faible……poids fort] quel sera le mot de code généré par cet
encodeur pour un message [1011] ?
2.b Tracer l’arbre du code. Quel est le nombre d’états différents intervenant ?
3°) Décodage
3.a On cherche à détecter les mots de code transmis. Citer un algorithme permettant de
réaliser ce décodage. Quel est son principe de base?
3.b On reçoit le mot de code [111 110 110 010 011 101] ([premier bit
transmis………...dernier bit transmis]). Quel était le message émis ? Est-ce le mot de code qu’on
aurait dû réceptionner pour ce message ?
Exercice 8
On considère le code de Hamming (n,k) avec n=7 et k=4. La matrice de contrôle de parité correspondante
est :
1 0 0 1 0 1 1
H=0 1 0 1 1 1 0
0 0 1 0 1 1 1