Vous êtes sur la page 1sur 2

Université d’Aix-Marseille

Cryptographie

Semestre 2 Exercices pour le TD 4 2014–2015

Soit Ci : X → {0, 1}n les codages linéaires avec matrices génératrices


 
    1 0 0 0 1 1 0
110001 110011 0100011
G1 = , G2 =  0 0 1 0 1 1 1 ·
, et G3 =  
001110 001111
0001101

Rappelons que pour chaque x dans An où |A| = q, et entier t, le cardinal de la boule


B(x, t) est
t  
X n
|B(x, t)| = V (q, n, t) = (q − 1)i .
i=0
i
On suppose que Ci est utilisé pour transmission sur un canal binaire symétrique, avec
probabilité d’erreur ε = 0, 10.

Bornes de Hamming et Gilbert-Varshamov


1. Montrer que le code binaire de répétition de longueur n (code linéaire avec G =
[1, 1, . . . , 1]) est un code MDS, et si n = d = 2t + 1, il est parfait.
2. Montrer qu’un code de Hamming est parfait. Indication : Utiliser le fait que les
paramètres sont [n, n − r, 3], où n = 2r − 1.
3. Remplir les valeurs de V (2, n, t) dans le tableau suivant :

t 0 1 2 3 4 5 6 7
V (2, 2, t)
V (2, 3, t)
V (2, 4, t)
V (2, 5, t)
V (2, 6, t)
V (2, 7, t)

Pour quelles valeurs [n, k, d] ci-dessus est-ce qu’il peut exister un codage linéaire
en bloc parfait ?
4. Trouver les paramètres [n, k, d] pour chaque code, vérifier les bornes de Singleton et
Hamming, et déterminer s’ils sont minorisés par la borne de Gilbert-Varshamov.
5. Pour chaque code Ci et t entre 0 et 2, compter |B(Ci , t)|, le nombre de mots à
distance t d’un mot de code.
Décodage à distance minimale
6. Pour un code C ⊂ An , avec d(C) > 2t + 1, on définit

S0 = B(c, t), S1 = An \B(c, t), S2 = B(C\{c}, t),

tel que An = S0 ∪ S1 ∪ S2 . Pour chaque sphère S(c, j) metre Nij = |Si ∩ S(c, j)| et
puis
Xn
pi = Nij εj (1 − ε)n−j .
j=0

Pour un strategie de correction jusqu’à distance t, montrer que


— p0 est la probabilité de décodage correct du mot reçu,
— p1 est la probabilité de détection d’un erreur, et
— p2 est la probabilité d’un erreur de décodage.
7. Pour les codes C1 et C2 , remplir le tableau ci-dessous avec t = 1 ≤ b(d(Ci ) − 1)/2c.

j |S(c, j)| N0j N1j N2j


0 1
1 6
2 15
3 20
4 15
5 6
6 1

Déterminer les probabilités p0 , p1 et p2 pour chaque code, en utilisant ε = 0, 10.


Répéter l’exercise pour C3 (avec n = 7 et t = 1).
8. Étant donné l’entropie H(0,10) = 0,469, déterminer la capacité du canal. Lesquels
des codes Ci ont un taux de transmission compatible avec le deuxième théorème
(canal bruyant) de Shannon. Expliquer s’il est pertinant ou pas pour un code
particulier.

Vous aimerez peut-être aussi