Académique Documents
Professionnel Documents
Culture Documents
Cours1 THIC
Cours1 THIC
Master de cryptographie
5 et 8 janvier 2009
Université Rennes 1
Principes de base
L'information diminue l'incertitude
Moins un évènement est probable, plus il contient de l'information
Master Crypto (2008-2009) Théorie de l'information et codage 5 et 8 janvier 2009 2 / 21
Intoduction (2)
Modèles
Source/canal discret ou continu avec ou sans mémoire
Canal bruité ou non bruité
a ∈A a∈A
Théorème
Soit A un alphabet de cardinal n et p une loi de probabilité sur A. Alors
H (A) ≤ log2 n avec égalité si et seulement si p est la loi uniforme.
Dénitions
Un code C sur un alphabet Σ est un sous ensemble de Σ∗ .
Un code C est dit à déchirage unique ssi pour tous mots de C
u1 , · · · , un et v1 , · · · , vm ,
u1 · · · un = v1 · · · vm ⇒ n = m et ∀i , ui = vi
Un code est dit préxe si aucun mot du code n'est le préxe (début)
d'un autre.
Un code est dit à longueur xe si tous ses mots ont même longueur
Master Crypto (2008-2009) Théorie de l'information et codage 5 et 8 janvier 2009 9 / 21
Codages (binaires)
Dénition
Un codage d'un source discrète est une application injective qui associe à
chaque séquence nie de lettres de la source une séquence binaire nie, i.e.
une application de A∗ dans {0, 1}∗ si A est l'alphabet de la source.
m= p(a)|c (a)|.
X
a ∈A
Code optimal
On cherche à ce que l'ecacité soit la meilleure possible
Langage courant pas ecace (cf TD)
Représenter les 26 lettres avec 5 bits → E ≤ 94%
Associer aux lettres les plus courantes des codes plus courts (Morse,
Human)
Peut on atteindre une ecacité de 1 ? Le veut on ?
Master Crypto (2008-2009) Théorie de l'information et codage 5 et 8 janvier 2009 11 / 21
Codage avec un code de longueur xe
Propriété
Si une source a pour cardinal n, il est possible de la coder avec un code de
longueur xe m tel que
log2 n ≤ m ≤ 1 + log2 n
H ( A)
E =
m
H (A) ≤ log2 n ⇒ E ≤ 1 avec égalité si et seulement si
Les lettres de la source sont équiprobables.
Le cardinal de la source est une puissance de 2.
Proposition
Soit A une source de cardinal n. Soit Al la source de l -uplets de lettres de
A. Il existe un code de longueur xe ml pour Al tel que
ml 1
log2 n ≤ < + log2 n.
l l
L'ecacité de ce code vaut alors Hm(Al ) et converge vers log
H (A) quand l
2n
l
devient grand
Finalement, cela prouve que, pour une source munie d'une loi de probabilité
uniforme, l'ecacité du codage peut être arbitrairement proche de 1.
Théorème
Pour toute source discrète sans mémoire, il existe un codage (injectif)
permettant de coder la source et dont l'ecacité est arbitrairement proche
de 1.
Remarques
L'idée de la preuve est de coder les l -uplets avec des codes de
longueur variable.
La preuve est eective.
Reste à coder le canal (présence de bruit).
Entropie conditionnelle
Elle vaut H (A/B ) = − p(a, b) log2 p(a|b).
X
a ∈ A ,b ∈ B
et représente la quantité d'information perdue
Dénition
L'information mutuelle de a et b vaut
p(a|b)
I (a ; b ) = I (a) − I (a|b) = log2
p(a)
p (a , b )
= log2
p(a)p(b)
Le signe de I (a; b) détermine si l'incertitude sur a augmente ou diminue.
Information mutuelle moyenne
I (A; B ) = H (A) − H (A|B )
représente la quantité moyenne d'information transmise et est toujours
positive (ie l'incertitude sur A diminue toujours) ou nulle si A et B sont
indépendants.
Master Crypto (2008-2009) Théorie de l'information et codage 5 et 8 janvier 2009 18 / 21
Capacité d'un canal
Vocabulaire
Un canal est dit sans pertes si H (A|B ) = 0 pour toute les distributions
d'entrée. L'entrée du canal est déterminée par sa sortie.
Un canal est dit déterministe si la sortie est déterminée par l'entrée.
Un canal est dit sans bruit si il est déterministe et sans pertes.
Un canal est dit inutile si I (A, B ) = 0 pour toute les distributions
d'entrée.
Dénition
La capacité d'un canal est la plus grand quantité d'information moyenne
qu'il peut fournir sur A.
C = max I (A; B )
pA
Théorème
Soit C la capacité du canal de transmission et soient 2 réels ε > 0 et
c < C . Il existe un code de rendement supérieur à c tel que la probabilité
d'erreur en sortie soit inférieure à ε.
Réciproquement, pour tout code de rendement R > C , il existe une
constante KR ,C telle que la probabilité d'erreur en sortie soit supérieure à
KR ,C .
Remarque : Ce théorème n'est pas eectif.
Conséquence : On va étudier les codes correcteurs d'erreurs et c'est
toujours un sujet de recherche.