1. Introduction
Le canal opère une transformation entre l'espace des symboles à l'entrée et celui de la sortie.
C’et le milieu de transmission de l'information situé entre la source et la destination.
Plusieurs modèles de canaux peuvent être envisages :
Canal discret : les espaces d'entrée et de sortie sont discrets,
Canal continu : les espaces d'entrée et de sortie sont continus,
Canal sans mémoire : si la transformation d'un symbole x à l'entrée en un symbole y
en sortie ne dépend pas des transformations antérieures,
Canal stationnaire : si les transformations ne dépendent pas de l'origine des temps.
est appelée matrice stochastique du canal. Nous parlerons d’un canal (X, Y, π).
1 Mme BOUCHAIB F.
Département Informatique M1 Réseaux & Sécurité Théorie de l’information
2 Mme BOUCHAIB F.
Département Informatique M1 Réseaux & Sécurité Théorie de l’information
est telle que ses lignes sont toutes égales à l’ordre près. On pose pour tout couple (k,j), πk,j =
P(bj | ak).
L’information mutuelle moyenne s’écrit : I(X; Y ) = H(Y ) − H(Y | X),
Où H(Y | X) l’entropie conditionnelle de Y sachant X est égale à :
Par définition d’un canal symétrique, le terme -∑j πk,j log2 πk,j est indépendant de k. Notons
Donc pour maximiser I(X; Y ) = H(Y ) − H(π) il suffira de maximiser H(Y ). Or nous savons
que l’entropie de Y sera maximale lorsque la loi de Y sera uniforme et nous aurons alors
H(Y ) = log2 J.
C = log2 J − H(π).
Et donc,
La capacité du canal binaire symétrique de probabilité d’erreur p est donc égale à :
C = 1 + p log2 p + (1 − p) log2(1 − p).
3 Mme BOUCHAIB F.
Département Informatique M1 Réseaux & Sécurité Théorie de l’information
4. Codage de canal
Accroître (autant que l’on veut) la sécurité de la transmission en présence de bruit
Ajouter de la redondance pour la détection, voire la correction, de principales erreurs
D’après les hypothèses que nous avons admises jusqu’à présent, l’entrée du codeur de canal
est égale à la sortie du codeur de source, c’est-à-dire qu’il s’agit d’une séquence binaire.
Un codage d’un canal discret (X, Y, π) est une procédure qui associe à chaque séquence
binaire finie une séquence finie de lettres de X.
Un algorithme de décodage d’un codage d’un canal (X, Y, π) sera une procédure qui à
toute séquence de lettres de Y associe une séquence binaire.
cardinal 2l sera une procédure qui à tout n-uplet de Y associe un l-uplet binaire.
4 Mme BOUCHAIB F.
Département Informatique M1 Réseaux & Sécurité Théorie de l’information
Pour un tel canal, nous utiliserons des codes binaires, c’est-à-dire des sous ensemble de {0,
1}n pour un certain entier n.
Le cas général :
Un code aura un taux de 1 lorsque M = 2n, c’est-à-dire qu’aucune redondance n’aura été
ajoutée. Un code de taux 1/2 signifiera que M = 2n/2, c’est-à-dire, si n est pair que le code
double la longueur des séquences binaires.
de lettres de Y.
Soit Ø un algorithme de décodage nous noterons Pr(Ø (→) = →) la probabilité pour que le
mot ~y de Y n soit décodé par le mot de code ~x. Nous noterons Pr(Ø (→) ≠ →) = 1−Pr(Ø (→)
La grandeur Pr(Ø (→) ≠ →) peut être considérée comme une v.a. réelle, donc il est possible de
calculer sa moyenne.
5 Mme BOUCHAIB F.
Département Informatique M1 Réseaux & Sécurité Théorie de l’information
Le taux d’erreur Pe est bien un taux d’échec moyen dans le cas ou la loi d’émission est
uniforme. Ce n’est pas le cas en général.
Ce théorème signifie donc qu’il existe des codes en bloc permettant de réaliser un code dont
le taux est aussi proche qu’on le désire de la capacité du canal.
Il existe un autre résultat qui est la réciproque de ce théorème.
6 Mme BOUCHAIB F.