Académique Documents
Professionnel Documents
Culture Documents
1
Introduction
• Dans le codage de source, aucun élément extérieur ne vient
modifier l’information. Au contraire lorsque l’information
transite dans un canal, elle est perturbée par un bruit.
• Le résultat principal de ce chapitre est qu’il est possible de
coder de l’information de façon à ce que la détérioration
soit négligeable. Ceci se fait au prix d’une redondance de
l’information ou encore d’une vitesse de transmission ou de
capacités de stockage plus faibles.
• Pour tout canal de transmission on définit une grandeur
caractéristique appelée capacité du canal et que l’on peut
interpréter comme la quantité maximale d’information
pouvant transiter à travers le canal.
2
Modèle de transmission
BRUIT
xk yj
SOURCE CANAL RECEPTEUR
3
Modèle de transmission
• Dans un Canal digital on décrit le message émis par une
suite x1,x2, …. de symboles, et le message reçu par une suite
y1,y2,…. de symboles du même alphabet (transmission sans
codage).
• Dans le cas idéale on s'attend à ce que l'on n'ait
systématiquement xi = yi, sinon ceci exprime l’existence
d’un Bruit.
• On fait l'hypothèse que le bruit s'applique
indépendamment à chaque symbole et qu'il n'y a ni
symboles perdus ni symboles surnuméraires ; le canal est
alors modélisé seulement par ça matrice de transition :
Pij=P(Y=yj/X=xi)
4
• Du point de vue du récepteur :
- x est un symbole inconnu
- y est un symbole connu
- x et y sont corrélés Þ non indépendants
1
• La quantité I(x i /y j ) = Log 2 ( ) mesure l’incertitude sur xi
P(x i /y j )
connaissant yj .
• Exemple : X = {a, b} p(a) = p(b) = 1/2 ; I(a) = I(b) = 1 bit
Y = {c, d} p(a/c) = p(b/d) = 3/4 p(b/c) = p(a/d) = 1/4
I(a/c) = I(b/d) = log2(4/3) = 2 - log23 bits
I(b/c) = I(a/d) = log2(4) = 2 bits
I(a/c) = 2 - log23 < 1 donc I(a/c) < I(a)
L’incertitude sur « a » a diminué en connaissant « c ».
La connaissance de « c » apporte de l’information sur « a ».
I(a/d) = 2 > 1 donc I(a/d) > I(a).
L’incertitude sur « a » a augmenté en connaissant « d ».
La connaissance de « d » apporte de la désinformation sur « a5».
Information transmise sur un canal
• Soit x un symbole émis , et y le symbole reçu en sortie du
canal:
La quantité I(x,y)=I(x)-I(x/y) mesure en bit l’information
sur x apportée par y.
1 1 P(x/y)
I(x, y) = I(x) - I(x/y) = Log 2 ( ) - Log 2 ( ) = Log 2 ( )
P(x) P(x/y) P(x)
• Exemple :
I(a,c) =I(a) - I(a/c) = 1 - 2 + log23 = log23 - 1 > 0
« c » apporte une information positive sur « a »
I(a,d) = I(a) - I(a/d) = 1 - 2 = -1 < 0
« d » apporte une information négative sur « a »
6
Incertitude sur la source
• Pour un symbole yi reçu, l’incertitude sur la source X par
rapport à la réception de yi est définie par :
n
1
H(X/y i ) = å P(x k /y i ) * Log 2 ( )
k =1 P(x k /y i )
• On peut montré que H(X/yi)≤ H(X) :
La connaissance d’un symbole reçu diminue toujours
l’incertitude sur la source
• En moyenne, l’incertitude sur la source X par rapport à la
sortie du canal Y est donnée par:
m m n
H(X/Y) = å P( y j ) * H(X/y j ) = -åå P(x i , y j ) * Log 2 (P(x i /y j ))
j =1 j =1 i =1
7
Incertitude sur la source
8
Information mutuelle moyenne
• L’information mutuelle moyenne définie par :
n m
I(X, Y) = åå P(x i , y j ) * I(x i , y j )
i =1 j =1
= H(X) - H(X/Y)
9
Information mutuelle moyenne
• Propriétés
1) I(X,Y)=H(X)-H(X/Y)
= H(Y)-H(Y/X)
L’information apportée par la sortie sur la source est égale
à l’information apportée par la source sur la sortie
(symétrie source/sortie )
2) 0 ≤ I(X,Y) ≤ H(X)
0 ≤ I(X,Y) ≤ H(Y)
L’information apportée par Y sur X est au plus égale
à l’incertitude sur X ou Y.
10
Cas Extrêmes
• H(X/Y) = 0 Þ I(X,Y)=H(X)
– L’incertitude sur X est nulle quand on connaît Y.
– L’information apportée par Y égale l’incertitude sur X.
– Y est déterminé par X (dans le cas générale Y=X).
– Pas d’erreurs de transmissions sur le canal.
• H(X/Y) = H(X) Þ I(X,Y)=0
– X et Y sont indépendants.
– L’incertitude sur X reste la même quand on connaît Y.
– Y « n’apprend » rien sur X.
– Bruit maximum, l’information est totalement perdu.
• Cas pratique : 0 ≤ I(X,Y)≤ Min(H(X),H(Y))
11
Bruits et information mutuelle
• Pour un canal de transmission, on connait:
– la distribution de la source P(xi)
– le bruit du canal P(yj/xk): distribution de chaque sortie
(yj) pour chaque entrée (xk) (matrice de transitions)
• On peut déduire :
– la distribution de la sortie P(yj)
– La distribution de la source connaissant la sortie P(xk/yj).
• Ce qui permet de mesuré ensuite : H(X), H(Y), H(X/Y),
H(Y/X) et bien sûr I(X,Y)
• La transinformation est une mesure en bits de la
dégradation de l’information transmise avec du bruit.
12
Capacité d’un canal
• I(X,Y) représente l’information transmise par le canal
elle mesure aussi la dégradation de l’information transmise
à travers le canal :
I(X,Y) augment Þ bruit diminue ÞMeilleur transmission
I(X,Y) diminue Þ bruit augmente Þ Mauvaise transmission
• I(X,Y) dépend seulement de la distribution de la source X et
de la matrice de transition du canal.
• Puisque la matrice est constante, il existe donc (au moins)
une distribution de X telle que I(X,Y) soit maximal.
• On peut modifier la distribution de X en codant la source
pour l’adapter au bruit du canal.
13
Capacité d’un canal
• La capacité d'un canal est définie par l'information
mutuelle maximale entre la source X à valeurs sur
l'alphabet d'entré du canal, et sa sortie correspondante Y
sur le canal .
C = Max(I(X, Y))
P(X)
14
Capacité d’un canal
Information transmise
I(X,Y)
15
Capacité du Canal binaire symétrique
Avec la matrice de transitions:
æ1 - p p ö
çç ÷÷
è p 1- p ø
17
Capacité du Canal binaire symétrique
• On pose f(a)=a-2pa+p donc
H(Y)=-f(a)Log2(f(a))-(1- f(a))Log2(1-f(a))
Et on obtient
dH(Y) 1 - f(a ) 1 - f(a )
= f' (a )Log 2 ( ) = (1- 2 p )Log 2 ( )
da f(a ) f(a )
19
Capacité du Canal à effacement
• Ensuite on calcule H(Y):
H(Y)=-a(1-p)Log2(a(1-p))-(1- a)(1-p)Log2((1- a)(1-p))-pLog2p
=(1-p)H2(a)+H2(p)
• On calcule ensuite
H(Y/X) =P(X=0)*H(Y/0)+P(X=1)*H(Y/1)=P(X=0)*H2(p)+P(X=1)*H2(p)
=H2(p)
• Et donc
I(X,Y) =H(Y)-H(Y/X)=(1-p)H2(a)+H2(p)-H2(p)=(1-p)H2(a)
On dérive par rapport à a:
dI(X, Y) dH 2 (a ) d(a log 2 (a ) + (1 - a )Log 2(1 - a ))
= =-
da da da
a
= (1 + Log 2 (a ) - (1 + Log 2 (1 - a ))) = Log 2 (a ) - Log 2 (1 - a ) = Log 2 ( )
1-a
20
Capacité du Canal à effacement
• La dérivé s’annule pour :
Log2(a/(1- a))=0 donc a=1- a Þ a=1/2
(Distribution uniforme de X)
• La valeur de la capacité est dans ce cas:
C=(1-p)*H2(1/2)=1-p
21
Codage d’un canal
• Shannon a imaginé les choses de la manière suivante :
1- H(X) est la quantité d'information moyenne contenue
dans les symbole de la source.
2- La transinformation est calculer par I(X,Y)=H(X)-H(X/Y)
24
Codage par bloc d’un canal
• Nous considérons des suites binaires sources qui sont des
blocs de longueur fixe m de lettres de l’alphabet X = {0, 1}.
• Chaque bloc est d’abord codé à l’aide d’un code binaire de
longueur constante égale à n, et de cardinal M ≤ 2m
(contient M séquence de longueur n). Ce code est appelé
codage de canal par blocs.
• Les blocs codés passent ensuite dans un canal discret sans
mémoire (X,Y, Π), où X est l’alphabet d’entrée du canal et Y
est son alphabet de sortie. On suppose ici que X = Y = {0, 1}.
• Après le passage dans le canal, on souhaite retrouver la
suite binaire initiale. C’est le rôle joué par le décodeur. Le
décodage transforme donc une suite de n lettres de Y en
une suite source de m lettres de X.
25
Codage par bloc d’un canal
• On définie le rendement du code (le taux de transmission ),
par R=Log2(M)/n ≤ 1.
R=1 indique qu’aucune redondance n’est introduite par le
code. R=1/2 par exemple indique que la taille est doublé par
le code.
• Exemples :
- Code a répétition de longueur 3: C = {000,111}, m=1, n=3, M=2
- Code de parité de longueur 4: C = {0000, 0011, 0101, 0110, 1001,
1010, 1100, 1111}, m=3, n=4, M= 8
- Code de Hamming de longueur 7: C = {0000000, 1101000, 0110100,
0011010,0001101, 1000110, 0100011, 1010001, 1111111, 0010111,
1001011, 1100101, 1110010, 0111001, 1011100, 0101110}, m=3, n=7,
M=16
26
Codage par bloc d’un canal
• Soit C un code par bloc (M, n) utilisé dans un canal (X,Y, Π):
Définition : Un algorithme de décodage de C est une
procédure qui a tout bloc de n lettres de Y associe un mot de
code de C.
28
Second théorème de Shannon
29
Second théorème de Shannon
• Conséquence du second théorème de Shannon:
Soit un canal discret de capacité C et une source discrète
d'entropie H.
1. Si H ≤ C , alors il existe un système de codage tel que
l'information de la source peut être transmise sur le canal
avec une probabilité d'erreur aussi petite que l'on veut.
30
Conclusion
• La capacité d’un canal de transmission sans mémoire est
entièrement définie par la quantité d’information mutuelle
transmise qui ne dépond que de la distribution de la source
et de la probabilité d’erreur (matrice de transitions)
• Selon la valeur de cette capacité, des codes peuvent être
construits pour corrigé les erreurs de transmissions
produits en introduisant de la redondance d’information
dans le message pour compensé la valeur H(X/Y) perdu.
• De telles codes ont un taux de transmission entièrement
définie par la valeur de la capacité du canal. Ainsi, une
limite minimale de redondance est imposé pour obtenir
une transmission sûre et sans erreurs.
31