Introduction
e (expediteur) envoie un message `a d (destinataire) ?
e agit physiquement de facon `a produire chez d un etat desire. Toutefois le
bruit rend la reception incertaine. La communication est reussie si e et d sont
daccord ce qui a ete envoye.
1
2
1
2
Nx
Ny
1
|
m
{z
message
M
}
xm
1
{z
xm
n
canal bruit
e
xm
i X , card(X )=Nx
y1
{z
yn
yj Y, card(Y)=Ny
Exemple
Bruit AGB
xk
a h(tkT)
h(t)
Filtre adapt
h*( t)
kT+
yk
zk
Figure 2: Transmission binaire sans IES sur un canal ideal de bande B soumis `a un
bruit AGB.
Th
eor`
eme de codage de canal
D
efinition 1 (Canal discret) Un canal discret est constitue dun alphabet
dentree X de taille finie, dun alphabet de sortie Y de taille finie et dune loi
de probabilite de transition notee p(y|x). On le note {X , p(y|x), Y}.
D
efinition 2 (Extension sans m
emoire et sans voie de retour)
Lextension dordre n sans memoire et sans voie de retour dun canal discret
{X , p(y|x), Y} est le canal {X n , p(y n |xn ), Y n } o`
u:
P [Yn = yn , . . . , Y1 = y1 |Xn = xn , . . . , X1 = x1 ] =
n
Y
P [Yk = yk |Xk = xk ]
(1)
k=1
D
efinition 3 ((n, M )-code) Un (n, M )-code pour le canal
{X n , p(y n |xn ), Y n } est defini par la donnee :
dun ensemble M = {1, . . . , M } de M indices (messages),
dune application c : M 7 X n ,
et dune application g : Y n 7 M, appelee r`egle de decision.
c(i) = (c1 (i), , cn (i)) est appele un mot-code.
D
efinition 4 On appelle probabilite derreur maximale dun (n, M )-code sur
le canal {X n , p(y n |xn ), Y n } :
Pe (M, n)
yY n
D
efinition 5 (Capacit
e) Soit un (n, M )-code sur le canal
{X n , p(y n |xn ), Y n }. On note r = log2 (M )/n le taux de codage (qui se mesure
en bits par utilisation du canal). On dit que r est acceptable si Pe (M, n) tend
vers 0 quand n tend vers linfini. La plus grande valeur de r est appelee la
capacite.
Th
eor`
eme 1 (Codage de canal) Soit {X , p(y|x), Y} un canal sans
memoire. Sa capacite est donnee par :
o`
u
I(X, Y ) =
XX
xX yY
C = max I(X, Y )
{PX }
P [X = x, Y = y]
P [X = x, Y = y] log2
P [X = x] P [Y = y]
o`
u {PX } designe lensemble de toutes les lois de probabilite sur X . I(X, Y )
sappelle linformation mutuelle.
Proprietes :
C 0,
C min{log2 (cardX ), log2 (cardY)}.
Calculs de capacit
es
Canal CBS X = {0, 1}, Y = {0, 1} et
P [Y = 0|X = 1] = P [Y = 1|X = 0] = p,
0
X
1
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
10
n(1p)
1
= pnp (1 p)n(1p) = 2n(p log2 (p)+(1p) log2 (1p)) = 2n(1C(p))
t
11
Canal `
a effacements X = {0, 1}, Y = {0, , 1},
P [Yn = |Xn = 0] = P [Yn = |Xn = 1] = p et
P [Yn = 1|Xn = 0] = P [Yn = 0|Xn = 1] = 0
0
q
p
p
q
12
13
Entr
ee binaire-sortie gaussienne : lalphabet dentree X = {0, 1} et
lalphabet de sortie Y = R. On a :
Y =a+B
avec a {1, 1} et B G(0, 2 ). La probabilite de transition est definie
par :
p0 (y) =
2
2
2
2
1
1
e(y+1) /2 et p1 (y) =
e(y1) /2
2
2
Z
p0 (y) log2
C2,S () = 1 +
R
p0 (y)
p0 (y) + p1 (y)
dy
(2)
2 2
o`
u = E X / = 1/ 2 designe le rapport signal sur bruit.
2
14
Entr
ee M -aire sortie gaussienne : lalphabet dentree X = {1, M } et on
a:
Y =a+B
avec a {(M 1) : 2 : M 1} et B G(0, 2 ). La capacite est donnee
par :
!
Z
M
1 X
pj (y)
CS () log2 (M ) +
dy
(3)
pj (y) log2 PM
M j=1 R
`=1 p` (y)
o`
u 2 = (M 2 1)/3 2 designe le rapport signal sur bruit.
15
Entr
ee gaussienne-sortie gaussienne :
1
2
CG () = log2 1 +
2
(4)
16
1.8
1.6
1.4
1.2
(c)
1
(b)
0.8
(a)
0.6
0.4
0.2
2
10
17
16
0
5
10
15
20
25
30
2
Figure 7: Les lois de transition sont M lois gaussiennes, de meme variance B
et de
18