Académique Documents
Professionnel Documents
Culture Documents
Perf S System Es Codes
Perf S System Es Codes
olivier.rioul@telecom-paristech.fr
Version 3.0 (2011)
ii
iv
2 Maximum de vraisemblance
29
2.1 Gnralits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Maximiser la probabilit a posteriori . . . . . . . . . . . . . . . . . . 30
2.3 Maximiser la vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Minimiser la distance euclidienne . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Canal gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.2 Canal de Rayleigh* . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.5 Minimiser la distance de Hamming . . . . . . . . . . . . . . . . . . . 32
2.5.1 Canal q-SC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.5.2 Canal erreurs et effacements* . . . . . . . . . . . . . . . . . . 33
2.6 Dcodage Hard et dcodage Soft . . . . . . . . . . . . . . . . . . . 34
2.6.1 Dcodage Soft . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.6.2 Dcodage Hard . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.6.3 Dcodage Hard avec effacements* . . . . . . . . . . . . . . . 36
3 Bornes sur la probabilit derreur
39
3.1 Gnralits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2 Borne de lunion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3 Borne de Bhattacharyya . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4 Cas dun canal gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4.1 Calcul exact de la probabilit derreur par paire . . . . . . . . 41
3.4.2 Borne de Bhattacharyya . . . . . . . . . . . . . . . . . . . . . . 42
3.5 Cas dun canal q-SC ou BSC . . . . . . . . . . . . . . . . . . . . . . . . 43
3.5.1 Calcul exact de la probabilit derreur par paire . . . . . . . . 43
3.5.2 Borne de Bhattacharyya . . . . . . . . . . . . . . . . . . . . . . 44
3.6 Autres bornes* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.6.1 Borne de Chernoff* . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.6.2 Borne de Gallager* . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.7 Distribution de distances . . . . . . . . . . . . . . . . . . . . . . . . . 47
4 Performances de modulations linaires
51
4.1 Gnralits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2 Modulation binaire (BPSK) . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.1 Canal gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
65
vi
93
6.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2 Taux du code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
6.3 Technique du codage alatoire . . . . . . . . . . . . . . . . . . . . . 94
6.3.1 Loi de probabilit sur les codes . . . . . . . . . . . . . . . . . . 94
6.3.2 Loi de probabilit sur les mots de code . . . . . . . . . . . . . 95
6.3.3 Loi de probabilit sur les symboles cods . . . . . . . . . . . . 96
6.3.4 Remarque pour les canaux continus . . . . . . . . . . . . . . . 96
6.3.5 Performance du meilleur code . . . . . . . . . . . . . . . . . 97
6.4 Calcul de la probabilit derreur moyenne . . . . . . . . . . . . . . . 97
6.5 Taux critique R 0 du canal . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.5.1 Le thorme R 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.5.2 Cas du canal q-SC . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.5.3 Cas du canal gaussien* . . . . . . . . . . . . . . . . . . . . . . . 102
6.5.4 Cas du canal gaussien entre binaire . . . . . . . . . . . . . 103
6.6 Capacit C du canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.6.1 Le thorme de Shannon . . . . . . . . . . . . . . . . . . . . . 103
6.6.2 Rciproque du thorme de Shannon . . . . . . . . . . . . . . 105
6.6.3 Cas du canal q-SC . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.6.4 Cas du canal gaussien . . . . . . . . . . . . . . . . . . . . . . . 107
6.6.5 Cas du canal gaussien entre binaire . . . . . . . . . . . . . 109
6.7 Performances optimales en dcodage hard . . . . . . . . . . . . . . 109
6.8 Performances optimales en dcodage soft . . . . . . . . . . . . . . 112
6.9 Comparaison entre dcodage hard et soft . . . . . . . . . . . . . . . . 115
7 Exercices
119
vii
viii
. . . . . . . 110
xi
xii
Prsentation gnrale
La thorie du codage correcteur derreurs vue en dominante Communications est esthtique du point de vue mathmatique mais pose un certain
nombre de problmes pratiques. A cet gard, Elwyn R. Berlekamp, lune des
grandes figures dans ce domaine, pose les questions fondamentales :
1. How good are the best codes ?
2. How can we design good codes ?
3. How can we decode them ?
Ce document prsente les bases et ltat de lart en ce qui concerne ces trois
problmes, qui sont toujours dactualit. Il sadresse aux tudiants dsireux de
travailler dans ce domaine et donc de possder des bases solides en thorie des
communications.
1. Etant donn un code, comment peut-on savoir sil est bon ? Autrement dit,
comment estimer les performances dun code donn en termes de probabilit derreur ? Nous donnerons les mthodes de calcul des performances
des systmes cods (borne de lunion, borne de Batthacharyya) la fois
pour les codes en blocs et les codes convolutifs, pour diffrents types de
canaux utiliss en pratique.
2. Comment peut-on trouver de bons codes ? Ils sont difficiles trouver, bien
que la thorie de linformation suggre quun code choisi au hasard a des
chances dtre bon ! Nous illustrerons ce paradoxe apparant en introduisant la technique du codage alatoire.
3. Comment peut-on dcoder facilement un code ? Cette question trouver
des algorithmes de dcodage efficaces donnant lieu une implantation
aise est extrment importante. Cest en effet la complexit du dcodage
1
PRSENTATION GNRALE
qui constitue le principal goulet dtranglement pour la ralisation dune
chane de transmission. Imposer quun code soit la fois bon du point
de vue des performances et facile implanter, rend ncessaire ltude de
codes trs structurs, comme les codes BCH et de Reed-Solomon.
Nous donnons dans un deuxime document intitul Corps finis, Transforme de Fourier et Codes spectraux, tous les outils mathmatiques
ncessaires (notamment la transforme de Fourier) pour ltude dtaille
de ces codes et de quelques algorithmes de dcodage dcisions fermes
(algorithme de Berlekamp-Massey et algorithme dEuclide). Ce document
ne concerne que les algorithmes de dcodage "hard" ( dcisions fermes),
par opposition au dcodage "soft" ( dcisions douces : Algorithmes de
Forney, de Wagner gnralis, de Viterbi entre et/ou sortie souples...)
qui sera expos dans un autre module de loption.
Bibliographie
[1] Andrew J. Viterbi et Jim K. Omura, Principles of Digital Communication and
Coding, 560 p., chaps. 24, McGraw-Hill, 1979.
[2] Robert J. McEliece, The Theory of Information and Coding, 302 p., chaps. 2, 4, 7
et 9, Encyclopedia of Mathematics and Applications, Addison-Wesley, 1977.
[3] Richard E. Blahut, Theory and Practice of Error Control Codes, 500 p.,
chaps. 1415, Addison-Wesley, 1983.
[4] John G. Proakis, Digital Communications, 928 p., chaps. 78, McGraw-Hill,
3rd edition, 1995.
Claude E. Shannon
Chapitre 1
Introduction au problme du
dcodage optimal
1.1 Formulation gnrale du problme
Nous utilisons ici un modle trs gnral de transmission numrique, dcrit
la Fig. 1.1.
Y
-
Canal
- X = f (Y )
Dcodeur
CHAPITRE 1. INTRODUCTION
Trs souvent, on dfinit le canal par une relation de la forme :
Y = X +B
1
q
x X
Noter que la probabilit derreur est ici une probabilit derreur par symbole,
parfois note P e/s .
On distingue deux types de canaux :
Canal continu
Exemples : Canal gaussien, de Rayleigh, . . .
Le symbole dentre X est un point dune constellation R ou C, parfois
Rn (voir exercice). Cette constellation (alphabet de X ) est dtermine par le
type de modulation utilis.
Le symbole reu Y est une v.a. continue. Les probabilits de transition dfinissant le canal sont alors des densits de probabilit :
4
p(y|x) =
p(x, y)
p(x)
p(y|x)d y =
p(x, y)d y
p(x)
p(x)
= 1.
p(x)
Canal discret
Exemples : Canal binaire symtrique (CBS), canal effacements, . . .
Le symbole reu y est une v.a. discrte prenant ses valeurs dans un alphabet
Y . Souvent Y = X (mme alphabet que X ), et en gnral Y X (pour le canal
effacements, par exemple).
Le canal est alors dfini par la donne des probabilits conditionnelles pour
tout x X et y Y :
4
p(y|x) =
p(x, y)
p(x)
qui vrifient :
X
y
p(y|x) =
p(x, y)/p(x) =
p(x)
= 1.
p(x)
CHAPITRE 1. INTRODUCTION
p(y|x) =
n
Y
p(y i |x i )
i =1
o x = (x 1 , x 2 , . . . , x n ) et y = (y 1 , y 2 , . . . , y n ). En dautres termes, les lois de Yi sachant X i = x i sont indpendantes. Noter que lon a bien :
Z Y
Z
Z
YZ
p(y i |x i )d y i =
p(y i |x i )d y i = 1
p(y)d y =
yn i
y1
yi
y1
yn i
yi
X
-
codeur
canal
Y-
dcodeur f
X
-
codeur
I
-
1
q
i m A
do
p(i ) =
1
qk
1
qk
1
M
x C
10
CHAPITRE 1. INTRODUCTION
y(t ) = x(t )+b(t ), o b(t ) est un processus gaussien blanc centre de densit spectrale de puissance bilatrale N0 /2. Nous avons tabli une statistique suffisante en
nous ramenant, en sortie du canal, un espace de Hilbert de dimension finie n (la
dimension de lespace des signaux mis). Nous supposons ici ces connaissances
acquises, et nous travaillons, pour un choix donn dune base orthonorme de
lespace des signaux mis, avec les composantes de x(t ) et de y(t ) sur cette base.
Dans la description ci-dessous, le canal gaussien rel correspond au cas n = 1.
Le canal gaussien complexe correspond au cas n = 2, en quivalent bande de
base (symboles complexes). Lexercice 7.9 sur la modulation par des signaux
orthogonaux de mme nergie traite dun cas o n est quelconque (symboles
Rn ).
?
- n
Canal
11
N0
2 , de sorte que lon a :
(yx)2
1
p(y|x) = p
e N0
N0
Rapport signal bruit Dans le symbole reu Y = X + B apparait une partie utile
X (signal) et le terme de bruit B . Le rapport signal bruit est le rapport
des deux puissances 1 :
=
Em
N0
p(y|x) =
p(y i |x i ) =
o ||x||2 =
1
(N0 )
e
n/2
kyxk2
N0
1
E kxk2
n
et la distance (dans lespace de Hilbert des signaux mis) entre deux mots x et x 0
est :
d (x, x 0 ) = ||x x 0 ||
E(X 2 )
E(B 2 )
=2
Em
N0
12
CHAPITRE 1. INTRODUCTION
1
2
|yx|2
1
e 2N0
2N0
Rapport signal bruit Dans le symbole reu Y = X + B apparait une partie utile
X (signal) et le terme de bruit B . Le rapport signal bruit est le rapport
des deux puissances :
=
E(|X |2 ) E m
=
E(|B |2 ) N0
kyxk2
1
2N
0
e
(2N0 )n
1
2
d la modlisation en
1
E kxk2
2n
et la distance (dans lespace de Hilbert des signaux rels mis) entre deux mots x
et x 0 est telle que :
1
d 2 (x, x 0 ) = ||x x 0 ||2
2
do
1
d (x, x 0 ) = p ||x x 0 ||
2
13
?
?
- n
- Y
Canal
|yx|2
1
e 2N0
2N0
2
1
|c| 2
2
e
22
22
e 2
2
14
CHAPITRE 1. INTRODUCTION
Sa variance est
E(2 ) = E |c|2 = 22
Em
N0
p1 ).
2
Em
N0
p() = 2e
Entrelaceur
- Rayleigh
15
- Dsentrelaceur
- Y
1
E(kxk2 )
2n
16
CHAPITRE 1. INTRODUCTION
P e| p()d
Y
i
p(i ) =
2i e i .
17
- ?
h
- Y
Canal
p(E = 1) = p
p(E = 0) = 1 p
0Q
Q
- 0
3
Q
Q
Q
Q
Q
Q
1
1p
p
Q p
Q
Q
sQ
1
18
CHAPITRE 1. INTRODUCTION
la Fig. 1.7, o une flche reliant x y est tiquette par p(y|x). On dit que le canal
est symtrique cause de la symtrie de la figure.
On peut, par commodit dans le cas dun dcodage hard par exemple, choisir un autre alphabet binaire comme X = {1}. Cela ne change pas la description
du canal BSC donne la Fig. 1.7.
Transmission mot par mot
Lors dune transmission mot par mot on a :
Y = X +E
et, puisque :
p
p(y|x) =
1p
si y 6= x
si y = x
on obtient facilement :
p(y|x) =
n
Y
p(y i |x i ) = p
d H (x,y)
(1 p)
nd H (x,y)
i =1
o
d H (x, y) = w H (e)
est la distance de Hamming entre x et y, i.e., le nombre derreurs (positions i
telles que x i 6= y i ), gal au poids de Hamming du vecteur derreurs e (nombre de
i telles que e i = 1).
Noter que la probabilit davoir t symboles errons dans le mot reu y est :
p(t ) =
y|d H (x,y)=t
19
p(E = e) = p
p(E = 0) = 1 (q 1)p
si e 6= 0
(q
1)p
pX
z
X
X
H
X
1 H
Z
:
*
H
ZHX@
p
X
H
Z
X
>
pp
ZHH
@XX
H
Z
H
X
X
Z
@
H
X
p
H
Z
X
p
H
X
Z
1 (q
1)p
H
X
z
Z
j
H
H
:
@
2 X
Z
HX
HH
pp
Z
*
X
HXX
Z
@
H Z
H
Z
H
X
Z
X@
p
HpH
X
X
H
X
Z
X
Z
H
pXH
1
1)p
(q
j
@
X
z
X
Z
~
Z
X
H
3 XX H Z p
:
@
X
Z p
X
H
XXH
p@
XX p
Z
XH
X
H
X@
p
Z
X
H
j
1
(q
1)p
z
X
~
Z
4
R
@
1
2
3
p
p(y|x) =
1 (q 1)p
si y 6= x
si y = x
20
CHAPITRE 1. INTRODUCTION
on obtient facilement :
p(y|x) =
n
Y
p(y i |x i ) = p
d H (x,y)
(1 (q 1)p)
nd H (x,y)
i =1
o :
d H (x, y) = w H (e)
est la distance de Hamming entre x et y, i.e., le nombre derreurs (positions i
telles que x i 6= y i ), gal au poids de Hamming du vecteur derreurs e (nombre de
i telles que e i 6= 0).
Noter que la probabilit davoir t symboles errons dans le mot reu y est :
p(t ) =
p(y|x)
y|d H (x,y)=t
p(|x) =
x (effacement)
p(0|1) = p(1|0) = 0
(pas derreur)
p(0|0) = p(1|1) = 1
21
1
- 0
0 H
HH
H
HH
H
HH
H
j
H
3
- 1
1
1
n
Y
p(y i |x i ) = (1 )n y
i =1
o y
=x
=x
pondent) et 0 sinon.
Noter que la diffrence avec le BSC est que la rception, on connait le
nombre et la position des effacements (alors que pour le BSC le nombre et la
position des erreurs sont inconnus a priori).
La probabilit dun motif de effacements est p() = (1 )n . Par
consquent, la probabilit davoir symboles effacs dans le mot reu y est :
p() =
X
|Card=
p() = Cn (1 )n .
22
CHAPITRE 1. INTRODUCTION
@
HH
p@
H
HH
@
HH
j
@
*
@
@
p
@
@
@
R
@
1
1
1p
p(|x) =
x (effacement)
p(0|1) = p(1|0) = p
(erreur)
p(0|0) = p(1|1) = 1 p
n
Y
p(y i |x i ) = p
d H (x ,y )
(1 p )
nd H (x ,y )
i =1
23
p() =
p(x, y)
x,y|(y)=
X
x
p(x)
p(x)
p(y|x)
y|(y)=
X
y
X
t
d H (x ,y )
(1 p )
nd H (x ,y )
t
Cn
p t (1 p )nt
= (p + 1 p )n = (1 )n
de sorte que, comme pour le canal effacement sans erreur, la probabilit que
symboles soient effacs dans le mot reu y est
p() = Cn (1 )n .
Etant donn (y) = , notre canal est quivalent un canal BSC dentre x
et de sortie y que nous appelerons canal BSC quivalent. Les mots dentre et
p =
p(y|x, ) =
p(y, |x)
p()
=
=
p
p
p(y|x)
=
p()
d H (x ,y )
nd H (x ,y )
(1 p )
(1 )n
d H (x ,y )
nd H (x ,y )
(1 p )
24
CHAPITRE 1. INTRODUCTION
p() P e|
n
X
=0
p()P e|
o, rappelons-le :
p() = Cn (1 )n .
log2 M
n
R
T
bits/sec.
25
1
T
1+
T
Db
B
bits/sec/Hz.
Avec les relations D b = R/T et B = 1/T on voit quon peut identifier efficacit
spectrale et taux :
R.
Il est important de se rappeler la relation entre le dbit binaire, la largeur de
bande et le taux :
Db
R
B
Elle montre que, mme dbit binaire et mme bande occupe, on doit comparer
des systmes de mme taux. Aussi, dbit binaire fix, une diminution du taux
(efficacit spectrale) se traduit par un largissement de la largeur de bande.
Em
N0
o E m est lnergie moyenne dun symbole mis dans le canal. Celui-ci peut,
suivant le type de systme, rsulter ou non dun codage. Il dpend en tout cas du
taux R de la transmission.
Afin de comparer de manire simple diffrents systmes, on est amen
dfinir un rapport signal bruit qui soit indpendant du type de codage utilis
26
CHAPITRE 1. INTRODUCTION
log2 M
n
Eb
N0
Afin de comparer les performances de plusieurs systmes en termes de probabilit derreur fonction du rapport signal--bruit, il convient donc dutiliser cette
dfinition du rapport signal--bruit pour plus de cohrence.
Le rapport signal--bruit par bit dinformation est galement reli la puissance dmission. Notant toujours T la priode symbole, un symbole est mis
toutes les T secondes avec une nergie moyenne de E m joules, soit :
Em = P T
o P est puissance dmission (exprime en watts). Il vient :
b =
1 Em
PT
=
R N0 R N0
do :
b =
P
N0 D b
27
28
CHAPITRE 1. INTRODUCTION
Chapitre 2
Dcodage maximum de
vraisemblance
2.1 Gnralits
Reprenons le schma gnral de la Fig. 1.1, reproduit la Fig. 2.1.
Canal
- X = f (Y )
Dcodeur
p(x, y) = 1
29
30
Z
P
o on a adopt la notation spciale pour spcifier :
X
Zy
dy
Dans le premier cas, p(x, y) est une probabilit en y, dans le deuxime p(x, y) est
une densit de probabilit en y. Les calculs vont tre formellement identiques
dans les deux cas.
Lobjectif est de concevoir une rgle de dcodage (ou de dtection) f qui
minimise la probabilit derreur :
P e = P r { X 6= X }.
X
x
p(x|y) 1 f (y)6=x
31
p(x) =
1
M
x {x 1 , x 2 , . . . , x M }
X
x0
p(x 0 , y) =
p(y|x 0 )p(x 0 ) =
x0
1 X
p(y|x 0 )
M x0
32
n = 1.
kyxk2
c
P e| p()d .
33
d H (x,y)
(1 (q 1)p)n
p
1(q1)p
1
q
Rappelons que lon dfinit y 0 comme le vecteur constitu des valeurs non effaces
de y, et de mme x 0 est le vecteur des valeurs x i pour i 6 .
On minimise ainsi, pour chaque motif deffacements , la probabilit derreur :
P e| = P r { X 6= X |}
On a vu que pour obtenir la probabilit derreur moyenne il faut moyenner sur le
nombre deffacements :
Pe =
n
X
=0
p() P e| .
34
35
reu est consitu de dcisions Hard. Il sagit cette fois-ci dune extension nime
sans mmoire dun canal discret dont le symbole dentre est x X et le symbole
de sortie est x X .
Prenons un exemple (important) : On considre un systme cod sur le canal
gaussien avec une modulation binaire BPSK (x = a). La dcision ferme seffectue
sur le symbole reu y laide dun seuil 0 et fournit
+a
x =
a
si y > 0
si y < 0
36
x =
+a
si y > s
si |y| 6 s
si y < s
37
De mme que pour un canal gaussien, les performances dun dcodeur dans
ce contexte sont suprieures au cas du dcodage hard classique. On peut les
valuer en utilisant lexercice 7.16, qui donne les performances obtenues pour
un systme cod sur canal BEC.
38
Chapitre 3
Evaluation de la probabilit
derreur : Bornes
3.1 Gnralits
Nous avons vu quun dcodeur maximum de vraisemblance trouve la valeur
de x = x (parmi un nombre fini de valeurs possibles {x 1 , x 2 , . . . , x M }) qui maximise
p(y|x). Cela revient dire que la sortie du dcodeur sera x si et seulement si
lentre du dcodeur y appartient la rgion de dcision :
> p(y|x) x 6= x}
R x = {y | p(y|x)
Noter que les rgions de dcision R x1 , R x2 , . . . , R x M partitionnent lespace des y
(ils sont deux deux disjoints et recouvrent tout lespace 1 ).
Pour estimer les performances de tel ou tel systme cod avec dcodage
maximum de vraisemblance, il faut tre capable dvaluer la probabilit derreur,
qui scrit :
P e = P r {y 6 R x } =
Z
XP
x
p(x, y) 1 y6R x
39
40
supposs quiprobables :
Pe =
p(x)P e|x =
1 X
P e|x
M x
o :
P e|x =
Z
P
y6R x
p(y|x) = P r {y 6 R x |x}
est la probabilit derreur sachant que x a t mis. Cette probabilit est, sauf
cas particulier trs simple, difficile valuer avec exactitude. On cherche donc
lapprocher en la majorant par des bornes qui sont, elles, plus faciles calculer.
R xx 0 | x}
x 0 6=x
R xx 0 par
P xx 0
x 0 6=x
o :
P xx 0 = P r {y R xx 0 |x} =
Z
P
p(y|x)
y | p(y|x 0 )>p(y|x)
est appele probabilit derreur par paire. Elle sinterprte comme la probabilit
que le dcodeur prfre x 0 x, lorsque x est mis (comme si x et x 0 taient les
deux seuls mots susceptibles dtre mis).
Ainsi, avec la borne de lunion on est ramen calculer des probabilits
derreur par paire P xx 0 , ce qui est souvent une tche plus aise que dvaluer
P e|x , puisque la premire solution ne ncessite de prendre en compte que deux
mots x et x 0 .
Remarquons nanmoins que la borne de lunion nest quune approximation :
elle nest exacte que si les rgions R xx 0 sont disjointes, cest dire si M = 2
(Exemple : modulation BPSK sur canal gaussien).
41
Z
P
y | p(y|x 0 )>p(y|x)
p(y|x) =
Z
P
p(y|x) 1 p(y|x 0 )
y
p(y|x)
>1
1 p(y|x 0 )
>1
p(y|x)
p(y|x 0 )
p(y|x)
on trouve :
P xx 0 6
Z
P q
p(y|x)p(y|x 0 )
42
o on a pos u =
x 0 x
||x 0 x|| , le vecteur unitaire suivant la direction
Z = Re < B |u >=
x, x 0 . Or :
X
(Reu i )2 + (Imu i )2 = N0 ||u||2 = N0
i
do finalement :
P xx 0 = P r {Z >
d (x, x 0 )
d (x, x 0 )
}
=
Q
p
p
2N0
2
d (x, x 0 )
2
d (x, x 0 )
d (x, x 0 )
}=Q p
=Q p
2N0
2 N0 /2
2N1
dy
u + v 2
uv
1
2
+
(||u||2 + ||v||2 ) =
2
2
2
pour u = y x et v = y x 0 , on obtient :
1
P xx 0 6
(2N0 )n
2
x+x 0
2N1 y 2
0
dy
xx 0 2
2N1 2
0
Lintgrale porte sur une loi gaussienne sur tout lespace et vaut donc 1. Finalement :
P xx 0 6 e
4N1 d 2 (x,x 0 )
0
43
En comparant au calcul exact on saperoit que lutilisation de la borne de Bhattacharyya revient faire la majoration :
Q(x) 6 e x
/2
majoration qui est par ailleurs classique (voir exercice 7.1, qui montre que Q(x)
est en fait quivalent
2
p 1 e x /2 ).
2x
w H (e + x x 0 ) 6 w H (e)
X
X
w H (e i + x i x i0 ) 6 w H (e i )
i
44
X
u,t | u+2t >d
X
t > d2
d
}
2
dd e
P xx 0 . Cd2 p d 2 e
o d = d H (x, x 0 ).
6
6
n q
Y
y 1 ,y 2 ,...,y n i =1
n Xq
Y
i =1 y i
p(y i |x i )p(y i |x i0 )
p(y i |x i )p(y i |x i0 )
45
p(y i |x i )p(y i |x i ) =
yi
p(y i |x i ) = 1
yi
On aboutit donc :
P xx 0 6
Y Xq
i |x i 6=x i0 y i
p(y i |x i )p(y i |x i0 )
p(y i |x i )p(y i |x i0 ) = 2
p(1 P ) + (q 2)p
o P = (q 1)p.
Finalement, la borne de Bhattacharyya pour le canal q-SC scrit :
P
xx 0
q
d
46
p(y|x 0 )
p(y|x)
> 0, on a, en appliquant
lingalit de Chernoff :
P xx 0
p(y|x 0 )
P r {log
> 0 |x}
p(y|x)
p(y|x 0 )
6 E e log p(y|x)
=
Z
P p(y|x 0 )
p(y|x)
6
y p(y|x)
pour tout > 0. La borne de Chernoff sur la probabilit derreur par paire scrit
finalement :
P xx 0 6
Z
P
p(y|x)1 p(y|x 0 )
y
> 1 et donc :
!
X p(y|x 0 )
> 1 , > 0
x 0 6=x p(y|x)
47
!
Z
P X p(y|x 0 )
6
p(y|x)
y x 0 6=x p(y|x)
!
Z
X
P
1
0
6
p(y|x)
p(y|x )
y
x 0 6=x
1
1+ ,
on obtient :
P e|x 6
Z
P
p(y|x)
1
1+
p(y|x )
1
1+
x 0 6=x
48
un canal BSC, et f (d ) = e
d2
4N
0
f d (x, x 0 )
x 0 6=x
A di (x) f (d i )
A di f (d i )
1 X
A d (x).
M x
2. On a (videmment) suppos ici que les points {x 1 , x 2 , . . . , x M } sont distincts de sorte que la
somme porte sur des distances d i > 0. Si on voulait tre parfaitement gnral en tenant compte de
lventualit o les points ne sont pas tous distincts, il faudrait crire :
P e|xm 6
(cf. exercice 7.10).
X
m 0 6=m
f d (x m , x m 0 ) =
A di (x m ) f (d i )
d i >0
49
Ainsi, pour valuer cette borne sur la probabilit derreur il faut tre capable
dvaluer la distribution des distances dun code ou dune constellation, i.e.,
lensemble des quantits A d pour toutes les distances d possibles. Ceci sera fait
dans les chapitres suivants. Dans le cas dun systme cod par un code linaire,
par exemple, les A d seront donns par le polynme numrateur du poids du
code.
Enfin, notons que, en fort rapport signal bruit sur le canal gaussien (dcodage hard ou soft), puisque f (d ) dcroit fortement avec d , on peut ne retenir que
le terme f (d min ) o d min est la distance minimale entre deux points x et x 0 . On
obtient alors
P e . A dmin f (d min )
valuation qui suffit dans bien des cas. Le coefficient derreur A dmin est le nombre
moyen de points situs une distance d min dun point donn. On lappelle parfois
le kissing number.
50
Chapitre 4
Performances de modulations
linaires
4.1 Gnralits
Sauf mention contraire, nous considrons les performances de modulations
linaires sur le canal gaussien complexe. Le symbole M -aire mis est donc un
nombre complexe x = I , o I appartient une constellation M -aire, et est
un facteur dchelle qui tient compte de lnergie par symbole lmission. On
supposera, comme dhabitude, que les symboles sont quiprobables.
La constellation {I 1 , I 2 , . . . , I M } est constitu de M points dans le plan complexe. Cest elle qui dtermine le type de modulation utilis. En gnral la modulation est bidimensionnelle. Bien entendu, lorsque la modulation est monodimensionnelle (i.e., les symboles sont rels comme pour la BPSK ou la PAM), on
peut lemployer sur un canal gaussien rel. Les rsultats sont alors identiques
ceux tablis ci-dessous pour le cas complexe.
Le facteur dchelle se dtermine en fonction de lnergie moyenne par
symbole :
1
2
2 2
E m = E (|x|2 ) =
E (|I |2 ) =
2
2
2 I
o 2I =
1
M
k |I k |
52
2E m
2I
Nous noterons (I , I 0 ) = |I I 0 | la distance entre 2 points I et I 0 de la constellation dans le plan complexe. Ainsi on a, pour les symboles correspondants x et
x0 :
1
d (x, x ) = p |x x 0 | = p (I , I 0 ) =
2
2
0
Em
2I
(I , I 0 )
p
2E m , les symboles
correspondants sont :
p
x = 2E m
u E m 2
d min
min
Pe = Q p
= Q t
2N0 2I
2N0
ce qui donne :
s
Pe = Q
2E m
N0
53
Cest la formule qui sert de rfrence pour tous les autres systmes sur canal
gaussien. Noter quici P e est une probabilit derreur par bit (symbole binaire)
et E m est une nergie moyenne par bit, quil soit cod (dcodage Hard) ou non.
La courbe de performance (P e en fonction du rapport signal bruit E m /N0 ) est
donne dans la Fig. 4.1
-1
10
-2
10
-3
10
-4
10
-5
10
-6
10
-7
10
-8
10
-9
10
-10
10
6
8
10
Bit SNR Eb/No (dB)
12
14
16
P e| = Q
2E m
2
N0
54
Pour obtenir les performances dans la cas du canal de Rayleigh il faut moyenner
P e| suivant la loi de Rayleigh p(). En supposant le canal de Rayleigh normalis,
de sorte que la rapport signal--bruit moyen est toujours =
Pe =
Z
0
p()P e| d =
Z
0
Em
N0 , il vient :
p
2
2e Q( 2)d
Connaissant la drive de la fonction Q(x) (voir exercice 7.1), on peut faire une
intgration par parties et on obtient :
r Z
2
1
Pe =
e (1+) d
2
0
do finalement :
1
P e = (1
2
E m /N0
)
1 + E m /N0
1
4E m /N0
d min
P e . A dmin Q p
2N0
1 P
o A dmin = M
k A d min (I k ) est le nombre moyen de points de la constellation
situs distance minimale dun point I k donn.
55
-1
10
Rayleigh
-2
10
AWGN
-3
10
-4
10
-5
10
-6
10
10
15
Bit SNR Eb/No (dB)
20
25
30
Em
, on peut mettre cette expression sous la forme
2I min
suivante :
s
P e . A dmin Q
2E m
g
N0
(min /2)2
2I
qui donne la perte en rapport signal--bruit par rapport la BPSK. Noter que le
rapport signal bruit E m /N0 est ici un rapport signal bruit par symbole M -aire.
Cette perte est de 10 log10 (g ) dB. Cela signifie que par rapport la BPSK, en
fort rapport signal bruit, il faut augmenter le rapport signal bruit E m /N0 de
|10 log10 (g )| dB pour obtenir une probabilit derreur comparable.
56
Em
log2 M
do :
Eb
1 Em
=
N0 log2 M N0
En fonction de ce rapport signal bruit par bit, le gain dune modulation par
rapport la BPSK devient 10 log10 (g log2 M ) dB au lieu de 10 log10 (g ) dB. Par
rapport la BPSK, en fort rapport signal bruit, il faut donc augmenter le rapport
signal bruit par bit E b /N0 de |10 log10 (g log2 M )| dB pour obtenir une probabilit
derreur comparable.
1
E (w H (I I))
log2 M
cest dire le nombre moyen de bits errons par symbole erron ( I 6= I ), rapport
par bit. (La situation est encore plus complexe si M nest pas une puissance de
deux !)
57
Bien que P e/b soit difficile valuer, on peut obtenir un encadrement gnral
en remarquant quun symbole erron produit, au mieux, un bit erron 1 , do
w H (I I) = 1. Au pire, tous les bits sont errons et w H (I I) = log2 M . Ainsi :
1
P e/s 6 P e/b 6 P e/s
log2 M
Ainsi les probabilits derreur par symbole et par bit sont toujours du mme
ordre de grandeur. On peut donc dire que la comparaison des performances de
diffrentes modulations se fait aussi bien en termes de probabilit derreur par
symbole P e/s quen termes de probabilit derreur par bit P e/b . Dans la suite on
se limitera donc lvaluation de P e = P e/s .
1
M2 1
2(12 + 32 + + (M 1)2 ) =
M
3
M (M 2 1)
6
Tous les points de la constellation admettent deux voisins distance minimale, sauf les deux extrmes qui nen admettent quun seul. Le paramtre A dmin
est donc gal :
1
1
A dmin =
(2(M 2) + 2) = 2 1
M
M
s
2E m
1
gM
Pe . 2 1
Q
M
N0
1. Ceci constitue une bonne approximation pour une modulation PSK avec un codage de Gray
(cf. dominante Communications).
58
g M (dB)
g M log2 M (dB)
-6.99
-3.98
-13.22
-8.45
16
-19.29
-13.27
32
-25.33
-18.34
64
-31.35
-23.57
TAB. 4.1 Gains asymptotiques, par rapport la BPSK, en fort rapport signal
bruit, pour la modulation M -PAM
3
M2 1
La Table 4.5 donne quelques valeurs de g M (gain en rapport signal bruit par
symbole) et g M log2 M (gain en rapport signal bruit par bit).
Les courbes de performance (P e en fonction du rapport signal bruit par
symbole ou par bit) sont donnes dans la Fig. 4.3.
pour k = 0, 1, . . . , M 1
59
La Table 4.6 donne quelques valeurs de g M (gain en rapport signal bruit par
symbole) et g M log2 M (gain en rapport signal bruit par bit).
Les courbes de performance (P e en fonction du rapport signal bruit par
symbole ou par bit) sont donnes dans la Fig. 4.5.
-2
-2
10
10
-3
-3
10
10
M=4
M=2
-4
M=8
M=16
M=32
M=64
M=2
-4
10
M=4
M=8
M=16
M=32
M=64
Error Rate
Error Rate
10
-5
-5
10
10
-6
-6
10
10
-7
-7
10
10
15
20
25
SNR (dB)
30
35
40
45
10
10
15
20
25
Bit SNR Eb/No (dB)
30
35
40
45
60
g M (dB)
g M log2 M (dB)
-3.01
-0.00
-8.34
-3.57
16
-14.20
-8.17
32
-20.17
-13.18
64
-26.18
-18.40
TAB. 4.2 Gains asymptotiques, par rapport la BPSK, en fort rapport signal
bruit, pour la modulation M -PSK
o a, b {1, 3, . . . , (M 0 1)}
2I = 2a + 2b = 2
M0 1
M 1
=2
3
3
On sest ramen ici au cas dun modulation PAM pour les symboles a et b.
Tous les points de la constellation admettent 4 voisins distance minimale,
sauf 4(M 0 2) points aux bords qui nen admettent que trois, et les quatre coins
61
qui nen admettent que deux. Le paramtre A dmin est donc gal :
A dmin
1
4 2 + 4(M 0 2) 3 + (M 4 4(M 0 2)) 4
M
1
= 4 1 p
M
s
1
2E m
Pe . 4 1 p
Q
gM
N0
M
o le gain asymptotique en fort rapport signal bruit est :
gM =
3
2(M 1)
o a, b {1, 3, . . . , (M 0 1)}
-2
-2
10
10
-3
-3
10
10
-4
M=2
-4
10
10
M=8
M=16
M=32
M=64
Error Rate
Error Rate
M=4
M=4
M=2
-5
10
M=8
M=16
M=64
M=32
-5
10
-6
-6
10
10
-7
10
-7
10
15
20
25
SNR (dB)
30
35
40
45
10
10
15
20
25
Bit SNR Eb/No (dB)
30
35
40
45
62
1
1
1
1
2I =
1 M0 2
0
2 M I
2
2M 1
3
3
2M 1
La Table 4.7 donne quelques valeurs de g M (gain en rapport signal bruit par
symbole) et g M log2 M (gain en rapport signal bruit par bit).
63
g M (dB)
g M log2 M (dB)
-3.01
-6.99
-2.22
16
-10.00
-3.98
32
-13.22
-6.23
64
-16.23
-8.45
TAB. 4.3 Gains asymptotiques, par rapport la BPSK, en fort rapport signal
bruit, pour la modulation M -QAM
-2
-2
10
10
-3
-3
10
10
M=4
-4
M=8
M=4
-4
10
M=8
Error Rate
Error Rate
10
10
M=32
-6
-6
10
10
M=64
-7
-7
10
M=16
-5
-5
10
10
15
20
SNR (dB)
25
30
35
10
10
15
20
Bit SNR Eb/No (dB)
25
30
35
64
Chapitre 5
1 X
1
A d (x) = Card {(x, x 0 ) | d H (x, x 0 ) = d }
M x
M
Cest le nombre moyen de mots de code situs une distance d dun mot de code
donn. Ici le type de distance utilis est la distance de Hamming.
Nous allons dterminer les coefficients A d pour un certain nombre de codes
q-aires (dfinis sur F q ) de paramtres (n, k, d min ). Nous verrons que ceci est
indispensable pour lvaluation des performances dun systme cod :
sur un canal discret (q-SC) ;
en dcodage hard sur canal gaussien ou de Rayleigh ;
et mme en dcodage soft lorsque le code est binaire (q = 2).
Dans la suite on se limitera aux codes linaires, qui sont les plus utiliss en
pratique.
Pour un code linaire la dfinition de A d se simplifie. En effet, pour tout mot
de code x C , le code translat par x coincide avec le code lui-mme qui nest
65
66
autre que le code translat par le mot de code nul 0 = (0, 0, . . . , 0). En dautres
termes, on a : x +C = C . Il en rsulte que le nombre A d (x) de mots de code situs
une distance d dun mot de code donn x est indpendant du mot de code x
choisi. On peut donc crire :
A d (x) = A d (0) = A d
o A d est, par dfinition, le nombre de mots de code de poids d :
A d = Card{x C
| w H (x) = d }
A =1
Ad = 0
Pn
A = qk
d =0 d
n
X
d =0
Ad z d = 1 +
n
X
Ad z d
d =d min
Une mthode gnrale pour dterminer A(z) consiste lister tous les mots de
code et dnombrer leurs poids. La liste des mots de code sobtient en calculant
toutes les combinaisons linaires des lignes dune matrice gnratrice du code.
67
m1
1z
1 + (q 1)z
La dmonstration gnrale fait appel des notions dalgbre pousses. On trouvera dans lexercice 7.6 une dmonstration dans le cas binaire o lidentit de
Mac Williams devient :
2
nk
1z
A(z) = (1 + z) B
1+z
n
Lidentit de Mac Williams est trs utile pour dterminer A(z) pour certaines
familles de codes bien connues. Voici deux exemples dans le cas binaire :
Code parit (n, n 1, 2). Cest le dual du code rptition (n, 1, n) donc,
daprs lexemple ci-dessus, B (z) = 1 + z n . Appliquant lidentit de Mac Williams
68
on trouve immdiatement :
1
A(z) = [(1 + z)n + (1 z)n ]
2
On retrouve que pour le code parit, tous les mots de code sont de poids pair
(A 2d +1 = 0) et on a A 2d = C2d
n , formule quon aurait pu tablir directement.
Code de Hamming (2m 1, 2m 1 m, 3). Cest le dual du code simplexe de
lexemple ci-dessus, pour lequel B (z) = 1 + (2m 1)z 2
m1
. En appliquant lidentit
"
n+1 #
1z 2
1
n
(1 + z) 1 + n
2m
1+z
1
n
2 n1
2
(1
+
z)
+
n(1
z)(1
z
)
2m
n(n1)
6
6= 0, do on
Cdn (q 1)d
q nk
Cette approximation est parfois assez bonne, comme le montre lexemple des
codes de Reed-Solomon (n = q 1, k, n k + 1) pour lesquels (voir exercice 7.7) :
A d = Cdn (q 1)
o loprateur
PM
i =N
q i =
PM
i =0 q
(q 1)d 1
q nk
69
1 X
P e|x
M x
on peut montrer que P e|x est indpendant de x de la faon suivante. Nous savons
que :
P e|x =
X
y
Or, sur un canal q-SC nous avons vu que p(y|x) ne dpend que du poids de y x.
On peut donc faire le changement de variable y y x pour obtenir :
P e|x =
X
y
Puisque le code est linaire, lorsque x 0 dcrit lensemble des mots de code 6= x, la
diffrence x 0 x dcrit lensemble des mots de code non nuls. On arrive donc :
P e|x = P e|0
x C
et ainsi :
P e = P e|0
Ainsi, non seulement lexpression de la probabilit derreur se simplifie, mais
aussi on peut toujours supposer que cest le mot de code nul qui a t mis. Cela
facilite grandement la dtermination de P e .
70
P 0x
X
x6=0
f (d ) =
i =d d2 e
Cid p i (1 p)d i
lorsque le code est binaire (q = 2). En regroupant les termes de mme poids on
obtient donc une formule du type :
n
X
Pe 6
A d f (d )
d =d min
Noter que cette formule est en accord avec la formule gnrale donne au chapitre 3, puisque A d = A d pour un code linaire. Ainsi, pour un code binaire, on
a:
Pe 6
n
X
d =d min
Ad
d
X
i =d d2 e
Cid p i (1 p)d i
f (d ) Cd2 p d 2 e do
d
d min
2
P e . A dmin Cd
min
e d dmin e
2
p(1 P ) + (q 2)p
71
Pe 6
A d d
d =d min
cest dire :
P e 6 A() 1
o A(z) est le polynme numrateur de poids du code linaire.
d p d (1 P )nd
d >0
72
des d :
P
nk
d >0 d = q
6 (q 1)d Cd
d
n
d
d
d = (q 1) Cn
d = 0
d > 0
pour 0 6 d 6 b dmin2 1 c
pour d > (rayon de recouvrement du code)
d min
e}
2
Puisque la probabilit que y soit de poids d est gale Cdn (q 1)d p d (1 P )nd =
Cdn P d (1 P )nd , il vient :
Pe 6
n
X
d =d
d min
2
Cdn P d (1 P )nd
e
Noter que cette borne se retrouve facilement partir du calcul exact donn dans
la section prcdente, en tenant compte de d = (q 1)d Cdn pour 0 6 d 6 b dmin2 1 c
et d > 0 sinon.
Il est important de noter que cette borne classique est exacte lorsque le code
est parfait, car alors les boules de rayon b dmin2 1 c recouvrent tout lespace F qn (de
sorte que y est corrigible si et seulement si d H (x, y) 6 b dmin2 1 c). Cette remarque
ne concerne que quelques codes non triviaux (codes de Hamming et de Golay).
73
d min
2
P e . Cn
(q 1)d
d min
2
e d
d min
2
d min
2
P e . A dmin Cd
min
e d dmin e
2
Laquelle des deux bornes est la meilleure ? Il est facile de voir que les deux
bornes (ou plutt leurs quivalents lorsque p 0) sont identiques pour les
codes binaires suivants :
d
d min
2
d min
2
dne
d min
2
= Cn2 = Cn
min
d
d min
2
min
.
n(n1)
6
d min e
A dmin Cd 2
min
d min
2
C2n
d
2
2
3 C 3 = Cn = Cn
C423 = Cn
C2n
3
do
.
d min
2
min
= 253 C47 =
La situation est diffrente pour les codes simplexes o on a les rsultats suivants
(A dmin = n) :
d
d min
2
A dmin Cd
min
d min
2
Cn
Simplexe (7,3,4)
42
21
(15,4,8)
1050
1365
(31,5,16)
398970
7888725
d min
2
d min
2
e d
Cn
= n t +1 Cnt +1
d min
2
A dmin Cd
min
+1 t +1
t
t +1
= nC2t
C2t +1 = nCnt
n
+1 Cn
74
pour la borne de lunion. Il en rsulte que la borne de lunion est ici toujours
meilleure (asymptotiquement lorsque p 0) puisque
t
Cnt
+1 =
t
t n t i
Y
Y
6 n = nt .
i
i =1
i =1
On peut montrer, plus gnralement, que si d min est impair, disons d min =
2t + 1, alors la borne de lunion est toujours meilleure (asymptotiquement lorsque
p 0), cest dire :
d
d min
2
A dmin Cd
min
= A dmin Cdt +1
6 (q 1)t +1 Cnt +1 = (q 1)d
min
d min
2
d min
2
e d
Cn
En effet, les mots de poids t + 1 distance = t dun mot de code x donn (qui
sera forcment de poids d min = 2t + 1) sobtiennent en annulant t composantes
de x parmi les d min non nulles. Il y en a donc Cdt
min
consquent A dmin Cdt +1 mots de poids t + 1 situs distance t dun mot de code.
min
Mais puisque le nombre total des mots de code de poids t + 1 est (q 1)t +1 Cnt +1 ,
on a bien A dmin Cdt +1 6 (q 1)t +1 Cnt +1 .
min
1
E(w H ( I I ))
k
X
1X
w (y)
nw H (y)
w H (i )
p H (1 P )
.
k i
y|i (y)=i
75
dinformation et de contrle. Sous cette hypothse, P e/s est gal au taux derreur
rsiduel :
1
E(w H ( X X ))
n
L encore, une valuation prcise du taux derreur rsiduel est difficile elle
P e/s =
peut sobtenir partir du tableau standard par une mthode similaire celle
dcrite ci-dessus mais on peut obtenir un encadrement en remarquant quun
mot erron produit, au mieux, d min symboles errons do w H (x x) = d min ,
et au pire, w H (x x) = n symboles errons. Ainsi :
d min
P e 6 P e/s 6 P e
n
Une approximation gnralement adopte (mais discutable) est :
P e/s
d min
Pe
n
76
d BCH 1
c erreurs, o d BCH
2
dernire nest pas toujours gale d min . On peut avoir d BCH < d min comme dans
lexemple du code de Golay binaire (23, 12) o d min = 7 et d BCH = 5.
F IG . 5.1 Les trois rgions de dcodage. Sont reprsentes les boules de rayon t
autour des mots de code. Zone grise : rgion de dcodage correct (boule de rayon
t centre sur le mot de code mis x = 0). Zone hachure : rgion de dcodage
incorrect (boules de rayon t centres sur les autres mots de code). Zone blanche :
Rgion de non-dcodage (interstices entre les boules).
Selon la position du mot reu y par rapport aux mots de code on doit distinguer trois configurations possibles (cf. Fig. 5.1) :
1. Le mot reu y est une distance 6 t du mot de code mis x (zone grise
sur la Fig. 5.1) : d H (x, y) 6 t . Dans ce cas, lalgorithme de dcodage dcode
correctement x. La probabilit correspondante est appele P c (probabilit
de dcodage correct).
2. Le mot reu y est une distance 6 t dun autre mot de code x 0 diffrent
de celui mis (zone hachure sur la Fig. 5.1) : x 0 6= x | d H (x 0 , y) 6 t . Dans
ce cas, lalgorithme de dcodage fournit x 0 (et se trompe donc, mais na
77
78
gie FEC (voir ci-dessous). Le prix payer est lutilisation dune voie de retour et
les problmes de dlai de retransmission et de synchronisation que cela suppose.
Mme en admettant, pour simplifier, que la demande de retransmission est
instantane (sans dlai) ds dtection dun mot incorrigible 2 (et se fait sans
erreur !), on aboutit videmment une diminution du rendement du code (donc
une perte en dbit) que lon peut quantifier : Puisquun mot de code est retransmis avec une probabilit P n , la probabilit quun mot soit transmis r fois au total
(les r 1 premires chouant et la r me tant la bonne) est = P nr 1 (1 P n ). Par
consquent, le nombre moyen de (re)transmissions ncessaire par mot est :
E(r ) =
r P nr 1 (1 P n ) =
r >1
1
.
1 Pn
n
1P n
symboles cods, de sorte que le rendement moyen nest plus k/n, mais
R = (1 P n )
k
n
Le cas du canal binaire effacement en stratgie ARQ est trait dans lexercice 7.16.
79
t
X
t
X
Cdn P d (1 P )nd
d =0
d =0
Pe = 1 Pc =
Cdn P d (1 P )nd
d =t +1
do un quivalent lorsque p 0 :
P e Cnt +1 (q 1)t +1 p t +1 .
En stratgie FEC il est plus intressant dvaluer la probabilit derreur par symbole (taux derreur rsiduelle). Ceci est fait en section 5.3.7.
P i (x)
x6=O
t
X
=0
P i (x, )
n
X
p w (1 P )nw N (w, , x)
w=0
80
H (x)
choix pour
ces (i , y i ).
2. Le nombre b des positions i correspondant un symbole non nul de x
(x i 6= 0) parmi w H (x) pour lesquels le symbole correspondant de y est
non nul et diffrent de x i . Pour un tel nombre b donn, il y a (q 2)b Cbw
H (x)
H (x)b
choix pour
ces (i , y i ).
4. Les n (a + b + c) positions i restantes sont telles que y i = x i .
Puisquau total on doit avoir
a + b + c = d (x, y) =
H
w H (x) + a c = w H (y) = w
on obtient :
N (w, , x) =
X
a,b,c
a+b+c=
a+w H (x)=c+w
a
Cb
Cc
(q 1)a (q 2)b Cnw
.
H (x) w H (x) w H (x)b
Deux remarques utiles : N (w, , x) ne dpend que du poids de x, il sera dornavant not N (w, , w H (x)). Par ailleurs, daprs la dfinition de N (w, , w H (x)), on
doit avoir N (w, , w H (x)) = 0 ds lors que w < w(x) ou w > w(x) + . Cest
effectivement le cas avec la formule obtenue, puisque la contrainte sous le signe
somme donne dune part w = a + w H (x) c = w H (x) + 2a + b > w H (x) et
dautre part w = a + w H (x) c = w H (x) 2c b + 6 w H (x) + .
On obtient donc finalement, en regroupant les diffrentes quations obtenues :
Pi =
t
XX
w HX
(x)+
p w (1 P )nw N (w, , x)
n
t
X
X
dX
+
d =d min =0 w=d
p w (1 P )nw A d N (w, , d )
81
X
a,b,c
a+b+c=
a+d =c+w
a
(q 1)a (q 2)b Cnd
Cbd Ccd b .
X
a,c
a+c=
a+d =c+w
a
Cnd
Ccd =
+wd w+d
C 2 C 2
si + w + d est pair,
sinon.
nd
min
et
P e A dmin Cdt min p dmin t
82
lit que y soit un mot de code diffrent de celui qui a t mis. On a donc, en
supposant, comme dhabitude, que le mot de code nul est mis :
Pe =
X
x6=0
n
X
A d p d (1 P )nd
d =d min
o les A d sont les coefficients numrateurs des poids du code. On retrouve videmment cette expression comme cas particulier de la formule gnrale donne
la section prcdente en notant que N (w, 0, d ) vaut 1 si w = d et vaut 0 sinon.
Lorsque p est trs faible (asymptotiquement p 0), on obtient :
P e A dmin p dmin .
1
E(w H ( X X ))
n
obtenu en stratgie FEC. A cette occasion, il faut prciser quelle est la stratgie
adopte lorsque le mot reu y se trouve dans la rgion de non-dcodage :
Une possibilit serait de fournir un mot de code x cote que cote, provenant
ventuellement de lalgorithme de dcodage utilis, mais sans garantie quil
sagisse du mot de code le plus proche de y. Il se peut fort, dans ces conditions,
produise encore plus derreursque le dcodeur, en fournissant un mot de code x,
y) > d H (x, y)).
symbole que ceux introduits par le canal (d H (x,
Une stratgie plus raisonnable, qui est souvent adopte, consiste, pour le
dcodeur, laisser y en ltat lorsque celui-ci se trouve dans la rgion de nondcodage. En dautres termes, la sortie du dcodeur est alors gale son entre, et,
bien que le mot dcod x = y nappartienne pas au code, tout au moins garantiton que le dcodeur nempire pas la situation (naugmente pas le taux derreur par
symbole). On adopte ici cette stratgie pour le calcul du taux derreur rsiduel.
83
1 X w H (y)
nw H (y)
p
(1 P )
w H (x).
n y
(q 1)w Cnw
Ad
d =d min
t
X
=0
N (w, , d ).
Pn
d =d min
Ad
Pt
=0 N (w, , d )
1 X w
p (1 P )nw
n w>t
"
n
X
d Ad
d =d min
t
X
=0
N (w, , d ) + w (q 1)
Cnw
n
X
d =d min
Ad
t
X
=0
N (w, , d ) ,
do finalement :
"
P e/s =
p (1 P )
nw
w>t
#
n
t
X
X
w
d w
w w
(q 1) Cn +
Ad
N (w, , d ) .
n
=0
d =d min n
Il est possible dexpliciter deux quivalents diffrents du taux derreur rsiduel quand p 0 (fort rapport signal bruit en dcodage hard). [Rappelons
que la probabilit derreur par mot vaut, en FEC, P e (q 1)t +1 Cnt +1 p t +1 asymptotiquement lorsque p 0.]
84
correction du code, cest dire si d min = 2t + 1, il est facile de voir (sachant que
t
N (t + 1, t , 2t + 1) = C2t
+1 , cf. section 5.3.5) que
t +1
t
(q 1)t +1 Cnt +1 + A dmin Cdt min p t +1
P e/s
n
n
min
6 (q 1)t +1 Cnt +1 ,
do la majoration :
d min
d min
(q 1)t +1 Cnt +1 p t +1
Pe
n
n
P e/s .
On aurait pu obtenir le mme rsultat autrement, en faisant lhypothse (pessimiste) que, lorsque le dcodage nest pas correct, le mot dcod x contient, au
6 w H (y) + t , do la majoration :
pire, t erreurs de plus que y : w H (x)
P e/s 6
X w +t w
Cn (q 1)w p w (1 P )nw .
n
w>t
t +1
t +1
(q 1)t +1 Cnt +1 p t +1
Pe
n
n
Pe
n
d min
n Pe
en dcodage
85
Le cas des codes q-aires est beaucoup plus compliqu, surtout en dcodage
soft (o ce qui est dvelopp ici dans le cas binaire ne se gnralise pas). Lutilisation de codes q-aires fait appel la notion de modulation code et dborde du
cadre de ce cours.
Rappelons que la modulation BPSK associe chaque symbole binaire x = 0
ou 1 un symbole x de la constellation BPSK. Par exemple, si le canal gaussien est
rel :
x =0
7
x = 1 7
p
x = + E m
p
x = E m
Dans la suite on suppose le canal rel, mais les calculs sont videmment analogues et donnent des rsultats identiques pour un canal complexe.
Noter que E m est lnergie moyenne par bit cod (composante dun mot de
code C ). Pour le calcul des performances du systme, il faut ramener cette nergie
lnergie par bit dinformation E b . Puisque k bits dinformation correspondent
n bits cods, on a kE b = nE m do :
E m = RE b
o R =
k
n
p
p
E m ) = p(y|x = E m )
yn i
p
y0 = y
si xi = + E m , i.e., x i = 0
i
i
y 0 = y i si xi = pE m , i.e., x i = 1
i
86
p
Alors, puisque p(y i |x i ) = p(y i0 | E m ) dans les deux cas (grce la symtrie du
canal), et puisque p(y i |x i0 ) = p(y i0 |x i0 x i ) on obtient :
P e|x =
Z
y 10
Y
y n0 i
p(y i0 |
p
E m ) 1{x 0 | Qi p(y 0 |x 0 xi )>Qi p(y 0 |pE m )} d y 1 d y n
i
Enfin, puisque le code est linaire, lorsque x 0 dcrit lensemble des mots de code
6= x, la diffrence x 0 x dcrit lensemble des mots de code non nuls. On arrive
donc :
P e|x = P e|0
x C
et ainsi :
P e = P e|0
Ainsi, non seulement lexpression de la probabilit derreur se simplifie, mais
aussi on peut toujours supposer que cest le mot de code nul qui a t mis. Cela
facilite grandement la dtermination de P e .
X
i
(x i x0 i )2
On remarque que :
0
(x i x0 i )2 =
(2pE m )2 = 4E m
si x i = x i0
sinon
87
n
X
d
X
Ad
i =d d2 e
d =d min
Cid p i (1 p)d i
En dcodage soft, nous savons que la probabilit derreur par paire scrit :
s
!
d (0, x)
2E m
=Q
w H (x)
P 0x = Q p
N0
2N0
La dernire galit tient compte de la relation vue entre distance de Hamming et
distance euclidienne. La borne de lunion devient donc :
s
!
X
2E m
P e = P e|0 6
Q
w H (x)
N0
x6=0
do, en regroupant les termes de mme poids :
n
X
Pe 6
Ad Q
d =d min
2E m
d
N0
p
2E m
le canal BSC avec p = Q
N0 , soit P e 6 A() 1, o = 2 p(1 p).
Etonnamment, la borne de lunion + Bhattacharyya pour le dcodage soft
prend une forme similaire. En effet, la borne de Bhattacharyya sur la probabilit
derreur par paire est :
P 0x 6 e
4N1 d 2 (0,x)
0
w H (x)
= e E m /N0
n
X
d =d min
d
A d e E m /N0
88
Cette borne est encore de la forme A() 1, avec cette fois-ci = e E m /N0 .
En rsum, la borne de lunion + Bhattacharyya scrit, en dcodage hard
comme en dcodage soft :
P e 6 A() 1
o :
p
q
2E m
2 p(1 p) o p = Q
en dcodage hard
N0
=
e E m /N0
en dcodage soft
d min
Pe
n
2E b
laquelle P e = Q
N0 . Nous cherchons donc une valuation de la probabilit
q
b
derreur aprs codage de la forme Q
g 2E
N0 ; le gain en rapport signal bruit
sera alors gal g , soit 10 log10 (g ) dB.
On se place dans un premier temps dans lhypothse dun fort rapport signal
bruit. Dans les valuations des probabilits derreur donnes ci-dessus, seul le
premier terme (pour d = d min ) domine.
En dcodage hard, la borne de lunion nous donne, en fort rapport signal
bruit :
d
d min
2
P e . A dmin Cd
o :
p =Q
min
e d dmin e
2
2E b
R
N0
89
d min
2
c e
Rd
d min
2
e Nb
p
o c est un constante. Toujours avec lapproximation Q( 2x) e x , on peut
mettre cette borne sous la forme :
s
Pe . c Q
!
2E b d min
e
Rd
N0
2
d min
e) dB
2
P e . A dmin Q
2E b
Rd min
N0
90
(n, k, d min )
Gain hard
Gain soft
(n, k, d min )
Gain hard
Gain soft
(7,4,3)
0.58 dB
2.34 dB
(127,120,3)
2.76 dB
4.52 dB
(7,1,7)
-2.43 dB
0.00 dB
(127,113,5)
4.26 dB
6.48 dB
(15,11,3)
1.66 dB
3.42 dB
(127,106,7)
5.24 dB
7.67 dB
(15,7,5)
1.46 dB
3.68 dB
(127,99,9)
5.91 dB
8.46 dB
(15,5,7)
1.25 dB
3.68 dB
(127,92,11)
6.38 dB
9.01 dB
(15,1,15)
-2.73 dB
0.00 dB
(127,85,13)
6.71 dB
9.40 dB
(31,26,3)
2.25 dB
4.01 dB
(127,78,15)
6.91 dB
9.64 dB
(31,21,5)
3.08 dB
5.30 dB
(127,71,19)
7.47 dB
10.26 dB
(31,16,7)
3.15 dB
5.58 dB
(127,64,21)
7.44 dB
10.25 dB
(31,11,11)
3.28 dB
5.91 dB
(127,57,23)
7.31 dB
10.14 dB
(31,6,15)
1.90 dB
4.63 dB
(127,50,27)
7.41 dB
10.27 dB
(31,1,31)
-2.87 dB
0.00 dB
(127,43,29)
7.06 dB
9.92 dB
(63,57,3)
2.58 dB
4.34 dB
(127,36,31)
6.57 dB
9.44 dB
(63,51,5)
3.85 dB
6.07 dB
(127,29,43)
7.01 dB
9.92 dB
(63,45,7)
4.56 dB
6.99 dB
(127,22,47)
6.19 dB
9.11 dB
(63,39,9)
4.91 dB
7.46 dB
(127,15,55)
5.19 dB
8.13 dB
(63,36,11)
5.35 dB
7.98 dB
(127,8,63)
3.04 dB
5.99 dB
(63,30,13)
5.23 dB
7.92 dB
(127,1,127)
-2.98 dB
0.00 dB
(63,24,15)
4.84 dB
7.57 dB
(255,247,3)
2.87 dB
4.63 dB
(63,18,21)
4.97 dB
7.78 dB
(255,239,5)
4.49 dB
6.71 dB
(63,16,23)
4.84 dB
7.67 dB
(255,231,7)
5.59 dB
8.02 dB
(63,10,27)
3.47 dB
6.32 dB
(255,223,9)
6.41 dB
8.96 dB
(63,7,31)
2.50 dB
5.37 dB
(255,215,11)
7.04 dB
9.67 dB
(63,1,63)
-2.94 dB
0.00 dB
(255,207,13)
7.55 dB
10.23 dB
TAB. 5.1 Gains hard et soft, asymptotiques en fort rapport signal bruit, sur
canal gaussien, de quelques codes BCH binaires primitifs. Les codes pour lesquels
d min = 3 sont des codes de Hamming, ceux pour lesquels k = 1 sont des codes
rptition. On constate de ces derniers napportent aucun gain sur canal gaussien.
91
p(1 p) avec
p =Q
s
!
2E b
1
1 Eb
R
R
N0
2
N0
Cette dernire approximation est valable pour R trs faible (voir exercice 7.1 sur
la fonction de Marcum). On obtient donc :
s
4p(1 p)
4R E b
N0
2 R Nb
R Nb
La perte du dcodage hard par rapport au dcodage soft nest plus que de :
10 log10 (/2) 2 dB
au lieu de 3 dB en fort rapport signal bruit. Incidemment ces 2 dB correspondent
la perte optimale la limite de Shannon (voir chapitre 6).
92
Chapitre 6
Performances asymptotiques
optimales dun systme cod en
blocs
6.1 Motivation
Dans les chapitres prcdents, on a tent dvaluer plus ou moins prcisment la probabilit derreur P e dun systme cod, lorsquon utilise un code bien
choisi. Nous avons vu quune valuation prcise de P e est difficile.
Qui plus est, nous avons trs peu dindications sur ce qui rend un code bon
sur tel ou tel canal (si ce nest la valeur de quantits comme nk d min ). Nous avons
encore moins dindications concernant les performances, pour un rendement et
une longueur donns, du meilleur code. Do une srie de questions lgitimes :
Peut-on trouver des bons codes et par quoi se caractrisent-ils ?
Sont-ils rares ?
Quelles performances optimales peut-on atteindre sur un canal donn ?
Dans ce chapitre on va tenter de rpondre ces questions par un argument
densemble, quon dsigne souvent par le terme codage alatoire. On se
limitera ici au cas du codage en blocs, le cas des codes convolutifs pouvant tre
trait de manire analogue.
93
94
log2 M
bits/symbole
Cest le nombre moyen de bits dinformation transmis par symbole cod envoy
sur le canal. Par exemple, pour un code linaire binaire (n, k), on a M = 2k de
sorte que R =
k
n
k
n
et taux puisque R =
k
n
Z
P
C
p(C )P e (C )
95
1
. Ici, on a prfr introduire un
2nM
de flexibilit.
p(C ) =
M
Y
m=1
p(x m )
Tout ce passe donc comme si les M mots de code taient tirs au hasard de
manire indpendante avec la mme loi p(x).
Les notations sont ici un peu confuses ; il ne faut pas confondre p(x), loi de
probabilit artificielle introduite sur chacun des mots de codes x = x m , et ce
quon a dj not p(x), la loi de probabilit dun mot de code lentre du canal.
En effet, la loi de probabilit dentre du canal p(x) se dfinit pour un code
donn C , comme la loi dun mot de code x C . On a fait lhypothse, en gnral
dans ce document, que les mots de code sont quiprobables : p(x) =
1
M . Pour ne
pas alourdir les notations, on ne fera plus rfrence directement cette loi p(x)
dans la suite.
Par contre, la loi de probabilit artificielle p(x) porte sur un vecteur x = x m
de dimension n quelconque. Pour un canal continu rel, x m Rn et p(x m ) est
une densit de probabilit. Pour un canal discret, avec des symboles F q par
exemple, x m (F q )n et p(x m ) est une loi de probabilit discrte.
96
n
Y
p(y i |x i )
i =1
n
Y
p(x i )
i =1
Tout ce passe donc comme si on tirait les composantes des mots de code au
hasard selon la mme loi p(x). L encore, il ne faut pas confondre cette loi p(x)
avec la loi dun symbole x = x i dun mot de code x dun code donn lentre du
canal.
Il faudrait donc, dans ce qui va suivre, tenir compte de cette contrainte pour
les canaux continus ceci est possible, mais alourdit les calculs. On prfrera
ici imposer une condition ncessaire correspondante sur la loi de probabilit
artificielle p(x) :
En effet, cette loi doit tre telle que la contrainte sur E m soit satisfaite en
moyenne sur p(x), cest dire :
M
1 X
kx k2
Em = E
nM m=1 m
97
o lesprance porte sur p(x). Avec les choix faits ci-dessus sur p(x), cela nous
donne la contrainte suivante de variance :
Em =
1
Ekxk2 = E(x 2 ).
n
Ainsi, pour un canal continu, le choix de p(x) sera fait, dans la suite, de telle sorte
R
que E(x 2 ) = x 2 p(x) d x = E m .
hypothse.
Ainsi, la technique du codage alatoire pourra nous fournir des renseignements sur la performance optimale dun systme cod, pour le meilleur code.
Z
P
y
p(y|x m )
1
1+
X
m 0 6=m
p(y|x m 0 )
1
1+
Rappelons que cette borne est valable pour tout > 0, et se rduit la borne de
lunion+Bhattacharyya lorsque = 1.
98
suivre, lesprance porte sur cette loi. Puisque les mots de code sont indpendants
vis--vis de p(C ), on trouve :
E(P e|x m ) 6
Z
P
E p(y|x m )
1
1+
"
X
m 0 6=m
p(y|x m 0 )
1
1+
# !
On value ici E(P e|x m ) au lieu de E(P e ), mais le lien est facile faire puisque
1 P
Pe = M
m P e|x m .
On se restreint maintenant un paramtre tel que 0 6 6 1, afin que la
fonction f (x) = x soit concave. On peut alors appliquer lingalit de Jensen pour
une v.a. X :
E f (X ) 6 f (E(X ))
Z
P
Z
P
p(x) f (x) 6 f
p(x)x
p(x) = 1.
On obtient ainsi :
E(P e|x m ) 6
Z
P
Z
P
E p(y|x m )
E p(y|x m )
6 (M 1)
1
1+
"
X
m 0 6=m
1
1+
"
X
m 0 6=m
p(y|x m 0 )
E p(y|x m 0 )
1
1+
1
1+
!#
Z
i+1
1
P h
E p(y|x) 1+
y
1
La dernire ingalit provient de ce que E p(y|x m ) 1+ est le mme quel que soit
lindice m, puisque les mots de code x = x m suivent tous la mme loi p(x).
On va maintenant utiliser le fait que le canal est sans mmoire. Puisque les
composantes x i dun mot de code x sont indpendantes suivant la loi p(x), on a :
E p(y|x)
1
1+
n
Y
= E
p(y i |x i )
1
1+
i =1
n
Y
1
E p(y i |x i ) 1+
i =1
99
On obtient donc :
E(P e|x m ) 6
Z Yh
i+1
1
E p(y i |x i ) 1+
y i
Z h
i+1
YP
1
M
E p(y i |x i ) 1+
yi
yi
n
Y
Z
P
f (y i ) =
y 1 ,y 2 ,...,y n i =1
f (y i )
P
1
1
On remarque que E p(y i |x i ) 1+ =
p(x)p(y|x) 1+ est le mme quel que soit
x
lindice i , puisque les composantes x i suivent la mme loi p(x). On obtient donc
finalement lexpression toute simple :
n
E(P e|x m ) 6 M J 0 ()
o on a pos :
J 0 () =
Z Z
P P
y
+1
p(x)p(y|x) 1+
log2 M
n
sous la forme :
E(P e|x m ) 6 2n(E 0 ()R)
o
E 0 () = log2 J 0 ()
est lexposant de Gallager.
Insistons sur le fait que cette borne est valable pour tout paramtre tel que
0 6 6 1, et pour toute loi (ou densit) de probabilit p(x) (sur laquelle nous
navons pas encore fix notre choix).
Pour minimiser cette borne il faut maximiser E 0 () R par rapport
(0 6 6 1) et maximiser E 0 () par rapport p(x). De toute faon, pour tout choix
de et de p(x) tel que E 0 () R > 0, on aura une dcroissance exponentielle
de la probabilit derreur moyenne vers 0 lorsque la longueur n crot. Dans les
paragraphes suivants on va obtenir cette dcroissance vers 0 avec diffrentes
hypothses sur R.
100
p(x)
est appel taux critique 1 du canal. Noter quil ne dpend que des probabilits de
transition p(y|x) du canal. Puisque
J 0 = J 0 (1) =
Z Z
P P
y
p
p(x) p(y|x)
il est facile de voir 2 que 0 6 J 0 6 1, de sorte que R 0 est une quantit positive.
On obtient donc une dcroissance exponentielle :
E(P e|x m ) 6 2n(R0 R)
ds lors que R < R 0 . Daprs ce quon a vu il existe un code [M , n] dont la probabilit derreur est galement 6 2n(R0 R) . On a donc prouv le thorme suivant :
Thorme R 0 . Pour tout R < R 0 il existe un code de taux > R et de longueur n
tel que, pour tout mot de code x :
P e|x 6 2n(R0 R) 0 quand n
Ce thorme signifie que quon peut transmettre avec une probabilit derreur
arbitrairement petite ds lors que le taux R est infrieur au taux critique du canal.
1. cut-off rate en anglais.
p
p
2. Appliquer par exemple
Z Z lingalit de Jensen pour la fonction x. On obtient E( p(y|x)) 6
p
P P
E(p(y|x)) do J 0 6
p(x)p(y|x) = 1.
y
101
2
p
=
p(x) p(y|x)
y
x
Z q
Z
P
0 P
0
p(y|x)p(y|x )
=
p(x)p(x )
x,x 0
y
Z q
P
= E
p(y|x)p(y|x 0 )
Z Z
P P
Le terme entre parenthses nest autre que la borne de Bhattacharyya sur la probabilit derreur par paire. Celle-ci a dj t calcule au chapitre 3 pour diffrents
canaux. Il suffit ensuite de minimiser lesprance de cette borne sur p(x) pour
dterminer R 0 .
p(y|x)p(y|x 0 ) = d H (x,x )
o = 2
p(x)p(x 0 ) +
X
x
x6=x 0
= (1 )
p(x)2
p(x) +
x,x 0 p(x)p(x
1
q
+ = q1 (1 + (q 1)) et on obtient :
R 0 = log2 q log2 (1 + (q 1))
102
p(1 p))
Le cas du canal BEC ( effacement) est trait dans lexercice 7.16. Par ailleurs,
lexercice 7.10 donne une autre dmarche pour le calcul de R 0 dans ce cas.
p(y|x)p(y|x 0 ) d y = e
(x,x
d 4N
0)
J0 =
p(x)p(x 0 )e
0 )2
0
(xx
4N
d xd x 0
sur la densit de probabilit p(x). Noter quon peut toujours se restreindre p(x)
R
tel que E(x) = xp(x) d x = 0, quitte effectuer une translation sur x et x 0 dans
lintgrale dfinissant J 0 . La minimisation doit aussi se faire sous la contrainte
R
que E m = E(x 2 ) = x 2 p(x)d x est lnergie moyenne par symbole.
La minimisation de J 0 est dlicate 3 . Cependant, linstar du calcul de la
capacit fait ci-dessous au 6.6.4, il semble raisonnable de choisir p(x) gaussien 4 .
Le calcul gnral de J 0 () dans ce cas est fait dans lexercice 7.11. Pour = 1, on
trouve :
v
u
u
J 0 = J 0 (1) = t
1
1 + ENm0
1
Em
log2 (1 +
).
2
N0
103
Z Z
P P
y
p(x)p(y|x)
1
1+
+1
104
Z
P
Z
P
p(x)p(y|x)
1
1+
Z
P
p(x )p(y|x )
1
1+
x0
x,y
p(x, y)
"Z
P
x,y
p(y|x 0 )
p(x )
p(y|x)
x0
0
1 #
1+
d log f ()
d
f ()
=
e
= log f (0)
d
d
=0
=0
Avec cette rgle on obtient facilement :
J 00 (0) =
Z
P
x,y
P
0
0
p(x
)p(y|x
)
x0
p(x, y) log
p(y|x)
do
E 00 (0)
1 J 00 (0)
=
log 2 J 0 (0)
Z
P
0
0
Z
p(x
)p(y|x
)
x0
1 P
p(x, y) log
=
log 2 x,y
p(y|x)
p(y|x)
Z
P
p(x)p(y|x) log2 Z
P
x,y
p(x 0 )p(y|x 0 )
x0
La quantit :
I (X , Y ) =
Z
P
p(x)p(y|x) log2 Z
P
x,y
p(y|x)
p(x 0 )p(y|x 0 )
x0
105
6 2nE () .
Afin doptimiser ce rsultat il nous reste choisir la loi de probabilit artificielle p(x) de telle sorte quelle maximise I (X , Y ). On dfinit donc la capacit du
canal par :
C = max I (X , Y )
p(x)
106
p(e) log2
eF q
1
p(e)
1
Le calcul de H (e) est facile et donne : H (e) = P log2 p1 + (1 P ) log2 1P
.
Daprs lexercice 7.13, la borne de Shannon est atteinte si lon peut choisir
p(x) de telle sorte que les symboles de sortie du canal soient quiprobables :
p(y) = q1 . Un choix vident est la loi uniforme : p(x) = q1 . On a bien alors :
p(y) =
X
x
p(y|x)p(x) =
1X
1
1
p(y|x) = ((q 1)p + (1 P )) =
q x
q
q
1
1
+ (1 x) log2
x
1x
107
0.9
0.8
0.7
Code Rate
0.6
0.5
0.4
Ro
0.3
0.2
0.1
0
0
0.05
0.1
0.15
0.2
0.25
0.3
Raw Error Probability
0.35
0.4
0.45
0.5
2e2y H (B )
1p
lingalit de Jensen pour la fonction log, cette dernire expression est 6 log2 ( q + 1q ). Il suffit
p
enfin de poser q = p
p
p
pour conclure.
p+ 1p
108
Ici p(b) est une densit gaussienne de moyenne nulle et de variance N0 /2.
Pour dterminer la borne de Shannon, il faut calculer H (B ), lentropie diffrentielle dune gaussienne. Daprs lexercice 7.12, on obtient :
H (B ) = log2
p
2eN0 /2
N0
2
1
Em
log2 (1 + 2
)
2
N0
C
P
= B log2 (1 +
)
T
N0 B
Cest lexpression classique due Shannon. La condition R 6 C se traduit ici en termes de dbits
binaires : D b 6 C .
109
y2
2
log2 cosh y
!
2E m 2E m
+
dy
N0
N0
p =Q
2E m
N0
Le paramtre E m /N0 est le rapport signal bruit moyen par bit cod. Nous savons
quil scrit :
E m /N0 = Rb
o b =
Eb
N0
110
1
0.9
0.8
C
0.7
Code Rate
Ro
0.6
0.5
0.4
0.3
0.2
0.1
0
0
5
6
SNR Em/No
10
111
10
6
Ro
SNR (dB)
Zone R<Ro
C
Zone R<C
2
Rgion interdite
0
-2
0.1
0.2
0.3
0.4
0.5
0.6
Code Rate
0.7
0.8
0.9
1
1 p
p
2Rb + 0(R)
2
2
do respectivement :
R0 =
RB
+ o(R)
log 2
et
2RB
+ o(R)
log 2
Ainsi, lorsque R 0, la condition R < R 0 du thorme R 0 devient :
C=
log 2
= 0.37d B
2
112
Cest la valeur limite de Shannon en rapport signal bruit pour une transmission
fiable, en dcodage hard.
Eb
N0
113
1
0.9
C
0.8
Ro
Code Rate
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
5
6
SNR Em/No
10
F IG . 6.4 Capacit et Taux critique en dcodage soft sur canal gaussien entre
binaire, en fonction du rapport signal bruit moyen E m /N0 = Rb
une code de longueur suffisamment grande qui ralise une probabilit derreur
aussi faible quon veut pour b > b min .
On voit sur la Fig. 6.5 que le b min minimum sobtient lorsque 7 R 0. Il est
facile de calculer cette valeur en faisant un dveloppement limit en R = 0.
Pour le rendement critique R 0 = 1 log2 (1 + e Rb ), la condition R < R 0 peut
scrire :
b >
log(21R 1)
= 2 log 2 + o(1)
R
e y /2
dy =
+ o(R).
p
log 2 log 2 2
2
log 2
Ainsi, lorsque R 0, la condition R < R 0 du thorme R 0 devient :
b > 2 log 2 = 1.42d B
et la condition R < C du thorme de Shannon devient :
b > log 2 = 1.59d B
Cest la valeur limite de Shannon en rapport signal bruit pour une transmission
fiable, en dcodage soft.
7. Noter que R 0 implique une transmission puissance limite (voir 1.5).
114
10
SNR (dB)
4
Ro
Zone R<Ro
2
C
Zone R<C
0
Rgion interdite
-2
0.1
0.2
0.3
0.4
0.5
0.6
Code Rate
0.7
0.8
0.9
1
log2 (1 + 2Rb )
2
22R 1
= log 2 + o(1)
2R
115
est log 2 = 1.59 dB. Elle est identique celle obtenue avec la contrainte dentre
binaire !
On peut traduire ce rsultat en disant que une quantification binaire en entre
du canal gaussien naffecte pas la limite de Shannon (Input binary quantization
doesnt hurt). En thorie on pourrait donc toujours se limiter des codes binaires avec modulation BPSK (plutt que dutiliser des codes q-aires). Ceci nest
videmment valable que pour les meilleurs codes, lorsque R 0 et n .
par rapport au dcodage Soft est de 2 dB. Ceci correspond bien la perte obtenue
au chapitre 5 lorsque R 0 (et non pas la perte de 3 dB obtenue en fort rapport
signal bruit). On peut traduire ce rsultat en disant quune quantification binaire
en sortie du canal gaussien affecte la limite de Shannon de 2 dB (Output binary
quantization costs you 2 dB). Il faut aussi noter que, lorsque R crot, cette perte
samenuise (voir Fig. 6.6). Elle nest plus que de 1.5 dB en R = 1/2.
La Fig. 6.7 nous donne une ide du gain potentiel attendre de la thorie
du codage correcteur derreurs. Entre les performances dun systme non cod
(BPSK seule) et celles dun systme cod optimal, le foss est important. Cette
figure est connue depuis les annes cinquante (le thorme de Shannon date
de 1948, sa rciproque de 1952). Bien que Shannon ait prdit quun code choisi
au hasard ferait laffaire, ceux quon connait sont encore loin de la limite de
Shannon ! En quarante ans de recherches, des progrs considrables ont t
une transmission puissance limite. Lexpression de la capacit en bits/s : C = B log2 (1 + NPB )
0
1 P
log 2 N0
Sachant que b = N PD (cf. 1.5), la condition D b 6 C nous redonne bien la limite b > log 2.
0 b
116
10
SNR (dB)
2
Limite hard
0
Limite Soft
-2
0.1
0.2
0.3
0.4
0.5
0.6
Code Rate
0.7
0.8
0.9
117
-1
10
-2
10
BPSK
-3
Error Rate
10
-4
10
-5
10
-6
10
-7
10
-2
4
6
Bit SNR Eb/No (dB)
10
12
118
Chapitre 7
Exercices
119
120
CHAPITRE 7. EXERCICES
121
1
1
p x.
2
2
x2
x2
1 1 1
1
1+ 2
p e 2 < Q(x) < p e 2
x
x 2
x 2
fonction erfc(x).
122
CHAPITRE 7. EXERCICES
X
d /26i 6d
Cid p i (1 p)d i
p i
p d /2
1. Retrouver la borne de Bhattacharyya en majorant : 1p 6 1p
.
2. Dans cette question d est impair, donc :
P r {t > d /2} = P r {t > (d + 1)/2}
(a) Par un calcul analogue la question prcdente, montrer que :
P xx 0 6 2d p (d +1)/2 (1 p)(d 1)/2
(b) En dduire (sachant que p < 12 ) lamlioration suivante de la borne
de Bhattacharyya (due Van de Meeberg) :
p
d +1
P xx 0 6 2 p(1 p)
w
si w est pair
w + 1 si w est impair.
1+z
1z
+
A (z) =
A(z) +
A(z)
2
2
(c) Soit P e la probabilit derreur obtenue pour le code C sur le canal
BSC. On sait, daprs la borne de Bhattacharyya, que :
P e 6 A() 1
123
124
CHAPITRE 7. EXERCICES
2X = E (X E (X ))2
x2
,
a2
Tchbycheff :
P r {|X E (X )| > a} 6
2X
a2
( > 0)
o on a pos () = log E (e X ).
3. Minimisation de la borne de Chernoff
Soit p(x) la distribution de probabilit de X . On introduit :
p 0 (x) =
e x
E (e X )
p(x).
) 0 ( )
Pn
i =1 X i
P r {X i = 1} = 1 P r {X i = 0} = p.
125
= (p (1 p)1 )n 2nH2 ()
1
o H2 () = log2 1 + (1 ) log2 1
est la fonction dentropie binaire.
p (1 p)1
P r {X > n} >
(1 )1
126
CHAPITRE 7. EXERCICES
1
2
et de
longueur d .
Retrouver la borne de Bhattacharyya en utilisant lingalit de Chernoff (cf.
exercice prcdent) P xx 0 .
2. Cas du canal q-SC
Utiliser lingalit de Chernoff sur P xx 0 tablie dans le cours, et, par un
calcul analogue celui fait dans le cours pour la borne de Bhattacharyya,
montrer successivement que, pour tout > 0 :
!
Y X
1
0
P xx 0 6
p(y i |x i )
p(y i |x i )
i
yi
p 1 (1 P ) + (1 P )1 p + (q 2)p
o d = d H (x, x 0 ).
Retrouver la borne de Bhattacharyya en minimisant cette somme sur
(Indication : minimiser une somme produit constant revient galer les
termes).
3. Cas du canal gaussien
On rappelle que dans ce cas :
d
P xx 0 = P r {Z > p }
2
o d = d (x, x 0 ) et Z est une v.a. gaussienne centre de variance N0 .
(a) Montrer que :
E (e Z ) = e N0
/2
N0
2
2 pd
2
127
128
CHAPITRE 7. EXERCICES
z w H (x)
xC
A(1) = 2k
A 0 (1) =
w H (x)
xC
(poids total des mots de code) o A 0 (z) est le polynme driv de A(z).
2. On suppose dans cette question que C admet (1, 1, . . . , 1) pour mot de code.
Montrer quon a alors une symtrie des coefficients : A d = A nd , i.e.,
A(z) = z n A(z 1 )
3. On fixe j {0, , n 1} et on considre, pour tous les mots de code x C ,
lensemble des j es composantes x j . On suppose dans cette question quil
existe x 0 C tel que x 0j 6= 0.
En utilisant la linarit de C , montrer alors quil y a autant de mots de code
de j e composante x j = 0 que de mots de code de j e composante x j = 1.
4. En dduire que le poids total des mots de code vrifie :
X
w H (x) 6 n2k1
xC
n2k1
2k 1
6. Montrer que la borne de Plotkin est atteinte pour les codes simplexes de
paramtres (2m 1, m) (on admettra que la distance minimale est > 2m1 ).
Quel est alors le polynme numrateur de poids A(z) ?
129
2 j 1
2j 1
8. On considre une famille de codes (n, k) pour laquelle on peut faire tendre
la longueur n vers linfini. On note R = limn nk . En utilisant la borne de
Plotkin, montrer que
d min 1
< + o(n)
n
2
En utilisant la borne de Plotkin amliore pour j = dlog ke par exemple,
montrer que
d min 1
< (1 R) + o(n)
n
2
Commenter.
130
CHAPITRE 7. EXERCICES
Par ailleurs, on sait que y appartient au code si et seulement si il est orthogonal tout mot du code dual, i.e.,
x 0 C ,
< x 0 |y >
x 0
lorsque y C et lorsque y 6 C .
4. Montrer que
P r {y 6 C } =
1
2nk
E(2S)
i impair
Ciw p i (1 p)wi
131
1 (1 2p)w
.
2
7. En dduire
E(2S) = 2nk B (1 2p)
8. Dduire des questions prcdentes lidentit de Mac Williams :
1z
1
A(z) = nk (1 + z)n B
1+z
2
132
CHAPITRE 7. EXERCICES
q ki
NI =
1
si i 6 k
si i > k
133
(a)
Ai =
MI
MI = 0
(d)
X
M J = N I 0 = q i dmin +1
si i > d min
J I
i
X
j =1
8. On introduit loprateur
Ci M j = q i n+k 1.
PM
i =N
q i =
PM
i =0 q
(q 1)i 1
q nk
i >0
134
CHAPITRE 7. EXERCICES
vrifie lquation de rcurrence de la question prcdente.
Indication :
i
X
j =1
Ci (q 1)
(q 1) j 1
q nk
= (q 1)
9. Conclure :
A i = Cin (q 1)
i
X
j =1
(q 1)i 1
q nk
Ci
(q 1) j 1
q nk
135
Em
N0
le rapport signal bruit moyen sur le canal, o E m est lenergie moyenne par bit
mis sur le canal.
Borne de lunion+Bhattacharyya sur la probabilit derreur par bit.
On considre dans cette partie la dtection optimale, bit par bit, pour la
modulation BPSK symboles quiprobables. Dans les 5 premires questions
on raisonne affaiblissement donn. On note P e b | le probabilit derreur-bit
sachant .
1. Montrer que, pour un affaiblissement donn, la distance euclidienne
p
minimale dans lespace des signaux mis vaut d (x, x) = 2 E m .
2. En sinspirant du cas du canal gaussien trait dans ce document, donner
la borne de Bhattacharyya sur la probabilit derreur par paire sachant ,
note P xx | . On crira cette borne en fonction de et .
3. En dduire la borne correspondante sur P e b | . La borne de lunion est-elle
exacte ?
4. En saidant du cas du canal gaussien trait dans ce document, donner (en
la justifiant) la valeur exacte de P e b | en fonction de et .
5. En utilisant une majoration convenable de la fonction Q(x) (vue lexercice 7.1), en dduire lamlioration suivante de la borne de lunion + Bhat2
tacharyya : P e b | 6 12 e .
6. En dduire la majoration suivante de la probabilit derreur-bit P e b :
P eb 6
1
1
2 1+
1
2
1+
. Retrou-
136
CHAPITRE 7. EXERCICES
On considre ici la modulation BPSK code par un code linaire de paramtres (n, k, d min ) en dcodage hard sur le canal de Rayleigh. Lentre du
canal est un mot de code x = (x 1 , . . . , x n ). La sortie du dtecteur seuil
p
la rception fournit y = (x1 , x2 , . . . , xn ) o les dcisions hard xi = 2E m
sont des points de la modulation BPSK. On suppose que les affaiblisseQ
ments (1 , . . . , n ) sont indpendants, i.e. p() = i p(i ).
p(xi |x i , i ) =
Y
i | x i 6=xi
pi
(1 p i )
i | x i =xi
p(y|x) =
p()p(y|x, ) d .
R
10. Calculer p(y|x) en fonction de P e b = p()P e b | d , probabilit derreur-
d min
2
P e . c P eb
1
L
o L = d dmin
2 e est la diversit sur canal de Rayleigh obtenue en dcodage
hard non supervis en fort rapport signal bruit.
137
pi
i | x i 6=xi
(1 p i )
i | x i =xi
p i (1 p i )
i | x i 6=x 0 i
2
1 d H (x,x )
P xx 0 6
1+
17. En dduire une majoration de la probabilit derreur, au premier ordre en
fort rapport signal bruit, sous la forme :
Pe . c
1
L
138
CHAPITRE 7. EXERCICES
19. Par analogie avec le cas du canal gaussien trait dans ce document, montrer
que la borne de Bhattacharyya scrit :
P xx 0 | 6 e
4N1 d 2 (x,x 0 )
0
p
20. Sachant que les x i = 2E m sont des points de la modulation BPSK, montrer, en utilisant le rsultat de la question 1, que la borne de Bhattacharyya
se met sous la forme :
P xx 0 | 6 e
i | x i 6=x 0
i
2i
1
P xx 0 6
1+
d H (x,x 0 )
1
L
139
7.9 Performances de la modulation par des signaux orthogonaux de mme nergie sur canal gaussien
On considre n points quiprobables x 1 , . . . , x n dune constellation en dimension n dfinis par
x i = (0, . . . , 0,
p
E
|{z}
, 0, . . . , 0) Rn .
i me composante
E
n
log2 n
n
Eb
N0
Rb
ln 2
et
R0 =
Rb
2 ln 2
140
CHAPITRE 7. EXERCICES
Pn
2
i =1 x i
4N1 kxx 0 k2
0
est la norme de Rn .
NE
8. En dduire que
P e 6 2n(R0 R)
9. Conclure (thorme R 0 pour n ).
10. La transmission peut-elle tre fiable si b = 1.5 dB ? Si oui, quelle dimension
n faut-il choisir pour garantir une probabilit derreur P e < 109 ?
Borne de Gallager
On rappelle la borne de Gallager :
P e|x i 6
p(y|x i )
1
1+
X
j 6=i
p(y|x j )
1
1+
dy
NE
p
2 E yi
N0
NE
"
E e
p
2 E yi
N0 (1+)
p
2 Eyj
! #
e N0 (1+)
j 6=i
141
P e|x i
6 e
NE
! #
p
2pE y "
X 2 Eyj
i
N0 (1+)
N0 (1+)
E e
E
e
NE
!#
p
2pE y "
X 2 Eyj
i
N0 (1+)
N0 (1+)
E e
E
e
j 6=i
(2)
6 e
j 6=i
o q(y) =
p1 e
N0
y2
1+
E
N0
C R
1+
C R
1+
17. On note la valeur relle > 1 qui annule la drive f 0 (). Dterminer
.
18. Montrer que f () est concave et en dduire son maximum sur lintervalle
[0, 1] (On distinguera les trois cas < 0, 0 6 6 1 et > 1).
142
CHAPITRE 7. EXERCICES
19. En dduire
2n( C2 R)
p p
Pe 6
2n( C R)2
lorsque R 6 C4
lorsque
C
4
6R <C
143
P xx 0 6 d H (x,x )
o d H (x, x 0 ) est la distance de Hamming entre les deux mots de code x et x 0 . On
fera lhypothse habituelle que les M mots de code (F q )n de longueur n sont
quiprobables. On note R =
log2 M
n
le taux du code.
1. Montrer que cette borne sur la probabilit derreur par paire est valable,
par application de la borne de Bhattacharyya, dans les cas suivants (on
dterminera dans chaque cas la valeur de ) :
(a) Canal BSC et q-SC de paramtre p.
(b) Canal gaussien, q = 2, dcodage hard avec un rapport signal--bruit
par bit dinformation gal E b /N0 .
(c) Canal gaussien, q = 2, dcodage soft avec un rapport signal--bruit
par bit dinformation gal E b /N0 .
(d) Canal binaire effacement BEC de paramtre (cf. exercice 7.16).
(e) Canal de Rayleigh, q = 2, dcodage hard.
Borne de lunion
2. En utilisant la borne de lunion, montrer la majoration suivante de la probabilit derreur :
P e 6 A()
o :
A(z)
=
1
M
z d H (x m ,x m0 ) .
16m,m 0 6M
m6=m 0
144
CHAPITRE 7. EXERCICES
A d z d , dterminer et interprter
A d .
Rponse : A d est dfini comme le nombre moyen de mots de code x m 0
situs une distance d dun mot de code x m donn (cf. 3.7) :
A d =
M
1 X
Card {x m 0 | m 0 6= m et d H (x m , x m 0 ) = d }
M m=1
1 X d H (x ,x 0 )
m m .
z
M m,m 0
d H (x m ,x m 0 )
1 X d H (x ,x 0 )
1 + (q 1)z n
m
m
>= n
z
=
q x0
q
m
< A(z)
>= 1/M
X
m6=m 0
<z
d H (x m ,x m 0 )
1 + (q 1)z
>= (M 1)
q
145
Cdn (q 1)d
q n /M
.]
log2 M
n
146
CHAPITRE 7. EXERCICES
J0 =
1
2 Em
1 + 1+
N0
/2
2 Em
E 0 () = log2 1 +
.
2
1 + N0
7. A laide de ce rsultat, en considrant lexposant E () = E 0 () R de la
borne sur la probabilit derreur moyenne, redmontrer successivement :
(a) Le thorme R 0 en posant = 1.
(b) Le thorme de Shannon en prenant arbitrairement petit.
8. [Optionnel] Dterminer numriquement et tracer sur un graphique lexposant optimal max[0,1] E () en fonction de R pour diffrentes valeurs du
rapport signal bruit. Commenter.
147
Z
P
x
p(x) log2
1
p(x)
(Lorsque X est une variable continue cette quantit est souvent appele entropie
diffrentielle.) Elle est not H (X ) ou H (p) selon que lon dsire ou non faire
apparaitre la dpendance en la loi (ou densit) de probabilit p(x).
1. Montrer que si q(x) est une autre loi (ou densit) de probabilit, on a :
H (p) 6
Z
P
x
p(x) log2
1
q(x)
p(x) log2
1
q(x)
p(x)P
p(x)P
2e2
148
CHAPITRE 7. EXERCICES
1
q
149
Ici P est un ensemble de lois (ou densits) de probabilit p(x). Par exemple, pour
un canal continu dont lentre est de variance 2x , P est lensemble des densits
R
de probabilit de variance x (x )2 p(x)d x = 2x .
1. Montrer quon peut crire I (X , Y ) sous la forme :
Z
p(y|x)
P
I (X , Y ) =
p(x, y) log2
p(y)
x,y
2. En dduire que :
I (X , Y ) = H (Y )
Z
P
x
p(x)H (Y |X = x)
150
CHAPITRE 7. EXERCICES
3. En faisant le changement de variable y = x + b dans lexpression de lentropie conditionne H (Y |X = x), montrer que :
C = max {H (Y )} H (B )
p(x)P
151
p(0) = p(x = pE )
m
p(1) = p(x = pE m )
p(0)e
p(y) = p
N0
p
(y E m )2
N0
+ p(1)e
p
(y+ E m )2
N0
eN0
o q(y) est une densit de probabilit optimale, i.e., telle que lexpression
Z
1
P
p(y) log2
q(y)
y
soit indpendante du choix de p(y).
3. Montrer que q(y) est optimale si q(y) = q(y).
Indication : Sous cette condition, les deux intgrales suivantes sont gales :
p
p
Z
Z
(y E m )2
(y+ E m )2
1
1
N0
N0
e
log2
dy = e
log2
dy
q(y)
q(y)
4. Montrer, laide de la question prcdente, quun choix convenable pour
q(y) est :
p
p
(y+ E m )2
1 (y NEm )2
N
0
0
q(y) = p
e
+e
N0 2
152
CHAPITRE 7. EXERCICES
(y E m )2
1
N0
r (y) = p
e
N0
R
Montrer de plus que r (y)y 2 d y = E m + N0 /2.
y2
q(y) = p
e
N0
ENm
0
Em
cosh y
N0 /2
p
eN0 + 2
Em
N0 log 2
p
Em
r (y) log2 cosh y
N0 /2
p
y2
2
1
C=
p
e 2 log2 cosh y 2 + 2 d y
log 2
2
o on a pos =
Em
N0 .
153
M
1 X
P c|x m ,
M m=1
Cette sommation porte sur les y tels que p(y|x m ) est maximum parmi les
p(y|x m 0 ), m 0 = 1, . . . , M .
2. En dduire que
Z
1 P
max p(y|x).
Pc =
M y xC
max p(y|x) 6
xC
p(y|x)
1
1+
!1+
xC
1+
1
.
Indication : On a max f (x) = max( f (x) 1+ )
1 si x C
M
p(x) =
0 sinon.
154
CHAPITRE 7. EXERCICES
On veut maintenant trouver une distribution de probabilit p(x) qui maximise la borne sur P c . On admettra que ce maximum est atteint pour une
distribution p(x) du type :
p(x) =
p(x i )
155
Borne de lunion
3. Montrer que, sachant , la probabilit derreur par paire vaut 1 si les composantes distinctes des deux mots de code sont effaces, et 0 sinon. Autrement
dit :
P xx 0 | = I
o I est lensemble des incides i tels que x i 6= x i0 .
4. En dduire, en moyennant sur , que :
0
P xx 0 = d H (x,x )
5. Calculer la borne de Bhattacharyya (on pourra appliquer le calcul gnral
de la section 3.5.2) et montrer quelle est exacte.
6. En dduire la borne de lunion :
P e 6 A() 1
156
CHAPITRE 7. EXERCICES
o A(z) est le polynme numrateur de poids du code.
Calcul du taux critique R 0
Indication pour cette partie : On pourra saider du calcul fait au chapitre 6
pour le BSC.
Calcul de la capacit C
Dans cette partie on utilisera le rsultat suivant de lexercice 7.13 :
I (X , Y ) = H (Y )
p(x)H (Y |X = x)
et
H (Y |X = x) = H2 ()
1
o H2 (x) = x log2 x1 + (1 x) log2 1x
est la fonction dentropie binaire. En
dduire lexpression de I (X , Y ).
10. En dduire, en utilisant le rsultat de lexercice 7.12, la valeur de la capacit
du canal BEC :
C = 1
et interprter ce rsultat.
11. Dessiner les graphes de R 0 et C en fonction de et montrer directement
que R 0 < C . Indication : On pourra utiliser lingalit de Jensen applique
la fonction log2 (1+ x) et la v.a. binaire X telle que p X (0) = 1, p X (1) = .
Codage optimal en stratgie ARQ
Dans cette partie on considre le canal BEC avec une voie de retour sans
dlai et sans bruit. On utilise le code trivial (dit universel) de paramtres
(1, 1) en stratgie ARQ.
12. Expliciter lalgorithme de dcodage. Que vaut la probabilit derreur ? (rponse : 0).
157