Vous êtes sur la page 1sur 104

Communications Numriques et Thorie de lInformation e e

Maurice Charbit 3 novembre 2005

Chapitre 0

Table des mati`res e


1 Reprsentation en enveloppe complexe e 1.1 Rappels de thorie du signal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 1.2 Echantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Cas des signaux passe-bas . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Cas des signaux passe-bande . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.3 Cas des signaux passe-bas de bande innie . . . . . . . . . . . . . . . . . 1.2.4 Reconstruction pratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Reprsentation en enveloppe complexe ou reprsentation en phase et quadrature e e 1.3.1 Enveloppe complexe dun signal . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Filtrage quivalent en bande de base . . . . . . . . . . . . . . . . . . . . . e 1.3.3 Dmodulation synchrone . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 1.3.4 Enveloppe complexe dun processus alatoire du second ordre . . . . . . . e 1.4 Elments de dcision statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . e e 1.4.1 Position du probl`me . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 1.4.2 Exemple de deux observations gaussiennes de dimension K . . . . . . . . 1.4.3 Cas de M observations gaussiennes de dimension K . . . . . . . . . . . . 1.5 Statistique susante sur un canal soumis a un bruit AGB . . . . . . . . . . . . . ` 1.5.1 Reprsentation relle des signaux . . . . . . . . . . . . . . . . . . . . . . . e e 1.5.2 Reprsentation en phase et quadrature . . . . . . . . . . . . . . . . . . . . e 1.5.3 Rsum sur la dtection dun signal dans un bruit AGB . . . . . . . . . . e e e 1.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Communications numriques e 2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Modulation numrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 2.2.1 Message numrique et signal numrique . . . . . . . . . . . . . . . . . . e e 2.2.2 Transmission M -aire en bande de base . . . . . . . . . . . . . . . . . . . 2.2.3 Modulation numrique sur frquence porteuse . . . . . . . . . . . . . . . e e 2.2.4 Limite fondamentale : formule de Shannon . . . . . . . . . . . . . . . . 2.2.5 Param`tres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 2.2.6 Spectre des signaux numriques . . . . . . . . . . . . . . . . . . . . . . . e 2.3 Performances en prsence de bruit pour une transmission en bande de base . . e 2.3.1 Filtre adapt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 2.3.2 Transmission sans IES : canal de Nyquist . . . . . . . . . . . . . . . . . 2.4 Performances en prsence de bruit pour les modulations sur frquence porteuse e e 2.4.1 Cas de la MDP-M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Annexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 Preuve de (2.7) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Introduction aux codes correcteurs derreur 3.1 Canal binaire symtrique sans mmoire . . . . . . e e 3.2 Dirents types de code . . . . . . . . . . . . . . . e 3.3 Dcision optimale sur le canal CBS . . . . . . . . . e 3.3.1 Un exemple . . . . . . . . . . . . . . . . . . 3.3.2 Application au CBS : distance de Hamming 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 7 7 9 10 11 12 13 15 15 16 19 19 21 24 25 25 26 29 29 31 31 31 31 32 32 35 35 36 41 41 43 52 54 56 61 61 63 63 64 66 66 67

4 3.4 Codes linaires en bloc . . . . . . e 3.4.1 Proprits gnrales . . . ee e e 3.4.2 Dcodage par le syndrome e 3.4.3 Codes cycliques . . . . . . Exercices . . . . . . . . . . . . . Annexes . . . . . . . . . . . . . . 3.6.1 Preuve de (3.9) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Chapitre 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 70 73 76 82 82 82

3.5 3.6

4 Elments de thorie de linformation e e 4.1 Capacit dun canal de transmission . . . . . . . . . . . . . . . e 4.1.1 Notion de canal de transmission . . . . . . . . . . . . . 4.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.3 Dnitions . . . . . . . . . . . . . . . . . . . . . . . . . e 4.1.4 Calculs de capacit . . . . . . . . . . . . . . . . . . . . . e 4.1.5 Canal CBS/Canal binaire a dcision douce/Canal AGB ` e 4.2 Outils de la thorie de linformation . . . . . . . . . . . . . . . e 4.2.1 Quantit dinformation . . . . . . . . . . . . . . . . . . e 4.2.2 Information Mutuelle . . . . . . . . . . . . . . . . . . . 4.2.3 Thor`me du traitement de linformation . . . . . . . . e e 4.2.4 Cas de variables alatoires continues . . . . . . . . . . e 4.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

85 . 85 . 85 . 86 . 88 . 90 . 93 . 96 . 96 . 98 . 100 . 101 . 103

Chapitre 1

Reprsentation en enveloppe e complexe


1.1 Rappels de thorie du signal e

Dans le cas des signaux dterministes a temps continu, on distingue les signaux dnergie nie servant le e ` e plus souvent a modliser les signaux de dure nie ou a dcroissance rapide et les signaux de puissance nie ` e e ` e plus particuli`rement les mlanges de sinuso e e des de la forme :
P

x(t) =
k=1

Ak cos(2fk t + k )

Energie et Puissance Lnergie dun signal x(t), fonction complexe de la variable relle t, est la quantit E dnie par : e e e e
+

E=

|x(t)|2 dt
+T /2

(1.1)

La puissance dun signal x(t), fonction complexe de la variable relle t, est la quantit P dnie par : e e e P = lim 1 T + T
P

T /2

|x(t)|2 dt

(1.2)

Si x(t) est priodique de priode T de la forme : e e x(t) =


k=1

Ak cos(2kt/T + k )

la puissance est donne par : e P = 1 T


+T /2 T /2 P

|x(t)|2 dt =

A2 /2 k
k=1

Reprsentation frquentielle des signaux e e Lorsquon applique le signal complexe e2jf0 t a lentre dun ltre linaire, le signal en sortie a pour ` e e expression Ae2jf0 t o` A est une constante ne dpendant que de la valeur f0 . Cest une des raisons de u e limportance de la dcomposition dun signal en une somme dexponentielles complexes. Cette dcomposition e e porte le nom de reprsentation de Fourier ou reprsentation frquentielle ou plus simplement spectre. e e e Pour un signal x(t) priodique de priode T et de puissance nie, on a les formules de Fourier suivantes1 : e e x(t) = + Xn e2jnt/T n= 1 T /2 Xn = x(t)e2jnt/T dt T T /2
convergence dans le dveloppement de x(t) est moyenne quadratique. Il peut ne pas y avoir convergence uniforme. Ce e phnom`ne na aucune consquence pour nous dans la suite. e e e
1 La

Chapitre 1

e Les coecients Xn sappellent les coecients de Fourier du signal x(t). Du fait que ces formules tablissent une correspondance bijective entre la fonction x(t) et la suite Xn de ses coecients de Fourier, il ny a pas plus dinformation dans lune ou lautre de ces reprsentations. Toutefois en traitement du signal, elles ont e chacune leur intrt. De faon image, on peut dire que ce sont deux mani`res de voir le mme phnom`ne e e c e e e e e sous des angles dirents. e Pour un signal x(t) dnergie nie, les formules de transformations de Fourier directe et inverse sont : e X(f ) = + x(t)e2jf t dt (1.3) x(t) = + X(f )e2jf t df

La variable f sappelle la frquence. Son unit est le Hertz (en abrg : Hz). e e e e

Exemple 1.1 Soit le signal rectangle x(t) = 1 pour t (T /2, T /2) et 0 sinon. Un calcul immdiat donne e pour sa transforme de Fourier : e X(f ) = sin(f T ) = T sinc(f T ) f (1.4)

o` la fonction sinc(x) = sin(x)/(x) sappelle la fonction sinus-cardinal (car elle sannule pour les valeurs u enti`res de la variable). e Le tableau ci-dessous donne les principales proprits de la transformation de Fourier. ee Proprits ee Similitude Linarit e e Translation Modulation Convolution Produit Drivations e Parit, conjugaison e x(t) x(at) x (t) ax(t) + by(t) x(t t0 ) x(t) exp(2jf t0 ) x(t) y(t) x(t)y(t) n d x(t)/dtn (2jt)n x(t) relle paire e relle impaire e imaginaire paire imaginaire impaire complexe paire complexe impaire relle e X(f ) X (f ) aX(f ) + bY (f ) X(f ) exp(2jf0 t) X(f f0 ) X(f )Y (f ) X(f ) Y (f ) (2jf )n X(f ) dn X(f )/df n relle paire e imaginaire impaire imaginaire paire relle impaire e complexe paire complexe impaire X(f ) = X (f ) Re(X(f )), |X(f )| paires Im(X(f )), arg(X(f )) impaires
1 |a| X(f /|a|)

Formule de Parseval En utilisant la proprit de convolution des transformes de Fourier, on obtient : ee e


+ +

x(t)y (t)dt =

X(f )Y (f )df

Filtrage linaire e Soit le signal x(t) dnergie nie et h(t) une fonction de module sommable ( e
+ + R

|h(t)|dt < +). Le signal : (1.5)

y(t) =

x(u)h(t u)du =

x(t u)h(u)du

7 dnit lopration dite de convolution qui est note de faon plus concise y(t) = x(t) h(t). Le syst`me, e e e c e qui associe au signal dentre x(t) le signal de sortie y(t), sappelle un ltre linaire et la fonction h(t), qui e e caractrise le ltre, sappelle sa rponse impulsionnelle. La condition R |h(t)|dt < + est quivalente a la e e e ` proprit dite de stabilit qui assure qu` toute entre borne correspond une sortie borne. Pour obtenir ee e a e e e lquation de ltrage dans le domaine des frquences, il sut de se rappeler que la transforme de Fourier e e e dun produit de convolution est un produit simple. Par consquent lexpression 1.5 donne en passant aux e transformes de Fourier : e Y (f ) = H(f )X(f ) Dans ce contexte H(f ) sappelle le gain complexe du ltre. Par linarit, si le signal a lentre est un mlange harmonique de la forme x(t) = k=1 k e2jfk t o` e e ` e e u k est une suite de valeurs complexes et fk une suite de frquences relles, la sortie a pour expression e e y(t) = P k F (e2jfk t ) o` F dsigne lopration de ltrage. Il sut donc de dterminer lexpression de la u e e e k=1 sortie lorsque lentre est de la forme x(t) = e2jf0 t . Notons que, dans ce cas, x(t) nest pas dnergie nie. e e Toutefois en portant x(t) = exp(2jf0 t) dans 1.5, on obtient comme expression pour le signal en sortie :
+ P

y(t) =

e2jf0 (tu) h(u)du = H(f0 )e2jf0 t

Une autre faon dcrire est F (e2jfk t ) = H(f0 )e2jfk t . On dit que les exponentielles complexes e2jf0 t sont c e les fonctions propres des ltres linaires. e

1.2

Echantillonnage

Lchantillonnage est une opration qui consiste a prlever sur un signal a temps continu une suite de e e ` e ` valeurs, prises en une suite dinstants tn , n Z. Dans la suite nous nenvisagerons que lchantillonnage e dit rgulier o` tn = nT . Lintrt port aux probl`mes de lchantillonnage tient dans le dveloppement e u e e e e e e des techniques numriques de traitement du signal. La question fondamentale est de savoir sil est possible e de reconstruire x(t) a partir des chantillons x(nT ). A premi`re vue il existe une innit de fonctions qui ` e e e passent par les valeurs x(nT ) aux instants nT . Toutefois le thor`me dchantillonnage montre que, pour les e e e signaux a bande limite, la reconstruction est possible. ` e

1.2.1

Cas des signaux passe-bas

Thor`me 1.1 (Formule de Poisson) Soit x(t) un signal de module intgrable (x(t) L1 (R)) et dont la e e e transforme de Fourier X(f ) est elle-mme de module intgrable. On a alors pour tout T > 0 : e e e
+ n=

X(f

n )=T T

x(kT )e2jkf T
k=

(1.6)

En eet le premier membre de 2.41 est une fonction de f de priode 1/T . Elle est donc dveloppable en srie e e e de Fourier sous la forme k Xk e2jkf T , o` Xk est donn par : u e
1/2T

Xk = T
1/2T

n X(f ) e2jkf T df = T T n=

+ n=

1/2T 1/2T

X(f

n 2jkf T )e df T

En faisant le changement de variable u = f n/T , il vient :


+ 1/2T n/T 1/2T n/T

Xk = T
n=

X(u)e2jkuT df = T

X(u)e2jkuT df = T x(kT )

qui est le rsultat annonc. e e Thor`me 1.2 (Thor`me dchantillonnage) Soit un signal rel x(t) de module intgrable (x(t) e e e e e e e L1 (R)), a bande limite B (X(f ) = 0 pour |f | > B) et soit Fe = 1/T une frquence dchantillonnage. On ` e e e suppose que Z |x(nT )| < +.

Chapitre 1

e e ` e Si Fe 2B, x(t) peut tre reconstruit de mani`re unique a partir de la suite dchantillons x(nT ), suivant la formule dite dinterpolation :
+

x(t) =
n=

x(nT )h(t nT )

(1.7)

o` u

sin(2Bt) (1.8) Fe t Si Fe < 2B, la reconstruction est impossible. La frquence minimale 2B sappelle la frquence de Nyquist. e e h(t) = Cela signie que pour un signal qui a de lnergie dans les frquences leves et donc des variations rapides, il e e e e faut prendre une frquence dchantillonnage leve. En pratique ce rsultat est appliqu, de faon intuitive, e e e e e e c lors du relev dune courbe point par point : dans les parties a variations rapides (hautes frquences), on e ` e augmente la frquence dchantillonnage en prenant un plus grand nombre de points. e e Le probl`me de lchantillonnage, tel quil est pos ici, consiste a montrer que, pour une certaine classe e e e ` de signaux x(t), il est possible de faire co ncider x(t) avec :
+

x(t) =
n=

x(nT )h(t nT )

(1.9)

pour une certaine fonction h(t) a dterminer. La relation 1.9 est une quation de convolution semblable a ` e e ` celle rencontre dans le cas du ltrage linaire, sauf quici lentre est la suite x(nT ) a temps discret et la e e e ` sortie le signal x(t) a temps continu. ` An de comparer x(t) et x(t) nous allons passer en frquence. Pour cela notons H(f ) la transforme de e e Fourier de h(t). Alors h(t nT ) a pour transforme de Fourier H(f )e2jnf T . On en dduit que x(t) a pour e e transforme de Fourier : e
+

X(f ) =
n=

x(nT )H(f )e2jnf T

En sortant H(f ) du signe somme et en utilisant la formule de Poisson, on obtient : n 1 X(f ) X(f ) = H(f ) T T n= Cette expression fait dire que lopration dchantillonnage en temps a pour eet, en frquence, de priodiser e e e e le spectre du signal avec une priode gale a la frquence dchantillonnage Fe = 1/T . Il est a noter que le e e ` e e ` rsultat est vrai mme si X(f ) nest pas a bande limite. Toutefois quand X(f ) est a bande limite, il est e e ` e ` e possible de choisir H(f ) de faon a ce que cette expression co c ` ncide avec X(f ). Supposons que X(f ) = 0 pour |f | > B. Deux cas sont possibles : Fe = 1/T < 2B : il y a recouvrement des direntes courbes obtenues par priodisation de X(f ). On dit e e alors quil y a repliement de spectre (en anglais aliasing). Lorigine de ce terme sexplique de la faon c suivante : la partie de X(f n/T ) qui sajoute a X(f ) dans lintervalle (1/2T, 1/2T ) est la mme que ` e la partie de X(f ) qui se trouve au del` de n/T . Tout se passe comme si on empilait dans lintervalle a (1/2T, 1/2T ), apr`s repliement, les deux extrmits de X(f ). La consquence du repliement de spectre e e e e est limpossibilit de reconstruire X(f ) a partir de X(f ) et, par l` mme, x(t) a partir des chantillons e ` a e ` e x(nT ). Fe = 1/T 2B : en choisissant H(f ) = T rect2B (f ), il vient X(f ) = X(f ) et donc x(t) = x(t). La trans forme de Fourier inverse de H(f ) = T rect2B (f ) a pour expression h(t) = T sin(2Bt)/t. En portant e dans 1.9, on obtient la formule dinterpolation : x(t) =
n +

x(nT )

sin(2B(t nT )) Fe (t nT )

La formule dinterpolation montre que le signal rel x(t) est reconstruit de faon unique a partir de la e c ` suite de ses chantillons x(nT ). Mais cette opration nest pas causale puisque la reconstruction de x(t) e e au temps t, ncessite de conna e tre la suite x(nT ) au del` de t. Toutefois comme la fonction h(t) dcro a e t rapidement quand t tend vers , il est possible de raliser une bonne approximation causale, en acceptant e un retard ni. Cela revient a dire que x(t) est calcul, de faon approche, avec quelques chantillons situs ` e c e e e au del` de t. a

X (f) f B B
1 T 1 T 1 T

n= + n=

X( f n ) T

Fig. 1.1 Priodisation du spectre par chantillonnage e e

Cas des signaux complexes ` bande limite a e Pour un signal complexe dont le spectre est nul a lextrieur dune bande Bc , cest-`-dire X(f ) = 0 pour ` e a f Bc , le calcul de la transforme de Fourier de x(t) est en tout point identique a celui fait prcdemment. On e ` e e en dduit que la frquence minimale dchantillonnage, qui sobtient en exprimant simplement la condition e e e de non-repliement, a pour expression Fe = 1/T Bc . En fait on peut dire que, dans les cas rel et complexe, e la frquence de Nyquist est gale a la largeur du support en frquence de la transforme de Fourier de x(t). e e ` e e

1.2.2

Cas des signaux passe-bande

Considrons a prsent un signal rel x(t) dont la transforme de Fourier est nulle en dehors des deux e ` e e e intervalles de frquence dnis par : e e fm |f | fM Rappelons que puisque x(t) est rel, X(f ) poss`de la symtrie hermitienne. Lapplication brutale du e e e

X(f) f fm fM
Fig. 1.2 Spectre dun signal ` bande troite a e

thor`me dchantillonnage conduit a prendre comme frquence de Nyquist la valeur 2fM . Pourtant il est e e e ` e possible dchantillonner a une cadence bien plus faible, si lon met a prot le fait que le spectre est nul dans e ` ` lintervalle (fm , fm ). Cherchons les conditions sur Fe pour que le spectre, une fois priodis, soit constitu de bandes disjointes. e e e On voit graphiquement quil sut de choisir deux valeurs k et Fe , telles que la k-i`me et la (k + 1)-i`me e e translates de la partie de X(f ) dans les frquences ngatives ne recouvrent pas la partie de X(f ) dans les e e e

10

Chapitre 1

(k+1)Fe kFe fm fM f

Fig. 1.3 Priodisation du spectre pour un signal ` bande troite e a e

frquences positives. Ce qui scrit : e e fm + kFe fM + (k + 1)Fe < fm > fM

Par consquent Fe doit tre choisie dans des plages de valeurs de la forme : e e 2fM 2fm < Fe < k+1 k (1.10)

o` k est un entier tel que (2fM /k + 1) < 2fm /k, cest-`-dire k fm /(fM fm ). Plus la valeur choisie de u a k est grande, plus la plage de frquences possibles dchantillonnage est situe dans les frquences basses. e e e e Par consquent la plus petite frquence dchantillonnage qui assure le non repliement du spectre est donc e e e donne par 2fM /(k0 + 1) o` k0 est la partie enti`re de fm /(fM fm ). Les frquences Fe dchantillonnage e u e e e permises sont regroupes dans le tableau ci-desous. e k0 . . . k . . . 0 2fM /(k0 + 1) 2fM /(k + 1) 2fM Plage pour Fe Fe . . . Fe . . . Fe < 2fm /k0 2fm /k +

Remarquons que, plus la frquence dchantillonnage est choisie petite, plus la plage de frquences a laquelle e e e ` elle appartient est troite. e Formule dinterpolation Pour tablir la formule de reconstruction, le calcul est en tout point analogue a celui fait pour un signal e ` passe-bas. Mais il faut prendre, pour faire co ncider x(t) avec x(t), le ltre passe-bande rel, dni par : e e H(f ) = T (rectf (f f0 ) + rectf (f + f0 )) o` f = fM fm et f0 = (fM + fm )/2. Et donc h(t) = 2T cos(2f0 t) sin(f t)/t. Il sut alors dutiliser u lexpression x(t) = n x(nT )h(t nT ) pour obtenir la formule dinterpolation.

1.2.3

Cas des signaux passe-bas de bande innie

En pratique, lorsque la frquence dchantillonnage est impose, le phnom`ne de repliement de spectre e e e e e ne peut tre vit. Il y a donc perte dinformation sur le signal a chantillonner. Le probl`me est de limiter e e e `e e autant que possible cette perte. Pour cela on choisit de ltrer pralablement le signal avant lopration e e dchantillonnage proprement dite, suivant le schma reprsent gure 1.4. e e e e A priori le signal x2 (t) reconstruit doit contenir toutes les frquences compatibles avec la condition de e non-repliement a la frquence dchantillonnage Fe = 1/T : il faut donc supposer que la bande B = Fe /2. ` e e Dans ce cas le ltre H(f ) a pour gain complexe H(f ) = T rectFe (f ).

11

x(t)

G(f )

x 1 (t) nT

x 1 (nT )

H(f )

x 2 (t)

Fig. 1.4 Prltrage du signal avant chantillonnage e e

An de dterminer au mieux le ltre G(f ), nous allons minimiser lcart quadratique : e e


+

2 =

|x(t) x2 (t)|2 dt

entre le signal original x(t) et le signal x2 (t) obtenu a partir des chantillons x1 (nT ). Avec des notations ` e videntes, en utilisant la formule de Parseval, on a encore : e 2 =
+

|X(f ) X2 (f )|2 df 1 T

Dterminons lexpression de X2 (f ). Il vient en utilisant la formule de Poisson : e X2 (f ) =


n

x1 (nT )H(f )e2jnf T =

X1 (f n/T )H(f )

Comme H(f ) = T rectFe (f ) et que X1 (f ) = X(f )G(f ), on en dduit que : e X2 (f ) = rectFe (f )


n

X(f n/T )G(f n/T ) |X(f )|2 df

(1.11)

et donc que : 2 =
|f |<Fe /2

|X(f ) X2 (f )|2 df +

(1.12)

|f |>Fe /2

Comme tous les termes sont positifs et que le second terme du membre droit de lquation (1.11) ne dpend e e pas du choix de G(f ), le minimum est obtenu en prenant G(f ) = rectFe (f ) : en eet, dans ce cas et dapr`s e 1.11, X2 (f ) = X(f )rectFe (f ), ce qui annule compl`tement le premier terme de lquation (1.11). e e Ce rsultat est important, puisquil indique que lon doit faire prcder lopration dchantillonnage dun e e e e e ltrage passe-bas idal dans la bande (Fe /2, Fe /2), appel ltrage anti-repliement. Evidemment il y a perte e e dinformation et ce que lon peut reconstruire, au mieux, est le signal x1 (t). Ce qui est hors de la bande (Fe /2, Fe /2) est perdu. Exemple 1.2 (Signal MIC en tlphonie numrique) le signal tlphonique est ehantillonn a la ee e ee c e ` frquence de 8000 chantillons/s. Pour viter le repliement, on eectue un ltrage du signal dans la bande e e e (0 3400Hz) lg`rement plus troite que le minimum requis de 4000Hz. Chaque chantillon est ensuite e e e e cod sur 8 bits. On obtient ainsi un dbit de 64kbits/s. Cette suite est dsigne par le terme de MIC (pour e e e e Modulation par Impulsion et Codage).

1.2.4

Reconstruction pratique

La conversion du signal analogique a partir de la suite numrique ncessite une bonne approximation ` e e causale dun ltre passe-bas idal. En pratique la faon la plus simple de procder consiste a partir dun e c e ` bloqueur dordre 0, qui bloque pendant toute la dure T entre deux chantillons la valeur numrique applique e e e e a lentre. Le signal obtenu en sortie du bloqueur dordre 0 a donc pour expression : ` e x0 (t) =
n

x(nT )h0 (t nT )

o` h0 (t) = rect(t T /2). Le signal x0 (t) est un signal en escalier dont les marches ont pour amplitude u x((n + 1)T ) x(nT ). En prenant la transforme de Fourier de x0 (t) et en utilisant la formule de Poisson, on e obtient : sin(f T ) jf T X0 (f ) = H0 (f )X(f n/T ) o` H0 (f ) = u e f n En observant |X0 (f )| reprsent a la gure 1.6, on voit appara 2 formes de distorsion entre le signal e e` tre de dpart x(t) et le signal x0 (t) en sortie du bloqueur dordre 0. e

12

Chapitre 1

t
Fig. 1.5 Reconstruction par bloqueur dordre 0

sin(fT) fT

f
1 T
Fig. 1.6 Spectre en sortie du bloqueur dordre 0

1. distorsion dans la bande utile (1/2T, 1/2T ) du signal. Un rem`de est de raliser avant chantillonnage e e e une compensation par le ltre de gain f T / sin(f T ). 2. distorsion hors de la bande utile (1/2T, 1/2T ). Cette distorsion peut tre gnante : ainsi, en acouse e tique, si elle se trouve dans la bande audible, il faut alors utiliser un ltre passe-bas de frquence de e coupure B. Le calcul prcdent montre que les lobes de la fonction en sinus-cardinal ont pour largeur 1/T o` T reprsente e e u e la dure de la fonction de reconstruction du bloqueur mais aussi la priode dchantillonnage du signal. Do` e e e u lide de faire prcder le bloqueur dune opration dinterpolation. Cette opration est possible puisque le e e e e e signal vrie les conditions du thor`me dchantillonnage. Dans ce cas lnergie hors de la bande utile est e e e e e situe essentiellement autour de la frquence 1/T . Ainsi en audio, en choisissant le facteur dinterpolation e e susamment grand, la bande de frquence autour de 1/T peut mme tre hors de la bande audible et lcoute e e e e ne ncessite alors aucun ltre supplmentaire en sortie du bloqueur. e e

1.3

Reprsentation en enveloppe complexe ou reprsentation en e e phase et quadrature


x(t) = p(t) cos(2fp t) q(t) sin(2fp t) (1.13)

Dans ce chapitre nous nous intressons a des signaux rels de la forme : e ` e

Comme nous le verrons ces signaux interviennent couramment dans les syst`mes de communication. Dans e ce contexte les signaux p(t) et q(t) dpendent du message a transmettre et la frquence fp est dite frquence e ` e e porteuse. Dans le cas o` fp B, o` B dsigne la bande en frquence de p(t) et q(t), le signal x(t) peut tre u u e e e vu comme une sinuso de de frquence fp , dont lamplitude et la phase varient lentement et son spectre est e alors a bande troite autour de fp . ` e Pour de tels signaux, il est dusage dutiliser la reprsentation dite en enveloppe complexe dont la justicae tion est contenue dans la remarque suivante : le signal x(t) tant rel, la partie du spectre dans les frquences e e e ngatives se dduit (par symtrie hermitienne) de la partie du spectre dans les frquences positives. On peut e e e e donc, de faon bijective, associer a x(t) un signal complexe xb (t) dont le spectre sobtient en translatant de c ` (f0 ) la partie du spectre de x(t) situe dans les frquences positives. A priori la frquence f0 peut tre e e e e choisie arbitrairement. Cependant pour les signaux donns par lexpression (1.13), il est souvent pratique e

13 e e de prendre f0 = fp . Le processus complexe xb (t) = px (t) + jqx (t), associ au signal rel x(t), sappelle son enveloppe complexe par rapport a f0 . Elle est un outil essentiel pour dcrire, en communication, une ` e opration de modulation. e Remarquons ici que la reprsentation en enveloppe complexe ne ncessite pas que le signal soit a bande e e ` troite. Elle est seulement lie au fait que le signal est rel et centr. e e e e

1.3.1

Enveloppe complexe dun signal

Pour dnir lenveloppe complexe il est ncessaire dintroduire au pralable la notion de signal analytique. e e e

Dnition 1.1 On appelle signal analytique associ au signal x(t) rel, centr, le signal complexe zx (t) e e e e obtenu a partir de x(t) par un ltrage linaire de gain complexe 2 1(0,+) (f ). ` e Proprits 1.1 Le signal analytique z(t) associ a x(t) vrie : e e e` e x(t) = R {zx (t)} e (1.14)

En eet, soit x(t) un signal dterministe, rel, appliqu a lentre du ltre de gain complexe 2 1(0,+) (f ) et e e e` e zx (t) le signal en sortie. On note X(f ) et Zx (f ) leurs transformes de Fourier respectives. Dapr`s la relation e e de ltrage, exprime en frquence, Zx (f ) = 2 1(0,+) (f )X(f ). e e

x(t)

G( f )

zx(t)

Fig. 1.7 Filtrage analytique : gain G(f ) = 2 1pf (0, +)


1 Dterminons la transforme de Fourier de R {zx (t)} = (zx (t) + zx (t))/2. Il vient 2 (Zx (f ) + Zx (f )) = e e e 1(0,+) (f )X(f ) + 1(0,+) (f )X (f ) = X(f ), o` on a utilis que le signal x(t) est rel et donc que u e e X(f ) = X (f ). Par consquent R {zx (t)} = x(t). Le signal complexe en sortie du ltre analytique a donc e e comme partie relle le signal dentre. e e On montre de la mme faon que la transforme de Fourier de la partie imaginaire de zx (t) a pour e c e expression jsigne(f )X(f ). On dit alors que Imag (zx (t)) est la transforme de Hilbert du signal x(t). Nous e la notons x(t). On note que, si Zx (f ) est nul pour les frquences ngatives, alors Zx (f ) = Zx (f )1(0,+) (f ) et les parties e e relle et imaginaire de zx (t) forment une paire de transformes de Hilbert. On en dduit une r`gle simple e e e e pour dterminer le signal analytique associ a un signal rel x(t) : si x(t) est tel que x(t) = R {zx (t)} et tel e e` e e que Zx (f ) = 0 pour f < 0, alors zx (t) est le signal analytique associ a s(t). e`

Dnition 1.2 On appelle enveloppe complexe par rapport a la frquence f0 du signal x(t) rel, le signal : e ` e e xb (t) = zx (t) exp(2jf0 t) o` zx (t) dsigne le signal analytique associ a x(t). Si on note Xb (f ) et Zx (f ) les transformes de Fourier u e e` e respectivement de xb (t) et de zx (t), on a Xb (f ) = Zx (f + f0 ) = 2X + (f + f0 ) o` X + (f ) dsigne la partie de X(f ) situe dans les frquences positives. u e e e Lexpression 1.15 fournit une r`gle simple de construction de la transforme de Fourier de lenveloppe come e plexe a partir de la transforme de Fourier du signal. Inversement partant de la transforme de Fourier ` e e de lenveloppe complexe, on dduit la transforme de Fourier du signal rel (1) en translatant de +f0 la e e e transforme de Fourier de lenveloppe complexe, (2) en compltant par symtrie hermitienne autour de f0 e e e et (3) en divisant par 2. Proprits 1.2 Lenveloppe complexe xb (t) de x(t) par rapport a la frquence f0 vrie : e e ` e e x(t) = R {xb (t) exp(2jf0 t)} e (1.16) (1.15)

14 Il sut dappliquer la proprit 1.14. ee

Chapitre 1

Dnition 1.3 Pour un signal rel, on appelle respectivement composante en phase et composante quadrae e ture (sous-entendu par rapport a la frquence f0 ), les parties relle et imaginaire de son enveloppe complexe ` e e par rapport a la frquence f0 . ` e En notant xb (t) = px (t) + jqx (t) et en utilisant lexpression 1.16, il vient : x(t) = px (t) cos(2f0 t) qx (t) sin(2f0 t)

Proprits 1.3 En notant Px (f ) et Qx (f ) les transformes de Fourier respectives de px (t) et de qx (t), on e e e a : Px (f ) = 1 (Xb (f ) + Xb (f )) = X + (f + f0 ) + X (f f0 ) 2 1 jQx (f ) = (Xb (f ) Xb (f )) = X + (f + f0 ) X (f f0 ) 2 (1.17) (1.18)

o` Xb (f ) = Zx (f + f0 ) avec Zx (f ) = 21(0,+) (f )X(f ). et o` X + (f ) et X (f ) dsignent les parties de X(f ) u u e situes respectivement dans les frquences positives et ngatives. e e e Pour montrer cette proprit, il sut de noter que 2px (t) = xb (t) + x (t) et que 2jqx (t) = xb (t) x (t) et ee b b deectuer les transformations de Fourier des deux membres (on rappelle que la transforme de Fourier de e g (t) est G (f )). On en dduit (voir gure 1.8) une construction graphique simple des transformes de Fourier des compoe e santes en phase et quadrature par rapport a f0 : (1) on translate de (+f0 ) la partie de X(f ) situes dans les ` e frquences ngatives, (2) on translate de (f0 ) la partie de X(f ) situes dans les frquences positives, puis e e e e on eectue la somme pour obtenir Px (f ) et la dirence pour obtenir Qx (f ) (notons ici que la somme et la e dirence portent sur des fonctions complexes). e
Px (f) X (f)

X (f)

f0

Fig. 1.8 Construction du spectre de la composante en phase.

Dnition 1.4 Pour un signal rel, on appelle respectivement enveloppe et phase instantane (sous-entendu e e e par rapport a la frquence f0 ), le module et la phase de son enveloppe complexe par rapport a la frquence ` e ` e f0 . On appelle frquence instantane : e e 1 dx (t) fi (t) = 2 dt En notant xb (t) = ax (t)ejx (t) et en utilisant lexpression 1.16, il vient : x(t) = ax (t) cos(2f0 t + x (t)) (1.19)

On note que lexpression de lenveloppe complexe dpend du choix de f0 . Toutefois quand il ny aura pas e dambigu e, nous parlerons de lenveloppe complexe dun signal, sans indiquer explicitement f0 . Par contre t lenveloppe ax (t) = |xb (t)|, qui est aussi gale au module |zx (t)| du signal analytique, ne dpend pas du choix e e de f0 . Notons enn que les transformes de Fourier de ax (t) et de x (t) ne sexpriment pas simplement a e ` partir de X(f ), du fait du caract`re non linaire qui lie ax (t) et x (t) a x(t). Toutefois en r`gle gnrale e e ` e e e si x(t) est a bande troite, ax (t) et x (t) sont eux-mme a bande troite (par rapport a f0 ). Dans ce cas ` e e ` e ` la relation 1.19 permet dinterprter x(t) comme une sinuso e de de frquence f0 dont lamplitude et la e phase sont lentement variables. De l` le nom de signal quasi-monochromatique quils portent aussi dans a

15 la littrature. e Deux traitements jouent un rle important en communication : le ltrage et la dmodulation synchrone. o e Voyons a prsent comment ces traitements peuvent tre faits au moyen des enveloppes complexes : on dit ` e e que le calcul est fait en en bande de base.

1.3.2

Filtrage quivalent en bande de base e

Soit le signal rel x(t) dont le spectre est nul hors dune bande B autour de f0 . On suppose que f0 > B. e On note xb (t) lenveloppe complexe de x(t) par rapport a f0 . Le signal x(t) est ltr par un ltre rel dont ` e e le gain H(f ) est suppos, sans perte de gnralits, nul hors de la bande de x(t). On note y(t) le signal en e e e e sortie. On montre aisment que y(t) a pour enveloppe complexe par rapport a f0 : e ` yb (t) = xb (t) hb (t) Yb (f ) = Xb (f ) Hb (f ) o` u Hb (f ) = H + (f + f0 ) (1.20) Le ltre de gain Hb (f ) est appel le ltre quivalent en bande de base. Attention contrairement a la formule e e ` 1.15, il ny a pas ici le facteur 2. Le ltre quivalent en bande de base sobtient en translatant de f0 la partie e de H(f ) situe dans les frquences positives. Pour obtenir la rponse impulsionnelle il sut, si besoin est, de e e e prendre la transforme de Fourier inverse. Evidemment le ltre quivalent en bande de base na aucune raison e e davoir une rponse impulsionnelle relle. En pratique on fait tout les calculs sur les enveloppes complexes a e e ` partir des ltres quivalents en bande de base. Si on veut revenir au signal y(t) il sut alorsdcrire : e e y(t) = R yb (t)e2jf0 t e

1.3.3

Dmodulation synchrone e

Considrons le schma reprsent gure 1.9. Les signaux x(t) et y(t) ont des spectres nuls en dehors dune e e e e bande de largeur de frquence B localise autour de f0 . Le signal x(t) y(t) est ltr par un ltre passe-bas e e e de largeur B qui limine les composantes autour de la frquence 2f0 . En pratique, si B f0 , cette opration e e e de ltrage est simple. On note xb (t) et yb (t) les enveloppes complexes respectives de x(t) et y(t) par rapport a f0 . On peut alors crire : ` e 2x(t)y(t) = = 2(px (t) cos(2f0 t) qx (t) sin(2f0 t))

(py (t) cos(2f0 t) qy (t) sin(2f0 t)) px (t)py (t) + qx (t)qy (t) + 2f0

o` le terme not 2f0 indique toutes les composantes, telles que px (t)py (t) cos(4f0 t), situes autour de la u e e frquence 2f0 . Notons ici que les signaux de la forme px (t)py (t) sont de bande 2B. En eet la transforme e e de Fourier de px (t)py (t) a pour expression Px (f ) Py (f ) et la convolution entre deux fonctions a supports ` borns a pour support la somme des supports. e En supposant a prsent que le ltre passe-bas annule ou, pour le moins, rende ngligeables les composantes ` e e de 2x(t)y(t) autour de la frquence 2f0 , il sen suit que le signal en sortie a pour expression : e s(t) = 1 R {xb (t)yb (t)} e 2 (1.21)

x(t)

s(t)

y(t)

Fig. 1.9 Dtecteur comparateur. e

Appliquons ce rsultat aux cas suivants : e

16

Chapitre 1

e e Dtection synchrone : Si y(t) = 2 cos(2f0 t) alors yb (t) = 2 et par consquent s(t) = px (t). De mme e en prenant y(t) = 2 sin(2f0 t) on obtient s(t) = qx (t). Nous avons reprsent gure 1.10 le schma e e e dun dtecteur synchrone. Il rcup`re sur la voie dite en phase, associe a cos(2f0 t), la partie relle de e e e e ` e lenveloppe complexe par rapport a f0 et sur la voie dite en quadrature, associe a sin(2f0 t), la partie ` e ` imaginaire de lenveloppe complexe par rapport a f0 . Il est a la base des dispositifs de rception en ` ` e communications numriques sur frquence porteuse. Comme le montre litem suivant, il est important e e que les deux oscillateurs soient respectivement en phase et en quadrature avec f0 .
px(t) x(t) 2 cos(2f0 t) qx(t) 2 sin(2f0 t)

Fig. 1.10 Dtecteur synchrone. La voie o` loscillateur local est 2 cos(2f0 t) sape u pelle la voie en phase et celle o` loscillateur local est 2 sin(2f0 t) sappelle la voie u en quadrature. Dtection dsynchronise : supposons que, sur la voie en phase, on ait y(t) = 2 cos(2f0 t + ) au lieu e e e de y(t) = 2 cos(2f0 t). On a alors yb (t) = 2 exp(j) et donc : s(t) = px (t) cos() + qx (t) sin() (1.22)

Le signal sur la voie dite en phase contient une part non ngligeable de la composante en quadrature : e on dit quil y a diaphonie. Comparateur de phase : x(t) = Ax cos(2f0 t + x (t)) et y(t) = Ay sin(2f0 t + y (t)) auxquels correspondent respectivement xb (t) = Ax exp(jx (t)) et yb (t) = jAy exp(jy (t)). Par consquent on a : e s(t) = 1 Ax Ay sin(y (t) x (t)) 2

1.3.4

Enveloppe complexe dun processus alatoire du second ordre e

Processus alatoire stationnaire au second ordre e Un processus alatoire x(t) est dit stationnaire au second ordre si sa moyenne mx = E {x(t)} et sa fonction e dautocovariance Rxx ( ) = E {(x(t + ) mx )(x(t) mx )} sont indpendantes de t. Sa densit spectrale de e e puissance Sxx (f ) est la transforme de Fourier de Rxx ( ), ce qui scrit : e e Rxx ( ) =
R

Sxx (f )e2jf df

On montre que Sxx (f ) est positive. On rappelle que la puissance est donne par E |x(t)|2 = R Sxx (f )df + e |mx |2 = Rxx (0) + |mx |2 . Si x(t) est mis a lentre dun ltre linaire stable de gain en frquence H(f ), alors la sortie y(t) est ` e e e un processus alatoire stationnaire au second ordre, de moyenne my = mx H(0) et de densit spectrale de e e puissance : Syy (f ) = |H(f )|2 Sxx (f ) Composantes en phase et quadrature dun processus stationnaire au second ordre Considrons un processus alatoire x(t) rel, centr, stationnaire au second ordre de d.s.p. Sxx (f ). Rape e e e pelons que Sxx (f ) est positive et paire. Choisissons arbitrairement une frquence f0 . Si la d.s.p. de x(t) est e localise dans une bande B on prendra souvent pour f0 la frquence situe au milieu de la bande doccupae e e tion spectrale. Partant du signal analytique zx (t), obtenu par ltrage de x(t) par le ltre de gain complexe 21(0,+ (f ), puis de lenveloppe complexe xb (t) = zx (t)e2jf0 t , on a : x(t) = R {xb (t) exp(2jf0 t)} e

17 En posant xb (t) = p(t) + jq(t), on obtient : x(t) = p(t) cos(2f0 t) q(t) sin(2f0 t) Alors les processus xb (t), p(t) et q(t) ont les proprits suivantes : ee 1. xb (t) est un processus alatoire (complexe) stationnaire au second ordre appel enveloppe complexe de e e x(t) (sous-entendu par rapport a la frquence f0 ). xb (t) est centr et vrie, pour tout couple dinstants ` e e e (t1 , t2 ) : E {xb (t1 )xb (t2 )} = 0 (1.23) 2. p(t) et q(t) sont deux processus alatoires, centrs, stationnaires au second ordre et dintercorrlation e e e stationnaire. Ils sont appels respectivement composante en phase et composante en quadrature de x(t) e (sous-entendu par rapport a la frquence f0 ). ` e 4. on note Rpq ( ) = E {p(t + )q(t)}. Alors pour tout , Rpq ( ) = Rpq ( ). On en dduit que, pour e tout t, E {p(t)q(t)} = 0. 6. xb (t) a comme d.s.p. :
+ Sxb (f ) = 4Sxx (f + f0 )

3. on note Rpp ( ) = E {p(t + )p(t)} et Rqq ( ) = E {q(t + )q(t)}. Alors pour tout , Rpp ( ) = Rqq ( ),

5. E x2 (t) = E p2 (t) = E q 2 (t) = 1 E |xb (t)|2 , 2

(1.24)

o` Sxx (f ) dsigne la partie de Sxx (f ) situes dans les frquences positives. On retiendra que lon passe u + e e e du spectre du signal a celui de son enveloppe complexe (1) en translatant de f0 la partie de Sxx (f ) ` situe dans les frquences positives et (2) en multipliant par 4. Inversement pour passer du spectre e e Sxb (f ) de lenveloppe complexe au spectre Sxx (f ) du signal, (1) on translate de +f0 la fonction positive Sxb (f ), (2) on compl`te par symtrie paire autour de f0 puis (3) on divise par 4, ce qui scrit : e e e Sxx (f ) = 1 (Sxb (f f0 ) + Sxb (f f0 )) 4 (1.25)

7. p(t) et q(t) ont la mme densit spectrale de puissance qui a pour expression : e e
+ Spp (f ) = Sqq (f ) = Sxx (f f0 ) + Sxx (f + f0 )

(1.26)

La construction sobtient graphiquement a partir de Sxx (f ) comme cela est reprsent gure1.11 : ` e e on translate de (+f0 ) la partie de Sxx (f ) situes dans les frquences ngatives, de (f0 ) la partie e e e de Sxx (f ) situes dans les frquences positives, puis on eectue la somme (notons ici que toutes ces e e fonctions sont non seulement relles mais positives). e
+ + S pp (f) = S qq (f)

S xx(f)

+ S xx (f)

f0

Fig. 1.11 Construction des d.s.p. des composantes en phase et en quadrature. 8. Si on note respectivement Spq (f ) et Sqp (f ) les transformes de Fourier de Rpq ( ) et de Rqp ( ), on a : e Spq (f ) = Sqp (f ) = 1 1 + (Sxb (f ) Sxb (f )) = S (f f0 ) Sxx (f + f0 ) 4j j xx (1.27)

Le procd graphique est le suivant : on translate de (+f0 ) la partie de Sxx (f ) situes dans les e e e frquences ngatives, de (f0 ) la partie de Sxx (f ) situes dans les frquences positives, puis on eectue e e e e la dirence et on divise par j. e 9. Dapr`s (1.27), si la partie de Sxx (f ) situe dans les frquences positives est symtrique autour de la e e e e frquence f0 alors pour tout couple (t1 , t2 ), E {p(t1 )q(t2 )} = 0, et donc p(t1 ) et q(t2 ) sont dcorrls e e ee pour tout couple dinstants t1 , t2 , 10. Si x(t) est gaussien, p(t) et q(t) sont gaussiens (rappelons que, dans le cas gaussien, la dcorrlation e e entra aussi lindpendance). ne e

18 11. Pour deux processus rels x(t) et y(t) : e E {x(t)y(t)} = 1 R {E {xb (t)yb (t)}} e 2

Chapitre 1

Il sut de poser v(t) = x(t) + y(t), de noter que vb (t) = xb (t) + yb (t) et dappliquer le point 5 a v(t). ` Remarque En gnral deux p.a. SSL ne sont pas les composantes en phase et quadrature dun p.a. SSL. e e Il faut en plus quils vrient lquation (1.23). Considrons, en eet, le processus x(t) = p(t) cos(2f0 t) e e e q(t) sin(2f0 t) o` p(t) et q(t) sont deux p.a. SSL, centrs et dintercovariance stationnaire. On a E {x(t)} = 0. u e Calculons la fonction dautocovariance de x(t). Il vient : E {x(t + )x(t)} = Rpp ( ) cos(2f0 (t + )) cos(2f0 t) + Rqq ( ) sin(2f0 (t + )) sin(2f0 t) Rpq ( ) cos(2f0 (t + )) sin(2f0 t) Rpq ( ) cos(2f0 t) sin(2f0 (t + )) Rpp ( ) + Rqq ( ) Rpp ( ) Rqq ( ) cos(2f0 ) + cos(2f0 (2t + )) = 2 2 Rpq ( ) Rpq ( ) Rpq ( ) + Rpq ( ) sin(2f0 ) + sin(2f0 (2t + )) + 2 2 Pour que x(t) soit stationnaire, a savoir E {x(t + )x(t)} indpendant de t, il faut et il sut que p(t) et q(t) ` e vrient a la fois Rpp ( ) Rqq ( ) = 0 et Rpq ( ) + Rpq ( ) = 0. Si on pose xb (t) = p(t) + jq(t), ces deux e ` conditions sont quivalentes a lunique condition suivante portant sur xb (t) : e ` E {xb (t + )xb (t)} = E {(p(t + ) + jq(t + ))(p(t) + jq(t))} = 0

Exemple 1.3 (Composantes dun bruit blanc rectangulaire) On consid`re un ltre rel passe-bande e e idal, de gain en frquence H(f ) = 1 dans les bandes de largeur B centres autour de f0 et de f0 . Le signal e e e a lentre est un bruit blanc, centr, de densit spectrale de puissance N0 /2. On note b(t) le signal en sortie ` e e e et p(t) et q(t) ses composantes en phase et quadrature. 1. Dterminer lexpression de la densit spectrale de puissance de b(t). e e 2. On note respectivement p(t), q(t) et xb (t) = p(t) + jq(t) la composante en phase, la composante en quadrature et lenveloppe complexe de b(t) par rapport a f0 . Dterminer les expressions des densits ` e e spectrales de puissance et des puissances de p(t), q(t) et xb (t) . 3. Mme question en considrant les composantes en phase et en quadrature de b(t) par rapport a f1 = e e ` f0 B. Rponse : e 1. La densit spectrale de puissance de b(t) a pour expression : e Sbb (f ) = N0 N0 |H(f )|2 = 2 2 si f0 B/2 < |f | < f0 + B/2

2. Dapr`s les rsultats de la section 1.3.4, les composantes en phase et quadrature par rapport a f0 ont e e ` donc pour densit spectrale : e Spp (f ) = Sqq (f ) = N0 1(f (B/2, B/2)) On en dduit que E p2 (t) = E q 2 (t) = N0 B. e Pour lenveloppe complexe xb (t) = p(t) + jq(t) on a, dapr`s la proprit 9 de la section 1.3.4, e ee E {xb (t + )x (t)} = E {p(t + )p(t)} + E {q(t + )q(t)} o` on a utilis que p(t2 ) et q(t2 ) sont non u e corrles. On en dduit que : ee e Sxb (f ) = 2N0 1(f (B/2, B/2)) et que E |xb (t)|2 = 2N0 B.

19 e 3. Les composantes en phase et quadrature de b(t) par rapport a (f0 B/2) ont pour densit spectrale : ` Spp (f ) = Sqq (f ) = N0 1(f (B, B)) 2

et on a E p2 (t) = E q 2 (t) = N0 B. Pour lenveloppe complexe xb (t) = p(t) + jq(t), on note tout dabord que la puissance est donne par E |xb (t)|2 = E {(p(t) + jq(t))(p(t) jq(t))} = 2N0 B + 0 + 0 e car p(t) et q(t) ne sont pas corrles. Lexpression de la densit spectrale de puissance de xb (t) est ee e donne par (1.27) : e Spq (f ) = Sqp (f ) = 1 (1(f (B, 0)) 1(f (0, B)) j

On remarque que p(t1 ) et q(t2 ) sont a prsent corrls pour t1 = t2 . Lexpression du spectre de ` e ee ` xb (t) = p(t) + jq(t) sobtient a partir de lexpression (1.24) qui donne : Sxb (f ) = 2N0 1(f (0, B)) On en dduit que E |xb (t)|2 = 2N0 B. e

1.4
1.4.1

Elments de dcision statistique e e


Position du probl`me e

Dans un probl`me de dcision statistique, lobservation Y est modlise par une variable alatoire, a e e e e e ` valeurs dans un espace Y, typiquement RK , CK , {0, 1}K . Les M tats possibles, sur lesquels portent la e dcision, sont modliss par une variable alatoire X a valeurs dans un ensemble X = {x1 , x2 , , xM } de e e e e ` cardinalit nie M . On suppose que la loi de probabilit de X est connue. Typiquement si X est uniforme e e sur X alors on a, pour tout x X , P {X = x} = 1/M . On suppose enn que la loi de probabilit de e Y conditionnellement a X est connue. Si la loi de Y est discr`te, elle est caractrise par la donne des ` e e e e probabilits de la forme P {Y = y|X = x} quand y dcrit Y. Dans le cas contraire, nous supposerons que la e e loi de Y poss`de une densit de probabilit que nous notons pY |X=x (y). e e e A partir de lobservation Y , on veut infrer sur la valeur de X. On ne conna pas X mais, en revanche, e t on conna sa distribution de probabilit pour toute valeur de Y . On peut donc utiliser cette connaissance t e pour construire une bonne fonction de dcision. On appelle fonction de dcision une application de Y dans e e X de la forme : g : y Y xm X = {x1 , x2 , , xM } La donne de cette fonction est quivalente a la donne dune partition de lensemble Y en M domaines e e ` e {1 , , M } tels que pour y m alors g(y) = xm . Dans le contexte de la dcision statistique, le singleton e {xm } est appel une hypoth`se et le probl`me ainsi pos est aussi appel un test dhypoth`ses. e e e e e e La dtermination de la fonction g ou ce qui est quivalent de la M -partition de Y se fait en optimisant un e e crit`re pertinent pour le probl`me considr. Dans le cas de la rception optimale dun signal numrique en e e e e e e prsence de bruit, le crit`re choisi est la maximisation de la probabilit de dcision correcte dont lexpression e e e e est :
M

Pc =
m=1

P {X = xm } P {m |X = xm }
Pc|m

(1.28)

De faon quivalente on peut minimiser la probabilit derreur Pe = 1 Pc qui scrit : c e e e


M

Pe =
m=1

P {X = xm } P m |X = xm

(1.29)

o` m dsigne lensemble complmentaire de m dans le domaine dobservation Y. Si la loi de probabilit u e e e de Y est discr`te, on a : e Pc|m = P {Y m |X = xm } = P {Y = y|X = xm }

ym

20 qui donne :
M

Chapitre 1

Pc =
m=1 ym

P {X = xm } P {Y = y|X = xm }

Si la loi poss`de une densit de probabilit, on a : e e e Pc|m = P {Y m |X = xm } = qui donne :


M

pY |X=xm (y)dy

Pc =
m=1 m

P {X = xm } pY |X=xm (y)dy

Dans les deux cas, la maximisation de Pc est simple : il sut de mettre dans la rgion m les points y Y qui e maximisent lintgrande. Explicitons la solution suivant que la loi de Y est discr`te ou poss`de une densit : e e e e 1. Si la loi de Y est discr`te, les rgions de dcision optimales sont donnes par : e e e e m = {y Y : P {X = xm } P {Y = y|X = xm }

> P {X = x } P {Y = y|X = x } = m}

(1.30)

Dans le cas particulier o` P {X = xm } = 1/M , on obtient comme r`gle de dcision la r`gle dite du u e e e maximum de vraisemblance o` les rgions de dcision ou rgions de vraisemblance maximale sont u e e e dnies par : e m = {y Y : P {Y = y|X = xm } > P {Y = y|X = x } = m} (1.31)

En fait la famille {m }, dcrite par (1.30) et (1.31), ne forme pas a proprement parler une partition e ` de Y. Pour avoir une partition, il sut de ranger les points dune fronti`re dans lune quelconque e des rgions adjacentes a la fronti`re. On vrie alors aisment que cela ne change pas la valeur de la e ` e e e probabilit Pc . e La r`gle de dcision peut encore scrire : e e e xm = arg max P {Y = y|X = xm }
xm X

(1.32)

2. Si la loi de Y poss`de une densit, les rgions de dcision sont donnes par : e e e e e m = {y Y : P {X = xm } pY |X=xm (y)

> P {X = } pY |X=x (y) = m}

(1.33)

Dans le cas o` P {X = xm } = 1/M , on obtient la r`gle dite du maximum de vraisemblance caractrise u e e e par les rgions de dcision : e e m = {y Y : pY |X=xm (y) > pY |X=x (y) = m} La r`gle de dcision peut encore scrire : e e e xm = arg max pY |X=xm (y)
xm X

(1.34)

(1.35)

21

1.4.2

Exemple de deux observations gaussiennes de dimension K

Le cas o` lobservation est conditionnellement gaussienne est fondamental : il reprsente, en communiu e cations, la situation o` le bruit sur le canal est AGB. u Commenons par le cas le plus simple o` la dimension de lobservation est K = 1. c u Exemple 1.4 (Test ` 2 hypoth`ses, observation gaussienne scalaire) On a Y = X + W o` X est a a e u ` valeurs dans {x1 , x2 } supposs quiprobables. Sans perte de gnralits, on peut poser que x2 > x1 . On peut e e e e e aussi poser le probl`me sous la forme du test a deux hypoth`ses suivant : e ` e H1 : Y = x1 + W H2 : Y = x2 + W o` x1 et x2 sont relles et o` W est une variable alatoire gaussienne, centre de variance 2 . On pose u e u e e = (x2 x1 )/2. 1. Ecrire la loi de Y conditionnellement aux deux hypoth`ses. e 2. En dduire la r`gle de dcision optimale. e e e

3. Dterminer en fonction de , lexpression de la probabilit derreur. e e Exemple (corrig) 1.4.1 e 1. De lhypoth`se dindpendance de X et W , on dduit que lobservation a e e e pour densit de probabilit conditionnellement a X : e e ` 1 (y x1 )2 sous H1 : pY |X=x1 (y) = exp 2 2 2 1 (y x2 )2 sous H2 : pY |X=x2 (y) = exp 2 2 2

x1

x2

Fig. 1.12 Densits de probabilit sous les deux hypoth`ses e e e 2. La rgion de dcision associe a lhypoth`se H1 et qui minimise la probabilit derreur, est donne par e e e ` e e e (1.34) qui scrit : e 1 = {y R : pY |X=x1 (y) pY |X=x2 (y)} En remplaant pY |X=x1 (y) et pY |X=x2 (y) par leurs expressions et en simpliant on obtient : c 1 = {y R : y (x1 + x2 )/2}, et 2 = R 1 Lorgane de dcision compare simplement lobservation au seuil s = (x1 + x2 )/2 : si Y < s, il dcide e e lhypoth`se H1 et sinon il dcide lhypoth`se H2 . e e e 3. Comme les deux hypoth`ses sont supposes de probabilit 1/2, la probabilit moyenne derreur est e e e e donne par : e Pe = 1 2 pY |X=x2 (y)dy + 1 2 pY |X=x1 (y)dy

Par raison de symtrie on a aussi : e


+

Pe =
s

1 (y x1 )2 exp 2 2 2

dy

22 En posant t = (y x1 )/, il vient :


+

Chapitre 1

Pe =
(x2 x1 )/2

t2 1 exp 2 2

dt = Q()

o` on a pos = (x2 x1 )/2 et : u e


+

Q(x) =
x

2 1 et /2 dt 2

(1.36)

On note que (x2 x1 ) reprsente la distance euclidienne entre les deux points reprsentatifs des deux e e hypoth`ses. e Nous avons reprsent gure 1.13 la forme de Q(x) en fonction de x exprim en dB (labscisse reprsente e e e e 20 log10 (x)). On voit que Q(x) est monotone dcroissante. Par consquent, dans lexemple 1.4, plus le terme e e est grand, plus le syst`me discriminera facilement les deux hypoth`ses. Ce rsultat, qui est tr`s gnral, e e e e e e est satisfaisant puisque sinterpr`te comme un rapport signal sur bruit. e
10
0

10

10

10

10

10

10 10

10

Fig. 1.13 Fonction Q(x) dnie par la formule (1.36). Labscisse exprime en dB e e
reprsente 20 log10 (x). e

Dans la littrature on utilise aussi, pour dterminer les probabilits derreur sur les canaux gaussiens, la e e e fonction :
+

erfc(x) =
x

2 2 et dt

(1.37)

Ces deux fonctions sont relies par : e Q(x) = 1 erfc 2 x 2 erfc(x) = 2Q(x 2) (1.38)

Pour x 1, la valeur approche suivante de Q(x) peut tre utile : e e Q(x) 1 x2 /2 e 2 (1.39)

M = 2 et K est quelconque On consid`re a prsent, le cas o` les 2 signaux sont de dimension K et o` les deux observations possibles e ` e u u sont gaussiennes. Ce calcul gnralise celui de lexemple 1.4. La densit de probabilit de la loi dobservation e e e e scrit pour m = 1, 2 : e pY |X=xm (y) = 1 1 exp 2 d2 (y, xm ) 2 E (2 2 )K/2 (1.40)

23 u On suppose que X prend, de faon quiprobable, soit la valeur x1 soit la valeur x2 , o` x1 et x2 appartiennent c e a RK . ` La rgion de vraisemblance maximale associe a lhypoth`se 1 est lensemble 1 = {y RK : dE (y, x1 ) e e ` e dE (y, x2 )} et celle associe a lhypoth`se 2 est 2 = RK 1 . Il sensuit que la fronti`re qui spare les deux e ` e e e rgions, est lhyperplan mdiateur du segment x1 x2 . e e R`gle de dcision e e La r`gle de dcision revient a trouver xm qui minimise dE (y, xm ). En utilisant lexpression (??), on e e ` obtient : d2 (y, xm ) = y E
2

+ xm

2 y, xm

Comme le premier terme ne dpend pas de m, il peut tre omis dans la comparaison et la r`gle de dcision e e e e se rduit a trouver xm qui maximise : e ` 1 L(y, xm ) = y, xm xm 2 (1.41) 2 Lexpression (1.41) montre que la r`gle de dcision optimale sexprime linairement en fonction de lobservae e e tion. Ce rsultat gnral est une consquence directe du caract`re gaussien du bruit additif. Le second terme e e e e e xm 2 reprsente lnergie du signal. Si les deux signaux sont dgale nergie, il peut alors tre omis dans la e e e e e comparaison. Expression de la probabilit derreur e Par raison de symtrie et du fait que les deux hypoth`ses sont quiprobables, la probabilit derreur e e e e scrit : e Pe =
2

pY |X=x1 (y)dy 1 1 exp 2 2 )K/2 2 (2


K

k=1

(yk x1,k )2

dy1 dyK

x1

x2

Fig. 1.14 Rgions de dcision pour K = 2. La mdiatrice du segment x1 x2 en trait e e e


plein est la sparatrice des deux rgions de vraisemblance maximale. Les cercles en e e pointill reprsentent les courbes dgales densits de probabilit. e e e e e

Eectuons le changement de variables qui consiste a rapporter lespace au rep`re, caractris par la droite ` e e e qui porte x1 x2 et par le hyperplan-mdiateur du segment x1 x2 (voir gure 1.14 o` nous avons reprsent le e u e e cas o` K = 2). Notons u la variable le long de x1 x2 . Apr`s simplication on peut crire : u e e
+

Pe

= =

P {U > 0|X = x1 } = Q dE (x1 , x2 ) 2

(u+d/2)2 1 e 22 du 2

(1.42)

24

Chapitre 1

o` la fonction Q(x) est donne par (1.36). Lexpression (1.42) montre que les performances dpendent du u e e rapport dE (x1 , x2 )/2 qui sinterpr`te comme un rapport signal sur bruit. Plus la distance euclidienne entre e les deux points x1 et x2 est grande par rapport a , plus faible est Pe . ` Dans le cas o` les deux signaux sont de mme nergie E = x1 2 = x2 2 , lexpression de la distance u e e est : d2 (x1 , x2 ) = 2E(1 cos()) = 4E sin2 (/2) E o` dsigne langle entre les deux vecteurs-signaux dni par : u e e cos() = On en dduit que : e Pe = Q E sin2 (/2) 2 (1.45) x1 , x2 x1 x2 (1.44) (1.43)

dont on tire pour des signaux orthogonaux , o` = /2 : u Pe = Q et pour des signaux antipodaux, o` = : u Pe = Q E 2 (1.47) E 2 2 (1.46)

Dans tous les cas, lnergie moyenne est E = 0.5( x1 2 + x2 2 ). On peut alors se demander quelle est la e disposition gomtrique qui minimise E pour une distance dE (x1 , x2 ) xe, cest-`-dire pour un niveau x e e e a e de la probabilit derreur, ce qui revient a rsoudre : e ` e
x1 x2

min 2

=constante

x1

+ x2

En notant que x1 2 + x2 2 = x1 x2 2 + 2 x1 , x2 , on dduit que le minimum est obtenu pour x1 = x2 . e On dit dans ce cas que les signaux sont antipodaux. Pour une mme probabilit derreur, il faut une nergie moyenne deux fois plus grande pour des signaux e e e orthogonaux que pour des signaux antipodaux. Cela correspond a une dirence de 3 dB en faveur des signaux ` e antipodaux. De faon gnrale, on peut mesurer lcart par rapport au cas des deux signaux antipodaux par c e e e la valeur : dB = 10 log10 (sin2 (/2)) (1.48)

1.4.3

Cas de M observations gaussiennes de dimension K

Les rsultats prcdents se gnralisent sans dicult a un test portant sur M signaux appartenant a un e e e e e e` ` espace de dimension K. La densit de probabilit de la loi dobservation scrit pour m = 1, , M : e e e pY |X=xm (y) = 1 1 exp 2 d2 (y, xm ) 2 )K/2 2 E (2 (1.49)

o` xm appartient a RK . u ` La rgion de vraisemblance maximale associe a lhypoth`se m est lensemble m = {y RK : e e ` e dE (y, xm ) dE (y, x ), = m}. Et donc les fronti`res qui sparent les rgions sont construites a partir e e e ` des plans-mdiateur des segments xm x . e La r`gle de dcision revient a trouver xm qui minimise dE (y, xm ). En utilisant lexpression (??), on e e ` obtient : d2 (y, xm ) = y E
2

+ xm

2 y, xm

25 Comme le premier terme ne dpend pas de m, il peut tre omis dans la comparaison et la r`gle de dcision e e e e se rduit a trouver xm qui maximise : e ` L(y, xm ) = y, xm 1 xm 2
2

(1.50)

Lexpression (1.50) montre que la r`gle de dcision optimale a une expression linaire en fonction de lobsere e e vation. La dtermination de lexpression de la probabilit derreur est en gnral complique. On se contente e e e e e souvent de bornes suprieures ou infrieures ou tout simplement de simulations. e e De faon tr`s gnrale, la probabilit derreur, dans le cas AGB, dpend essentiellement des interdistances c e e e e e entre les points-signaux dans lespace dobservation tandis que lnergie moyenne dpend de la position e e de lorigine par rapport a ces mmes points. Intuitivement pour minimiser lnergie moyenne pour des ` e e interdistances xes, il faut placer lorigine au centre de lensemble constitu des points reprsentatifs des e e e signaux dans lespace des signaux.

1.5

Statistique susante sur un canal soumis ` un bruit AGB a

Les rsultats obtenus paragraphe 1.4.3, sappliquent au probl`me de la dtection dun signal dans un bruit. e e e On consid`re lobservation Y (t) = X(t) + W (t) o` W (t) est un bruit AGB de densit spectrale N0 /2 et o` e u e u X(t) est un processus alatoire a valeurs dans lensemble ni de M signaux dterministes {x1 (t), , xM (t)}. e ` e On suppose que X(t) et W (t) sont indpendants. e Lespace engendr S par {x1 (t), , xM (t)} est appel lespace des signaux. Il est de dimension K avec e e K M. Le probl`me de la dtection du signal X(t) dans le bruit W (t), revient a trouver une fonction qui associe e e ` une valeur du param`tre m {1, , M } a lobservation Y (t), tout en minimisant la probabilit derreur. Le e ` e rsultat suivant que nous nonons sans dmonstration est fondamental : si le bruit W (t) est AGB, alors la e e c e projection orthogonale de lobservation Y (t) dans lespace S est une statistique susante pour le param`tre e m. En anglais on parle de sucient statistic. Une statistique susante est aussi appele statistique exhaustive. e Sans en entrer dans le dtail de la dmonstration, ce rsultat utilise le fait que les composantes du bruit e e e W (t) hors de S, ne sont pas corrles aux composantes dans S et, tant gaussiennes, sont statistiquement ee e indpendantes les unes des autres. Il sensuit que la loi de lobservation conditionnellement a sa projection e ` orthogonale dans S ne dpend plus du param`tre m, ce qui est la dnition dune statistique susante. e e e On montre en statistique [?] que pour construire un bon estimateur, il sut de ne sintresser quaux e fonctions dune statistique susante. De faon plus image, les composantes du bruit W (t) hors de S ne c e contiennent aucune information utile sur le param`tre m. e Par consquent pour prendre, a partir de lobservation Y (t), une dcision optimale sur le param`tre m, il e ` e e sut de ne considrer que la projection de Y (t) sur S qui est de dimension nie. Ce rsultat est fondamental e e puisquil permet de remplacer lobjet tr`s compliqu quest le processus alatoire Y (t) par une suite nie e e e de K variables alatoires. Nous pouvons a prsent dterminer les lois de probabilit de ces K variables e ` e e e alatoires conditionnellement a m. e `

1.5.1

Reprsentation relle des signaux e e

Y (t) = X(t) + W (t) o` W (t) est un bruit AGB de densit spectrale N0 /2. X(t) est un processus alatoire u e e a valeurs dans lensemble ni des M signaux dterministes {x1 (t), , xM (t)}. On suppose que X(t) et W (t) ` e sont indpendants. On note S lespace engendr par {x1 (t), , xM (t)} et K sa dimension, K M . e e Partant de la proprit ??, la loi conditionnelle des composantes dans S de Y (t), sachant X(t) = xm (t), ee se dtermine en remplaant le signal alatoire X(t) par le signal dterministe xm (t). e c e e Notons {k (t)} une base orthonorme de S, xm,k les composantes de xm (t) par rapport a cette base e ` et xm = [xm,1 , , xm,K ]T le vecteur de RK qui lui est associ. De mme, on note Wk = W (t) (t)dt e e k les projections de W (t) sur cette base et W = [W1 , , WK ]T le vecteur alatoire associ. Enn on note e e Y le vecteur de composantes Yk = Y (t) (t)dt. Dans ces conditions, Y = xm + W et E {Y} = xm k puisque E {W} = 0. En utilisant (??), on dduit que la matrice de covariance de Y a pour expression e u e E (Y xm )(Y xm )T = 0.5 N0 IK o` Ik est la matrice identit de dimension K. Du fait que le caract`re gaussien se conserve par transformation linaire, les composantes {Wk } forment e e un vecteur gaussien. Il sensuit que la densit de probabilit de la loi de Y conditionnellement a X(t) = xm (t) e e `

26 a pour expression : pY|m (y1 , , yK ) = = 1 1 exp K/2 N0 (N0 )


K

Chapitre 1

k=1

(yk xm,k )2 (1.51)

1 d2 (y, xm ) exp E N0 (N0 )K/2

o` la distance euclidienne entre x et y, lments de RK , est donne dapr`s (??) par les expressions suivantes, u ee e e qui sont quivalentes : e
K

d2 (y, x) E

= =

(x y)T (x y) =
+

k=1

(yk xk )2
2

|y(t) x(t)|2 dt = x

+ y

2 x, y

(1.52)

On peut alors appliquer les rsultats prcdents. En portant (??) et (??) dans (1.50), on obtient la r`gle e e e e de dcision optimale. Elle consiste a trouver lindice m qui rend maximum lexpression : e `
+

L(y, xm ) =

Y (t)xm (t)dt

1 2

|xm (t)|2 dt

(1.53)

Dans le cas o` M = 2 et o` les deux hypoth`ses sont quiprobables, la probabilit derreur est donne par u u e e e e (1.42). En utilisant (1.52) et en supposant que les signaux sont de mme nergie E, on obtient d2 (x1 , x2 ) = e e E 2E 2 x1 , x2 = 2E(1 cos()) o` est dni par (1.44). En utilisant (??), a savoir 2 = N0 /2, et en u e ` remplaant dans (1.42), on obtient : c 2 2 (x , x ) dE 1 2 2E sin (/2) Pe = Q = Q (1.54) 4 2 N0 Pour M quelconque, lexpression de la probabilit derreur na pas une expression simple mme si la e e disposition gomtrique des signaux dans S est simple. e e

1.5.2

Reprsentation en phase et quadrature e

On consid`re a nouveau un signal rel Y (t) = X(t) + W (t) mais on sintresse a prsent a la loi condie ` e e ` e ` tionnelle associe a sa reprsentation en phase et quadrature (par rapport a une frquence arbitraire f0 ). e ` e ` e On suppose que W (t) est un bruit additif, gaussien, blanc dans une bande grande devant celle du processus X(t). On suppose que X(t) est une processus alatoire a valeurs dans {x1 (t), , xM (t)} et que X(t) et e ` W (t) sont indpendants. e Partant de la proprit ?? il sut, pour dterminer la loi de lobservation conditionnellement a chacun ee e ` des M signaux possibles, de xer X(t) = xm (t) o` m {1, , M }. u Le signal rel xm (t) est reprsent au moyen de sa composante en phase xr (t) et de sa composante e e e bm en quadrature xi (t). On peut donc crire que xm (t) = xr (t) cos(2f0 t) xr (t) sin(2f0 t). On suppose e bm bm bm que les M signaux en phase xr (t) (respectivement les M signaux en quadrature xi (t)) engendrent un bm bm espace de dimension K o` K M . Rapports respectivement a une base de chacun de ces espaces, les u e ` i i signaux xm (t) sont dcrits par leurs composantes (xr , , xr e c bm,1 bm,K ) et (xbm,1 , , xbm,K ). Une autre faon est de dire que xm (t) appartient a un espace de dimension 2K qui peut tre dcrit par le vecteur a 2K ` e e ` i T r composantes xbm = (xr , xi , , xr e bm,1 bm,1 bm,K , xbm,K ) obtenu en concatnant les composantes de xbm (t) et i celles de xbm (t). Avec des notations videntes on a : e
r i r i (Yb,1 , Yb,1 , , Yb,K , Yb,K ) = Yb i (xr , xi , , xr bm,1 bm,1 bm,K , xbm,K ) xbm r i r i + (Wb,1 , Wb,1 , , Wb,K , Wb,K ) Wb

(1.55)

Si W (t) est un processus gaussien, les composantes de W (t) sont elles-mmes, par linarit, des variables e e e alatoires conjointement gaussiennes. Leur moyenne est nulle. Pour avoir leur loi, il reste a dterminer leurs e ` e

27 covariances. Un calcul analogue a celui eectu pour tablir lexpression (??) montre que, pour un bruit ` e e blanc de bande tr`s grande devant celle des signaux, on a : e
r r E {Wbk Wb } = r i Wbk Wb i i E Wbk Wb = N0 k,

(1.56) (1.57)

o` nous avons utilis dune part lexpression (??), donnant la densit spectrale des composantes en phase u e e et quadrature de W (t) qui est gale a N0 , et dautre part le fait que ces composantes ne sont pas corrles e ` ee (voir item 9 des proprits ??). ee Ainsi, partant de lexpression (??), on obtient pour la densit de probabilit du vecteur gaussien Yb e e conditionnellement a X(t) = xm (t) lexpression : ` pYb |m (yb ) = 1 d2 (yb , xbm ) exp E K (2N0 ) 2N0 (1.58)

r i r i o` yb = (yb,1 , yb,1 , , yb,K , yb,K ) et o` d2 (yb , xb ) = |yb (t) xb (t)|2 dt est donn par (1.59). Rappelons u u E e quon peut exprimer la distance et le produit scalaire de deux lments xb et yb , appartenant a cet espace ee ` de dimension 2K, a partir de leurs enveloppes complexes respectives. En eet en utilisant (??), on obtient ` pour la distance les expressions suivantes qui sont quivalentes : e K

d2 (xb , yb ) = E =

k=1 +

r i (xr yb,k )2 + (xi yb,k )2 b,k b,k r |xr (t) yb (t)|2 dt + b + i |xi (t) yb (t)|2 dt b

|xb (t) yb (t)|2 dt = 2

|x(t) y(t)|2 dt

(1.59)

et pour le produit scalaire, les expressions :


K K r i xr yb,k + xi yb,k = b,k b,k k=1 + k=1 xb (t)yb (t)dt r i R (xr + jxi )(yb,k jyb,k ) e b,k b,k +

xb , yb

= = R e

=2

x(t)y(t)dt

(1.60)

On peut a nouveau utiliser les rsultats du paragraphe 1.4.2. En portant (1.59) et (1.60) dans (1.50), on ` e obtient la r`gle de dcision optimale qui consiste a trouver lindice m qui rend maximum lexpression : e e ` L(yb , xbm ) = R e Yb (t)x (t)dt bm 1 2 |xbm (t)|2 dt (1.61)

Dans le cas o` M = 2 et o` les deux hypoth`ses sont quiprobables, lexpression de la probabilit derreur u u e e e est fournie par (1.42). On obtient : Pe = Q o` : u d2 (xb1 , xb2 ) = E =
+

d2 (xb1 , xb2 ) E 4 2

(1.62)

|xb1 (t) xb2 (t)|2 dt = 2


2

|x1 (t) x2 (t)|2 dt

2( x1

+ x2

2 x1 , x2 )

Ce qui donne pour des signaux de mme nergie E = |xm (t)|2 dt, d2 (xb1 , xb2 ) = 4E(1 cos()) o` est e e u E dni par (1.44). En utilisant (1.56) a savoir 2 = N0 , on a : e ` 2E sin2 (/2) Pe = Q (1.63) N0 Evidemment, les formules (1.54) et (1.63) sont identiques : ce sont les mmes signaux que lon utilise ! Ce e qui di`re est la faon de faire les calculs sans ou avec la reprsentation en phase et quadrature. e c e

28

Chapitre 1

Exemple 1.5 On utilise les notations prcdentes. On consid`re Y (t) = X(t) + W (t). W (t) est un bruit e e e gaussien, de densit spectrale N0 /2. X(t) est un processus alatoire a valeurs dans {xm (t) = m cos(2f0 t + e e ` m ), m {1, 2}} o` m R+ et m (0, 2). On suppose que les deux signaux possibles sont de mme u e probabilit 1/2. On suppose que W (t) et X(t) sont indpendants. e e 1. Dterminer, en fonction de m et m , la dcomposition en phase et en quadrature de xm (t) par rapport e e a f0 . ` 2. Dterminer lespace des signaux de la dcomposition en phase et en quadrature de xm (t) ainsi que les e e composantes dans une base orthonorme. e 3. Dterminer lnergie de xbm (t). En dduire lnergie moyenne de X(t). e e e e 4. Dterminer la distance entre xb1 (t) et xb2 (t). e 5. Donner les proprits statistiques des projections de W (t) sur la base prcdente. ee e e 6. En dduire la r`gle optimale de dcision. e e e 7. En dduire lexpression de la probabilit derreur. e e 8. Appliquer les rsultats prcdents lorsque m = (indpendant de m). e e e e Exemple (corrig) 1.5.1 e 1. Lenveloppe complexe par rapport a f0 scrit xbm (t) = m ejm = am + ` e jbm o` am = m cos(m ) et bm = m sin(m ). u 2. En concatnant les composantes en phase et en quadrature, on obtient le couple (am , bm ) o` m = 1, 2. e u Par consquent, lespace des signaux est R2 . En le rapportant a la base orthonorme (1, 0) et (0, 1), on e ` e obtient comme points reprsentatifs des deux signaux, les points de coordonnes (a1 , b1 ) et (a2 , b2 ). e e 3. Ebm = a2 + b2 = 2 . Si les deux signaux sont quiprobables, lnergie moyenne de lenveloppe e e m m m complexe est Eb = 0.5(2 + 2 ). Dapr`s (??) lnergie moyenne du signal transmis est E = Eb /2. e e 1 2 4. d2 (xb1 , xb2 ) = (a1 a2 )2 + (b1 b2 )2 . E 5. Dans la base prcdente, les composantes en phase et quadrature de W (t) sont deux variables gause e siennes centres, indpendantes et de mme variance N0 . e e e

6. On note respectivement PY (t) = R {Yb (t)} et QY (t) = Imag (Yb (t)) les composantes en phase et en e quadrature de Y (t) par rapport a f0 . En pratique elles sobtiennent, a partir de lobservation Y (t), ` ` par le syst`me schmatis gure 1.10. En portant xbm (t) = am + jbm dans (1.61), on obtient la r`gle e e e e optimale de dcision qui consiste a choisir la valeur de m qui maximise : e `
+ +

L(Yb , m) = am

PY (t)dt + bm

QY (t)dt

1 2 2 m

7. Dapr`s (1.62) et en utilisant le rsultat de la question 4, on a : e e (a1 a2 )2 + (b1 b2 )2 4N0


+ +

Pe = Q

8. Si m = indpendant de m, la r`gle optimale de dcision se simplie et scrit : e e e e L(Yb , m) = cos(m )


ur

PY (t)dt + sin(m )

QY (t)dt
ui

Apr`s quelques simplications, cela revient a comparer arctang(ui /ur ) a (1 + 2 )/2. d2 (xb1 , xb2 ) = e ` ` E 42 sin2 (/2) o` = 1 2 . Si m = , lnergie moyenne du signal transmis est E = 2 /2. Et donc u e d2 (xb1 , xb2 ) = 8E sin2 (/2). En utilisant 2 = N0 , on retrouve lexpression (1.54) : E Pe = Q 2E sin2 (/2) N0

29

1.5.3

Rsum sur la dtection dun signal dans un bruit AGB e e e

On retiendra que : si on utilise la reprsentation relle des signaux observs, alors la r`gle de dcision du maximum de e e e e e vraisemblance consiste a dterminer la valeur de m qui maximise la fonction L(y, m) dnie par : ` e e
+

L(y, m) =

Y (t)xm (t)dt

1 2

x2 (t)dt m

(1.64)

si on utilise la reprsentation en enveloppe complexe par rapport a une frquence f0 choisie arbitraie ` e rement, alors la r`gle de dcision du maximum de vraisemblance consiste a dterminer la valeur de m e e ` e qui maximise la fonction Lb (y, m) dnie par : e
+

Lb (y, m) = R e

Yb (t)x (t)dt bm

1 2

|xbm (t)|2 dt

(1.65)

Nous avons dj` soulign que, grce aux caract`res additif, gaussien et blanc, la r`gle de dcision optimale ea e a e e e avait une expression linaire en fonction de lobservation. e La dtermination de lexpression de la probabilit derreur est en gnral complique. On se contente e e e e e souvent de bornes suprieures ou infrieures ou tout simplement de simulations. e e

1.6

Exercices

Exercice 1.1 Soit le signal x(t) = m(t) cos(2f0 t) n(t) sin(2f0 t) o` m(t) et n(t) dsignent deux signaux u e rels, dont les spectres sont nuls en dehors de la bande de frquence (B, B). On suppose dautre part que e e f0 > B. 1. Dterminer lexpression du signal analytique associ a x(t). e e` 2. Dterminer lexpression de lenveloppe complexe du signal x(t) par rapport a la frquence f0 . e ` e Exercice 1.2 (Retard de phase, retard de groupe) Soit x(t) = a(t) cos(2f0 t), un signal a bande ` troite, de largeur de bande B. Ce signal traverse un canal passe-bande, dont le gain complexe est de module e constant K > 0 et a phase (f ) dans la bande de frquence occupe de x(t). On approche la phase (f ) par ` e e un dveloppement limit au premier ordre. Montrer que le signal en sortie du canal peut scrire : e e e y(t) = Ka(t tg ) cos(2f0 (t t )) o` tg et t dsignent deux quantits, appeles respectivement retard de groupe et retard de phase et dnies u e e e e par : 1 d(f ) 1 (f ) tg = et t = 2 df f =f0 2 f f =f0 Exercice 1.3 (Mesure de puissance avec un dtecteur denveloppe) Soit e x(t) un processus alatoire rel, stationnaire au second ordre, centr. Ce signal est appliqu a lentre dun syst`me e e e e ` e e qui dtermine lenveloppe a(t) (on rappelle que la notion denveloppe nest pas lie au choix dune frquence) e e e puis estime la puissance par P = (E {a(t)})2 /2. Dterminer les expressions de Px = E x2 (t) et de P dans les trois cas suivants : e 1. x(t) = A cos(2f0 t + ), o` dsigne une variable alatoire de loi uniforme sur (0, 2) et A une u e e constante positive. 2. x(t) = A1 cos(2f1 t + 1 ) + A2 cos(2f2 t + 2 ), o` 1 et 2 dsignent deux variables alatoires, u e e indpendantes et de loi uniforme sur (0, 2) et A1 et A2 deux constantes positives. e 3. x(t) est gaussien, centr, de puissance Px = E x(t)2 . e Indication : si et V sont deux variables alatoires gaussiennes, indpendantes, centres de mme variance U e e e e 2 , alors R = U 2 + V 2 suit une loi dite de Raylegh de densit : e pR (r) = r exp r2 /2 2 1(0,+) (r) 2

30

Chapitre 1

Chapitre 2

Communications numriques e
2.1 Introduction

En communications numriques, la source met un message discret : on entend par l` que le message e e a prend ses valeurs dans un ensemble dnombrable, le plus souvent ni, de valeurs. Typiquement une suite de e K bits ne peut prendre que 2K valeurs. An dtre transmise, la suite des donnes dinformation mise par e e e la source est associe, par le modulateur, a un signal qui subit a travers le canal des perturbations. Dans e ` ` notre prsentation, nous supposons que le canal agit comme un ltre idal de bande en frquence limite et e e e e est le si`ge dun bruit additif, gaussien, blanc. A la rception le but du destinataire est de retrouver avec le e e minimum derreurs la suite des symboles mis et non pas le signal transmis. e

2.2
2.2.1

Modulation numrique e
Message numrique et signal numrique e e

Nous supposons que le message numrique, produit par la source, est une suite de variables alatoires e e {dk } a valeurs dans lalphabet {0, 1}, indpendantes et identiquement distribues (i.i.d.) suivant une ` e e loi uniforme, ce qui scrit P {dk = 1} = P {dk = 0} = 1/2. e Le modulateur associe, de faon bijective, a chaque message numrique un signal numrique a temps c ` e e ` continu x(t). Lhypoth`se que la source peut tre considre comme binaire, i.i.d. et uniforme, trouve sa justication e e e e en thorie de linformation, plus prcisment avec le thor`me de codage de source, dont nous verrons un e e e e e nonc dans le chapitre 4. Limitons nous a en donner ici une justication intuitive. Si on reprsente les e e ` e caract`res dun texte, crit en franais, par un code comportant 8 bits (comme le fait le code ASCII), ce e e c qui permet de coder au total 256 caract`res, la suite binaire obtenue ne sera pas uniforme. Cela tient au e fait que les probabilits dapparition des dirents caract`res ne sont pas gales. On sait, par exemple, que e e e e les caract`res /e/, /s/, /a/ sont beaucoup plus frquents que les caract`res /w/ ou /y/. On a donc intrt e e e e e a coder de faon plus courte les caract`res les plus frquents. De faon plus prcise, C. Shannon a montr ` c e e c e e que, sous des hypoth`ses larges, il existe un codage qui associe, a des suites de n caract`res, des mots-code e ` e dautant plus courts que ces suites sont plus probables et tel que la suite de 0 et de 1 obtenue est, quand n tend vers linni, asymptotiquement i.i.d. et uniforme. Comme nous lavons dit lopration de modulation consiste a associer, de faon bijective, a la suite des e ` c ` symboles {dk } un signal x(t). Parmi toutes les faons de procder, lexemple suivant est fondamental : le c e signal numrique associ au message numrique constitu dune suite de K bits a pour expression : e e e e
K

x(t) =
k=1

ak h(t kTb )

o` h(t kTb ) reprsente une mme impulsion h(t) dcale de kTb et module par le symbole : u e e e e e ak = 2dk 1 o` ak prend ses valeurs dans {1, +1}. Notons quon ne suppose pas que h(t) soit de dure infrieure a Tb u e e ` ni mme de dure nie. En temps rel, le temps Tb dsigne lintervalle de temps entre deux bits mis. Il lui e e e e e 31

32 correspond un dbit binaire mesur en bits/s donn par : e e e Db = 1 en bits/s Tb

Chapitre 2

La modulation M -aire reprsente une gnralisation de cet exemple. e e e

2.2.2

Transmission M-aire en bande de base

On consid`re un alphabet A ni a M = 2m symboles. Typiquement on prend une suite centre et dont e ` e les amplitudes rguli`rement espaces. Par consquent cette suite, a une constante multiplicative pr`s, est la e e e e ` e suite des nombres impairs : A = {(M 1), (M 3), , 1, +1, , +(M 3), +(M 1)} On voit que ce choix traduit simplement le fait que (1) les carts damplitudes entre 2 symboles voisins sont e les mmes (on ne privilgie aucun symbole, sauf peut-tre les deux extrmes) et que (2), sous lhypoth`se e e e e e que les symboles sont quiprobables, lensemble A doit tre centr de faon a minimiser lnergie moyenne. e e e c ` e On choisit ensuite un codage qui associe, de faon bijective, a toute suite de m bits du message c ` numrique un symbole ak de lalphabet A. Partant de la suite dk , le modulateur fournit le signal numrique e e dit en bande de base1 : x(t) = ak h(t kT ) (2.1)
k

On parle alors de Modulation par Impulsion en Amplitude (en abrg MIA, en anglais PAM pour Pulse e e Amplitude Modulation).

m t

Tb

T
Fig. 2.1 Priode bit et priode symbole e e

A prsent T = mTb = log2 (M )Tb . On en dduit que la vitesse de modulation ou dbit symbole, qui se e e e mesure en bauds, a pour expression en fonction du dbit binaire et de M : e R= 1 Db = en bauds T log2 (M )

Cest prcisment pour rduire R, en augmentant la taille M de A, que lon a introduit les modulations e e e M -aires. La raison est que lon esp`re rduire ainsi loccupation en frquence du signal numrique et donc e e e e de pouvoir transmettre sur un canal de bande plus troite. e Codage de Gray Parmi tous les codages possibles, qui associent m bits de la source a une amplitude de lensemble A, le ` codage de Gray est tel que deux symboles damplitudes adjacentes sont associs a deux suites de m bits e ` qui ne varient que dun seul bit. Ce choix minimise, comme nous le verrons plus loin, le taux derreur par lment binaire (TEEB). Le tableau 2.1 indique un codage de Gray dans le cas o` M = 8. ee u

2.2.3

Modulation numrique sur frquence porteuse e e

La modulation sur porteuse a pour but dengendrer un signal passe-bande, cest-`-dire un signal rel a e dont le spectre se situe autour de la frquence f0 et de largeur B < f0 . Comme nous lavons expliqu, on a e e lhabitude, dans le domaine des communications, de reprsenter ces signaux par leur enveloppe complexe ou e
1 Dans

la littrature on utilise aussi lexpression code en ligne pour dsigner les modulations numriques en bande de base. e e e

33 message 100 101 111 110 010 011 001 000 symbole 7 5 3 1 +1 +3 +5 +7

Tab. 2.1 Codage de Gray encore par leurs composantes en phase et en quadrature par rapport a la frquence f0 . On peut alors crire ` e e pour le signal modul : e x(t) = xp (t) cos(2f0 t) xq (t) sin(2f0 t) Lenveloppe complexe de x(t) par rapport a f0 est alors donne par : ` e xb (t) = xp (t) + jxq (t) et on a : x(t) = R xb (t)e2jf0 t e (2.2)

En admettant que le signal x(t) est stationnaire au second ordre de spectre (ou d.s.p.) Sx (f ), nous avons vu page 17 quation (1.25) que le spectre Sx (f ) du signal x(t) se dduit de Sxb (f ) par la relation : e e Sx (f ) = 1 (Sxb (f f0 ) + Sxb (f f0 )) 4

Graphiquement, Sx (f ) sobtient par translation de Sxb (f ) de +f0 suivie dune symtrisation puis dune e division par 4. Attention rappelons ici que, contrairement a Sx (f ), Sxb (f ) est une fonction positive mais pas ` ncessairement paire. e MDP-M La modulation par dplacement de phase (en abrg MDP-M , en anglais PSK pour Phase Shift Keying)` e e e a M tats consiste a mettre pendant le temps T de dure dun symbole, une impulsion sinuso e `e e dale, dont la phase prend lune des M valeurs de lalphabet : = 0, 2 2(M 1) , , M M

Ainsi au k-i`me symbole est associ, dans lintervalle de temps (kT, (k + 1)T ) le signal : e e x(t) = A cos(2f0 t + k ) o` k . Il sen suit que lenveloppe complexe de x(t) a pour expression : u xb (t) = A
k

ak rectT (t kT ) avec ak = exp(jk )

(2.3)

Les valeurs de lalphabet peuvent tre reprsentes par des points rguli`rement rpartis sur un cercle de e e e e e e rayon unit. La gure ainsi obtenue sappelle une constellation. Si M = 2m , a chaque point de la constellation e ` est associe une suite de m bits. Nous avons reprsent gure 2.2 le cas M = 4. Notons que le choix de la e e e constellation est tel qu` deux symboles voisins sont associs deux mots de code qui ne varient que par un a e bit : on retrouve un codage de Gray.

34
signal numrique MDP4 constellation MDP4 01 01 11 01 10 01

Chapitre 2

11

00

10

2T

3T

4T

5T

Fig. 2.2 Modulation MDP-4

MAQ Lexpression (2.3) de la modulation MDP-M se gnralise sans dicult en prenant pour lenveloppe e e e complexe du signal numrique : e xb (t) = A
k

ak h(t kT )

(2.4)

o` ak est, a prsent, une suite de valeurs prises dans un alphabet complexe de M valeurs et h(t) une impulsion u ` e de forme quelconque. Evidemment on a : x(t) = R xb (t)e2jf0 t = xr (t) cos(2f0 t) xi (t) sin(2f0 t) e b b o` xb (t) = xr (t) + jxi (t). Do` le nom de Modulation par Amplitude en Quadrature (en abrg MAQ, u u e e b b en anglais QAM pour Quadrature Amplitude Modulation). La gure 2.3 reprsente la constellation et un e exemple de signal dune modulation MAQ-16.
signal numrique MAQ16 constellation MAQ16 +3 +1 1 3
1000 1010 1011 1001

0111 0110 0100 0000 1101

1100

1110

1111

1101

0100

0110

0111

0101

0000

0010

0011

0001

+1

+3 0 T 2T 3T 4T 5T

Fig. 2.3 Modulation MAQ-16

Remarque : on verra que les proprits spectrales et les performances en prsence de bruit sont esee e sentiellement dtermines par la forme de lexpression (2.4) qui est la mme que lexpression (2.1) donne e e e e pour la modulation en bande de base. On peut donc traiter simultanment, dans un mme formalisme, e e les deux types de modulation en travaillant uniquement sur lexpression A k ak h(t kT ) o` les symboles u ak sont complexes, voire rels si la modulation est en bande de base. Toutefois, par souci pdagogique, e e nous considrerons tout dabord le cas des modulations en bande de base et nous gnraliserons ensuite les e e e rsultats au cas des modulations sur frquence porteuse. e e

35

2.2.4

Limite fondamentale : formule de Shannon

Le concepteur du modulateur est conduit a considrer des alphabets de taille M > 2 de faon, pense-t-il, ` e c a rduire loccupation spectrale de x(t). On voit en eet que, pour un dbit binaire x, le fait daugmenter ` e e e M , augmente T et, par consquent, le signal x(t) contient a priori moins de hautes frquences. Toutefois, e e pour un rapport signal/bruit donn, cela va rapprocher les niveaux signicatifs des symboles adjacents et e donc provoquer, pour ce type de modulation, une augmentation de la probabilit derreur Pe . e Thoriquement le concepteur dispose dune bande en frquence B et dun rapport signal sur bruit (RSB) e e et il cherche a transmettre le dbit binaire maximum avec une probabilit derreur la plus faible possible. ` e e Pour une bande en frquence B donne, la rapidit R = 1/T est par consquent xe et est de lordre e e e e e de B. Si on veut alors, sans augmenter le RSB, diminuer la probabilit derreur Pe , il faudra diminuer M et, e comme R = Db / log2 (M ) est xe par le choix de B, il faudra rduire le dbit Db . e e e On a longtemps cru que ce raisonnement tait juste et que le seul moyen de rduire la probabilit derreur e e e pour une bande de frquence B et un RSB donns, tait de rduire le dbit. Les rsultats, obtenus en 1948 e e e e e e par C. Shannon, ont montr que le bruit ne constituait pas une limite aux transmissions s res, mais une e u limite au dbit. En voici un nonc (nous y reviendrons plus en dtails au chapitre 4) : e e e e Thor`me 2.1 (Canal gaussien - Shannon (1948)) Soit un canal de bande en frquence B soumis a e e e ` un bruit additif gaussien blanc et soit un rapport signal sur bruit RSB. On appelle capacit du canal gaussien e la quantit mesure en bits/s et dnie par : e e e C = B log2 (1 + RSB) (bits/s) Alors, si le dbit binaire de la source Db < C, il existe un ensemble (modulateur/dmodulateur) asymptotie e quement sans erreur. Exemple : sur le canal tlphonique B 3000 Hz (300 3400 Hz). Pour un RSB de 30 dB, C = 30000 ee bits/s.

2.2.5

Param`tres e

Lecacit spectrale exprime en bits/s/Hz est dnie par : e e e Db (bits/s/Hz) B o` Db dsigne le dbit binaire et B la bande de frquence du canal. u e e e Le rapport signal sur bruit dni par : e Eb = N0 o` Eb dsigne la quantit dnergie par bit, exprime en nombre de Joules par bit, et N0 /2 la densit u e e e e e spectrale du bruit additif, blanc sur le canal, exprime en W/Hz. On en dduit que la puissance e e moyenne du signal est donne par Ps = Eb Db et que la puissance du bruit dans la bande B et donne e e par Pb = N0 B. On en dduit le rapport signal sur bruit en puissance : e = Ps Eb = = Pb N0 La probabilit derreur par symbole dnie par Pe = P {k = ak } o` ak dsigne la valeur choisie par le e e a u e rcepteur et ak le symbole mis. e e On consid`re aussi le taux derreur par lments binaire (TEEB). Dans le cas o` le rapport signal sur e ee u bruit est grand, nous verrons quune expression approche du TEEB est : e TEEB Pe log2 (M )

Ce qui est remarquable est que, au-dessous dune certaine valeur du dbit, et donc de lecacit, il est e e possible de rendre Pe aussi faible que lon veut. Ainsi, sur le canal gaussien sans mmoire, la courbe : e = log2 (1 + ) (bits/s/Hz) = 2 1 (2.5)

donne une limite fondamentale aux transmissions s res. Nous avons reprsent gure 2.4 la courbe donnant u e e en dB en fonction de en bits/s/Hz. Pour les points situs au dessus de la courbe, il existe un syst`me de e e communication dont la probabilit derreurs peut tre rendue aussi faible que lon veut. e e

36
25 dB

Chapitre 2

20

15

10

0 0 1 2 3 4 5 6 7 8 9 10

-5

Fig. 2.4 Limite fondamentale de transmission sur le canal AGB

2.2.6

Spectre des signaux numriques e

Dans ce paragraphe, nous donnons les proprits du second ordre (moyenne et densit spectrale de ee e puissance) du signal numrique pour une modulation en bande de base et lappliquons a quelques cas e ` pratiques importants. Puis, a partir de lexpression de lenveloppe complexe, nous en dduisons le spectre ` e des modulations MDP. Reprenons lexpression (2.1) dnissant le signal numrique en bande de base ou encore lexpression (2.3) e e dnissant lenveloppe complexe dune modulation sur frquence porteuse : e e x(t) =
k

ak h(t kT )

(2.6)

On note H(f ) la transforme de Fourier de h(t). On consid`re que les symboles ak forment une suite alatoire, e e e a valeurs dans un alphabet A de taille M , et que cette suite est stationnaire au second ordre, ce qui signie ` que la moyenne E {ak } = ma est indpendante de k et que la fonction dautocovariance : e E {(a(n + k) ma )(a (n) m )} = Ra (k) a ne dpend que de lcart de temps k. On en dduit que : e e e E {a(n + k)a (n)} = Ra (k) + |ma |2 On suppose de plus que Ra (k) est de module sommable. Stationnarisation de x(t) En toute rigueur, lexpression (2.6) ne dnit pas un processus alatoire stationnaire au second ordre e e mme si la suite ak est suppose stationnaire au second ordre. En eet, on vrie aisment que les proprits e e e e ee statistiques de x(t) dpendent de linstant t ; il sut de considrer, par exemple des instants tels que t = nT . e e Pour obtenir un processus stationnaire il faut alors considrer que x(t) a pour expression : e x(t) =
k

ak h(t kT + U )

o` U dsigne une variable alatoire uniforme sur (0, T ) et indpendante des variables alatoires {ak }. Eviu e e e e demment cette faon de faire conduit a des proprits qui ignorent les conditions de phase de x(t). Ce qui c ` ee nest pas surprenant dans la mesure o` la notion de spectre, a laquelle nous nous intressons ici, est une u ` e grandeur statistique qui ne prend pas en compte la phase des signaux (se souvenir par exemple que la d.s.p. en sortie dun ltre a pour expression |H(f )|2 Sx (f ) qui ne dpend pas de la phase de H(f )). e

37 Moyenne de x(t) Montrons que : H(0) ma T En eet en introduisant la variable U uniforme sur (0, T ) indpendante de ak , on a : e mx = E {x(t)} =
T

E {x(t)} =

E {ak } E {h(t kT + U )} = ma

h(t kT + u)

1 du T

en eectuant le changement de variable = t kT + U , on obtient le rsultat annonc. e e Spectre de x(t) On rappelle que le spectre est la transforme de Fourier de la fonction dautocovariance de x(t), a e ` savoir Rx ( ) = E {(x(t + ) mx )(x(t) mx ) } = E {x(t + )x (t)} |mx |2 . En adjoignant au spectre la composante |mx |2 , lie a la moyenne mx = E {x(t)}, ce qui revient a prendre la transforme de Fourier e ` ` e de E {x(t + )x (t)}, on montre annexe 2.6.1 que la transforme de Fourier de E {x(t + )x (t)} a pour e expression : Sx (f ) = 1 |H(f )|2 T Ra (k)e2jf kT +
k
c Sx (f )

1 |ma |2 T2

|H(k/T )|2 (f k/T )


d Sx (f )

(2.7)

d Le terme Sx (f ), dans lexpression (2.7), est constitu dune suite de mesures de Dirac concentres aux e e frquences multiples de 1/T . En particulier, on retrouve en k = 0 la composante |ma |2 |H(0)|2 /T 2 due a la e ` composante continue lie a la prsence dune moyenne mx non nulle. On en dduit quil sut que la suite e ` e e d ak soit centre pour que le terme Sx (f ) soit nul. Par contre, si ma et H(k/T ) sont tous deux dirents de e e 0, le signal comporte une composante sinuso dale situe a la frquence k/T et donc en synchronisme avec e ` e la vitesse de modulation. Dans ce cas on peut rcuprer, a la rception, linformation sur le rythme des e e ` e symboles, en isolant cette raie par ltrage linaire. On retiendra quune condition ncessaire pour avoir des e e raies a la frquence symbole est que la moyenne ma soit non nulle. Remarquons toutefois quun spectre peut ` e ne pas comporter de raies aux frquences multiples de 1/T mais que, par une transformation qui nest pas un e ltrage linaire, comme par exemple une lvation au carr, il puisse donner un signal comportant des raies e ee e a un multiple de la frquence 1/T . Cette remarque est mise a prot dans certains dispositifs non linaires ` e ` e de rcupration de frquence. e e e Dans le cas particulier o` les symboles ne sont pas corrls et sont centrs, Ra (k) = 0 pour k = 0 et on u ee e a :

Sx (f ) =

1 Ra (0)|H(f )|2 T 1 Rx ( ) = Ra (0)h( ) h ( ) T 1 1 Rx (0) = Ra (0) |h(t)|2 dt = Ra (0) T T R

(2.8) (2.9) |H(f )|2 df (2.10)

Voyons a prsent quelques exemples. ` e Signal binaire NRZ Le signal binaire Non Retour a Zro (NRZ) est obtenu a partir dune impulsion rectangulaire h(t) = ` e ` ArectT (t) de dure T et damplitude A et de lalphabet {1, +1}. Comme les symboles sont supposs e e quiprobables et indpendants, E {an } = 0 et E {an+k an } = k . Dapr`s la formule (2.8), la d.s.p. a pour e e e expression : sin2 (f T ) Sx (f ) = A2 T (f T )2 et la puissance transmise est Rx (0) = A2 . Le lobe principal est de largeur 2/T et contient 91% de la puissance du signal. La dcroissance a linni e ` est de lordre de de 1/f 2 . Remarquons aussi que, plus la vitesse de modulation R est faible, plus lintervalle de

38

Chapitre 2

temps T entre deux symboles successifs est grand et plus la largeur du premier lobe (qui peut tre assimile e e a lordre de grandeur de la bande doccupation du signal NRZ) diminue. Nous avons reprsent gure 2.5 le ` e e spectre en dB dun signal binaire NRZ, de puissance 1, en fonction de f T .
0 5 10 15 20 25 30 6 4 2 0 2 4 6

Fig. 2.5 Spectre en dB du signal NRZ, de puissance gale ` 1, en fonction de f T . e a

Signal binaire RZ Le signal binaire Retour a Zro (RZ) est obtenu a partir dune impulsion rectangulaire de dure < T ` e ` e (typiquement = T /2) et damplitude A et de lalphabet {1, +1}. On en dduit que Ra (k) = k . La d.s.p. e a pour expression : sin2 (f T /2) Sx (f ) = A2 T (f T )2 et la puissance transmise est Rx (0) = A2 /2. La d.s.p. est tr`s semblable a celle du signal NRZ, si ce nest e ` que les lobes sont deux fois plus larges. Nous lavons reprsent gure 2.6. e e
0 5 10 15 20 25 30 6 4 2 0 2 4 6

Fig. 2.6 Spectre en dB du signal biphase, de puissance gale ` 1, en fonction de e a


fT .

Signal biphase Le signal biphase est obtenu a partir de limpulsion reprsent gure 2.7 et de lalphabet {1, +1}. Le ` e e bit transmis est caractris par la prsence dun front montant ou descendant en T /2. e e e La puissance est Rx (0) = A2 et la d.s.p. est donne par : e Sx (f ) = A2 T Sa forme est reprsent gure 2.8. e e 4 sin4 (f T /2) (f T )2

39
+

0 /2

Fig. 2.7 Impulsion biphase.


0 5 10 15 20 25 30 6 4 2 0 2 4 6

Fig. 2.8 Spectre en dB du signal biphase, de puissance 1, en fonction de f T .

Signal AMI Comme on la vu pour modier le spectre on peut agir sur limpulsion h(t) mais on peut aussi agir sur les corrlations entre symboles. Un exemple fondamental est lAMI (Alternate Mark Inversion). Il sagit dune e transmission avec un alphabet ternaire ak {1, 0, +1} o` lon code les bits 0 par le symbole 0 et les bits 1 u alternativement par +1 et 1. Montrons que, si les symboles sont quiprobables, alors ma = 0, Ra (0) = 1/2, e Ra (1) = 1/4 et Ra (k) = 0 pour |k| 2. En eet le codage AMI peut sobtenir, de faon itrative, par les c e deux expressions suivantes : an = dn sn1 sn = (1 2dn )sn1 (2.11)

o` sn est une variable dtat a valeurs dans {1, +1} et o` les variables alatoires dn sont supposes a valeurs u e ` u e e ` dans {0, 1} indpendantes, et telles que P {dn = 0} = P {dn = 1} = 1/2. On a alors que : e E {dn } = 1/2 et donc E {1 2dn } = 0 E d2 = 1/2 et donc E (1 2dn )2 = 1 n Des deux quations (2.11), on dduit que : e e an = dn (1 2dn1 ) . . . (1 2dnm ) On a alors, en utilisant lindpendance des dk , E {an } = 0, E a2 = 1/2, e n E {an an1 } = E {dn } E {dn1 (1 2dn1 )} E (1 2dn2 )2 = 1/4
=1/2 =1/2 =1

E {dn dk } = 1/4 si n = k (indpendance non corrlation) e e

et, pour k > 1, E {an ank } = E {dn } E {(1 2dn1 )} E {dnk (1 2dnk )}
=0

E (1 2dnm )2 = 0

40 Comme la fonction dautocovariance dune suite relle e centre de fonction dautocovariance : e 1/2 1/4 Ra (k) = 0

Chapitre 2 est paire, il vient le rsultat annonc. La suite an est e e si k = 0 si k = 1 si |k| 2

(2.12)

On en dduit, pour une impulsion rectangulaire NRZ, que la puissance moyenne est Rx (0) = A2 /2 et que la e d.s.p. a pour expression : sin4 (f T ) (2.13) Sx (f ) = A2 T (f T )2 Nous avons reprsent gure 2.9 Sx (f ) en dB pour un signal AMI, de puissance gale a 1, en fonction de e e e ` fT .

0 5 10 15 20 25 30 6 4 2 0 2 4 6

Fig. 2.9 Spectre en dB du signal AMI, de puissance gale ` 1, en fonction de f T . e a On note que, dans le codage AMI, Sx (0) = 0. Cette proprit est tr`s souvent requise dans les dispoee e sitifs qui transmettent mal lnergie autour de la frquence 0 (liaisons capacitives, couplage au rseau par e e e transformateur disolation, etc). Cest souvent cette contrainte qui dtermine, en tout premier lieu, le choix e dune modulation en bande de base. La condition suivante, dite de la somme courante borne [?], fournit un e moyen tr`s simple de tester si Sx (0) = 0. Sil existe J tel que, quel que soit K : e
K

P
k=1

ak < J

= 1 alors Sx (0) = 0

Ainsi dans lAMI, la somme courante est borne par 2. e Un autre lment important lors du choix dune modulation est la possibilit de rcuprer de faon ee e e e c synchrone le rythme symbole 1/T . Le codage AMI rpond a cette attente. Il permet de rcuprer facilement e ` e e le rythme 1/T en synchronisme avec le signal incident. Il sut, en eet, deectuer sur le signal reu une c opration qui transforme les impulsions ngatives en impulsions positives (on dit que lon redresse le e e signal). On obtient alors le signal : y(t) = dk g(t kT )
k

o` dk reprsente la suite binaire dinformations et o` g(t) = rectT /2 (t). La formule gnrale (2.7) donne pour u e u e e le spectre de y(t) lexpression :
c Sy (f ) = Sy (f ) +

A2 4T 2

sin2 (f T /2) 2 f 2

(f k/T )

Le signal y(t) comporte donc une raie damplitude A2 /4 2 a la frquence 1/T . Celle-ci peut tre rcupre par ` e e e e e simple ltrage linaire autour de 1/T (attention le rythme 1/T est connu, linconnu ici est la synchronisation e de ce rythme).

41 Signal MDP Pour les modulations sur frquence porteuse, nous nous limitons au calcul du spectre de la MDP. Rape pelons que lenveloppe complexe du signal a alors pour expression : xb (t) =
k

ak h(t kT )

o` h(t) est soit limpulsion rectangulaire NRZ soit, plus gnralement, une impulsion ltr. On suppose que u e e e les symboles ak = ejk , avec k {0, 2/M, . . . , 2(M 1)/M }, forment une suite de variables alatoires e indpendantes et quiprobables. On en dduit que : e e e
M1

ma = E ejk =
k=0

1 2jk/M e =0 M

que : Ra (0) = E |ak |2 = 1 et que pour tout k = 0 : Ra (k) = E {an+k a } = E {an+k } E {a } = 0 n n


On rappelle que, pour une suite complexe, la fonction dautocovariance vrie Ra (k) = Ra (k) (symtrie e e hermitienne). Par consquent Sxb (f ) a pour expression : e

Sxb (f ) = A2 |H(f )|2 Dapr`s (2.10), la puissance de lenveloppe complexe est donc gale a A2 e e ` nonces paragraphe 1.3.4, la puissance transmise est : e e Rx (0) = A2 2T |h(t)|2 dt |H(f )|2 df . Dapr`s les proprits e ee

et le spectre du signal numrique (notons que le spectre de xb (t) est ici une fonction paire) a pour expression : e Sx (f ) = 1 1 Sx (f f0 ) + Sxb (f f0 ) 4 b 4

Dans le cas particulier o` h(t) est limpulsion rectangulaire NRZ, h(t) = ArectT (t) et la d.s.p. a pour u expression : sin2 (f T ) Sxb (f ) = A2 T (f T )2 La puissance transmise est Rx (0) = A2 /2.

2.3
2.3.1

Performances en prsence de bruit pour une transmission en e bande de base


Filtre adapt e

Schma gnral dune cha de transmission e e e ne

bruit additif, blanc, gaussien an h(t)

akh(tkT) +

+ hR(t)

nT+ r(nT+ )

Fig. 2.10 Cha de transmission en bande de base ne

42 Considrons la modulation numrique dcrite par le signal : e e e x(t) =


k

Chapitre 2

ak h(t kT )

On rappelle que ce signal est rel dans la description des modulations en bande de base, tandis quil est e complexe dans le cas des modulations sur frquence porteuse. La transmission se fait a travers un canal e ` non distordant, a bande limite B, soumis a un bruit b(t) additif, blanc, gaussien de densit spectrale de ` e ` e puissance N0 /2. Le signal reu est : c z(t) = x(t) + b(t) Avant daborder cette tude et an dillustrer ces dirents traitements, nous avons reprsent gure e e e e 2.11 les dirents signaux tout au long de la cha de transmission : en (i) limpulsion h(t) = he (t) hc (t) e ne combinant le ltre dmission et le ltre modlisant le canal de transmission. En (ii) le signal mis sans bruit. e e e En (iii) le signal reu bruit. En (iv) limpulsion combinant le signal p(t) = h(t) hR (t) combinant le ltre c e h(t) et le ltre de rception hR (t). Typiquement hR (t) = h(t) (ltre adapt). En (v) la sortie du ltre e e hR (t) ainsi que les chantillons prlevs a la cadence T . En oprant une dcision symbole par symbole par e e e ` e e comparaison des chantillons a 0 (opration que nous justions plus loin), on observe sur cette ralisation e ` e e que la prsence du bruit a conduit a un certain nombre derreurs. e `

0 0

0 0

Fig. 2.11 Figure du haut : impulsion h(t) combinant le ltre dmission e


et le ltre de canal. Figure 2 : signal x(t) mis correspondant ` la squence e a e 1010110010111100110100100 avec un alphabet binaire {1, +1}. Figure 3 : signal bruit z(t) = x(t) + b(t) reu. Figure 4 : impulsion p(t) = h(t) hR (t) combinant e c h(t) et le ltre hR (t) de rception (typiquement hR (t) = h(t)). Figure 5 : signal e en sortie du ltre de rception. Les points (o) reprsentent les chantillons prlevs e e e e e ` la cadence T . La dcision se fait en comparant les chantillons ` 0 : on obtient a e e a 1100010010110111110100100. La prsence du bruit conduit, sur cette ralisation, ` e e a des erreurs situes en position 2, 3, 5, 13, 15 et 16. e

Dans ce paragraphe nous allons prcisment considrer le probl`me du choix du ltre h(t), du ltre hR (t), e e e e de linstant dchantillonnage et de la valeur du seuil qui rendent minimale la probabilit derreur moyenne. e e Pour cela nous admettrons le rsultat fondamental suivant : on peut atteindre le minimum de probabilit e e derreurs en eectuant la dcision uniquement sur les chantillons prlevs a la cadence T en sortie dun ltre e e e e ` linaire de rponse impulsionnelle : e e hR (t) = h ( t) HR (f ) = H (f )e2jf (2.14)

la valeur de tant choisie de faon a ce que limpulsion hR (t) soit nulle pour t < 0. Ce ltre est appel ltre e c ` e adapt (sous entendu a la forme de limpulsion h(t), en anglais matched lter). Ce quil y a de remarquable e `

43 dans ce rsultat est que lon a remplac le signal r(t), a temps continu, par une suite de valeurs, a temps e e ` ` discret, sans perte de performances. Quant au fait que loptimalit est obtenue par un dispositif linaire, cela e e tient prcisment au caract`re gaussien du bruit. e e e Partant de ce rsultat il faut ensuite dterminer, a partir de la suite des observations en sortie du ltre e e ` adapt, la suite de symboles mis qui minimise la probabilit derreur. Dans le cas gnral lorgane de dcision e e e e e e est compliqu et fait appel a un algorithme dit de Viterbi. e ` Il existe toutefois une situation particuli`rement simple et importante en pratique o` la dcision peut e u e tre prise symbole par symbole, cest-`-dire au fur et a mesure que les valeurs en sortie du ltre adapt sont e a ` e observes. Cest cette situation que nous allons tudier en dtail. e e e

2.3.2

Transmission sans IES : canal de Nyquist


+

Dterminons a prsent lexpression des chantillons en sortie du ltre de rception. Pour cela posons : e ` e e e p(t) = h(t) h (t) = h(u)h (u t)du

En dsignant par H(f ) la transforme de Fourier de h(t) et en utilisant les proprits de la transformation e e ee de Fourier ainsi que lexpression (2.14), on a : P (f ) = H(f )H (f ) = |H(f )|2 = |HR (f )|2 Lobservation r(t) en sortie du ltre adapt a alors pour expression : e
+

(2.15)

r(t) = (x(t) + b(t)) hR (t) =


k

ak

h(u kT )h ( t + u)du + b(t) hR (t)

En eectuant le changement de variable v = u kT et en utilisant la dnition de p(t), on obtient en sortie e du ltre adapt : e
+

r(t)

=
k

ak

h(v)h (v (t kT ))dv +b(t) hR (t)


p(t kT )

=
k

ak p(t kT ) + b(t) hR (t)

En sortie de lchantillonneur, on a alors aux instants tn = nT + : e r(nT + ) = an p(0) +


k=n

ak p((n k)T ) + wn

(2.16)

o` wn dsigne une variable alatoire scalaire, reprsentant la valeur chantillonne en sortie du ltre adapt u e e e e e e h ( t) et correspondant au bruit seul. Dans lexpression (2.16), donnant la valeur de lchantillon r(nT + ) observ a linstant (nT + ), il e e` appara trois termes : t Le premier est relatif au symbole qui a t mis a linstant nT ; eee ` Le second est relatif a tous les autres symboles autres que celui qui a t mis a linstant nT . Pour ` eee ` cette raison il porte le nom dInterfrences Entre Symboles (en abrg IES, en anglais ISI pour Inter e e e Symbol Interferences) ; Le troisi`me est relatif au bruit additif sur le canal. e La prsence du terme dIES, qui contient de linformation utile sur plusieurs symboles mis, ne permet pas e e deectuer une dcision symbole par symbole qui soit en mme temps optimale. Pour rsoudre le probl`me, e e e e une premi`re approche consiste a faire en sorte que le terme dIES soit nul ; elle aboutit au canal de Nyquist e ` que nous allons tudier. Toutefois cette approche prsente des faiblesses dans la mesure o` elle ne permet pas e e u de tirer au mieux prot de la bande disponible. La deuxi`me approche consiste soit a eectuer un algorithme e ` de dconvolution, pour rduire lIES a un niveau tel que lon puisse eectuer une dcision symbole par e e ` e symbole2 , soit utiliser lalgorithme de dcision optimale (algorithme de Viterbi). La deuxi`me approche ne e e sera pas traite ici. e
2 Cette

solution est sous-optimale

44 Crit`re de Nyquist e Supposons que les symboles soient statistiquement indpendants et que la condition : e p(mT ) = 0 pour m = 0

Chapitre 2

(2.17)

soit vrie. Alors le second terme dIES est nul et lchantillon prlev a linstant (nT + ) ne dpend e e e e e ` e statistiquement que du symbole mis a linstant nT . On dit quil y a suppression de linterfrence entre e ` e symboles aux instants dchantillonnage. La condition sappelle condition de Nyquist et le canal correspondant e le canal idal de Nyquist. Elle permet, comment nous allons le voir, deectuer une dcision symbole par e e symbole. Remarquons que la condition de Nyquist est automatiquement satisfaite si limpulsion h(t) est de dure e infrieure a T . En eet dans ce cas, il ne peut y avoir dIES, puisque limpulsion correspondant au n-i`me e ` e symbole est nulle avant mme que limpulsion correspondant au (n + 1)-i`me symbole ne commence. Le e e calcul le montre bien, puisque limpulsion p(t) est alors de dure infrieure a 2T et vrie donc la condition e e ` e de Nyquist. La condition de Nyquist donne par (2.17) porte sur la forme temporelle du signal p(t). Si on note P (f ) la e transforme de Fourier de p(t), la formule de Poisson (voir annexe) fournit la condition quivalente suivante : e e P (f k/T ) = T p(0) = constante (2.18)

On en dduit quune condition ncessaire pour rendre possible une transmission sans IES sur un canal de e e bande B est que le dbit symbole R vrie : e e R 2B (2.19)

avec (0, 1). Notons que C (f ) est paire. Nous avons reprsent gure 2.12 C (f )/T pour = 0, 0.3 et e e 1, pour f > 0. Laxe des frquences en abscisses est gradu en R = 1/T . e e

Le cas limite correspond a un spectre P (f ) rectangulaire. Une forme largement utilise est celle des ` e impulsions dites en cosinus surlev (en anglais raised-cosine) donne par : e e e 1 T pour |f | < 2T T T 1 1+ 1 sin (f 1/2T ) pour < |f | < (2.20) C (f ) = 2T 2T 2 1+ 0 pour |f | > 2T

=0 0 0 0.2/ T 0.4/ T

=0.3 0.6/ T

=1 1/ T

0.8/ T

Fig. 2.12 Transforme de Fourier de limpulsion en cosinus-surlev pour = 0, e e e 0.3 et 1. En abscisses, laxe des frquences est gradu en R = 1/T . On voit que la e e bande occupe est B = (1 + )/2T . e Le param`tre sappelle le facteur de dbordement (ou coecient darrondi : en anglais roll-o). Il e e varie entre 0 et 1. Plus il est grand, plus la bande en frquence donne par : e e B= 1+ Db = (1 + ) 2T 2 log2 (M ) (2.21)

45 ncessaire pour transmettre est grande. En contrepartie limpulsion c (t) (voir exercice 2.6) a les lobes e secondaires dont lamplitude est moindre.

3 T

2T

2T

3T

Fig. 2.13 Impulsion en cosinus-surlev pour = 0, 0.3 et 1. En abscisses, laxe e e


des temps est gradu en T . On voit que plus est grand plus les lobes secondaires e sont de faibles amplitudes.

Il sen suit que, lors dun dcalage de lhorloge dchantillonnage, lamplitude de lIES est dautant plus e e faible que est grand. Rpartition du ltrage : racine carre de Nyquist e e En conclusion les rsultats prcdents montrent que lon doit rpartir a part gale limpulsion en cosinus e e e e ` e surlev entre mission et rception suivant : e e e e HR (f ) = H (f ) (Filtre adapt) e |H(f )| = |H (f )| = C (f ) (an que : H (f )H (f ) = C (f ))
R e R

Si C (f ) est donne par (2.20), on montre, par un calcul long mais sans dicult, que la fonction : e e
T 4 cos((1 + ) t ) + 4t sin((1 ) t ) T T g (t) = 1 162 t2 /T 2 T

vrie prcisment g(t)g(t) = c (t) o` c (t) est la transforme de Fourier inverse de C (f ). Par continuit e e e u e e on obtient aussi g(T /4) = 0.5 cos() + (/4) sin() avec = (1 + )/4. En pratique lexpression (2.22) peut tre utilise pour engendrer, sur microprocesseur, les chantillons du signal numrique a une cadence e e e e ` susante pour tre ensuite mis a lentre dun convertisseur numrique analogique qui dlivre le signal e ` e e e numrique modul. e e Remarquons ici que les ltres, donns par lexpression (2.22), sont dnies a une phase (f ) = R (f ) e e ` pr`s, qui est choisie, en gnral, de faon a introduire peu de distorsion, en particulier en sapprochant autant e e e c ` que possible dune phase linaire (retard pur). e Diagramme de lil Un moyen pratique, tr`s largement utilis, pour valuer la situation de non interfrence entre symboles e e e e dans une transmission, est lobservation du diagramme de lil. Considrons une transmission binaire dalphabet {1, +1}. Lors dune suite de symboles successifs, le e signal numrique observ en labsence de bruit est la somme algbrique dimpulsions p(t) mises a la cadence e e e e ` T et multiplies par lune des deux valeurs 1 ou +1 ; si la dure de limpulsion est p(t) est suprieure e e e a 2T , il sensuit que le symbole mis a linstant kT interf`re avec les symboles suivants. Si a prsent les ` e ` e ` e squences de bits sont galement probables, on observera, dans les intervalles de temps de longueur T , toutes e e les formes possibles de signaux ; si maintenant on superpose toutes ces formes et que lon ne conserve que deux intervalles successifs, on obtient le diagramme de lil. Pour obtenir cette superposition on observe a ` loscilloscope le signal numrique en se synchronisant sur le temps T . e

46

Chapitre 2

Nous avons reprsent gures 2.14 et 2.15 la forme du diagramme de lil pour une impulsion p(t) en e e cosinus surlev avec = 0,3 pour M = 2 et M = 4 sans bruit. On notera la forme caractristique du e e e diagramme de lil, lorsque le crit`re de Nyquist est vri : les trajectoires concourent aux instants kT , ce e e e qui a pour consquence de rendre lil tr`s ouvert verticalement a ces instants. e e `

Fig. 2.14 Diagrammme de lil sur le canal de Nyquist pour = 0,3 et M = 2,


sans bruit.

3 1 1 3

Fig. 2.15 Diagrammme de lil sur le canal de Nyquist pour = 0,3 et M = 4,


sans bruit.

Lobservation du diagramme de lil fournit les indications suivantes : Louverture verticale mesure les performances contre le bruit. Plus lil est ouvert en hauteur, plus il est facile de discriminer les deux symboles en prsence de bruit et donc, plus la probabilit derreur e e est faible. Si le diagramme manifeste la prsence dune IES (faible), et que lon souhaite continuer a e ` utiliser une dtection a seuils (solution sous optimale), il faudra venir chantillonner le signal r(t) aux e ` e instants o` lil a une ouverture maximum. u Louverture horizontale indique une rsistance a un dcalage des instants dchantillonnage. Ainsi plus e ` e e lil est ouvert en largeur, plus les lobes secondaires de la rponse en temps seront faibles et plus e laccumulation des interfrences dues au dcalage des instants dchantillonnage auront une inuence e e e moindre en terme de probabilit derreur. Cest le cas pour les fonctions en cosinus surlev lorsque e e e augmente.

47 Nous avons reprsent gure 2.16 le diagramme de lil sur le canal de Nyquist pour = 0, 3 et M = 2, e e avec un rapport signal sur bruit de 7 dB. On remarque que la dcision symbole par symbole sera la meilleure e l` o` lil est le plus ouvert verticalement. Malgr le bruit les niveaux signicatifs des deux symboles restent a u e relativement bien discriminables.

Fig. 2.16 Diagrammme de lil sur le canal de Nyquist pour = 0,3 et M = 2,


avec un rapport signal sur bruit de 7 dB.

Distorsion maximale dIES La distorsion maximale dIES est un moyen quantitatif de juger du niveau dIES. Pour lintroduire, considrons une transmission binaire telle que lobservation en sortie du ltre de rception ait pour exprese e sion : r(nT + ) = an 0.6an1 + 0.4an2 0.2an3 + 0.1an4

o` an {1, +1}. Une dtection symbole par symbole par comparaison a 0 est clairement dsastreuse : si u e ` e an = +1, il sut que la squence des 4 symboles qui prc`dent soit {+1, 1, +1, 1} pour que la dcision e e e e soit errone. Par consquent, mme sans bruit, la probabilit derreur est suprieure a 1/24 6%. Ce qui e e e e e ` est, en gnral, inacceptable. Les 4 symboles qui prcdent interf`rent de faon destructive avec le symbole e e e e e c a dtecter. On en dduit que la dcision symbole par symbole sera dautant plus dicile que le rapport des ` e e e amplitudes de lIES par rapport a lamplitude du symbole a dtecter est grand. Do` lide de mesurer lIES ` ` e u e par le rapport ( k |pk | |pmax |)/|pmax | o` pmax = maxk pk . De faon plus gnrale pour une modulation a u c e e ` M -aire, on dnit la distorsion maximale dIES par : e Dmax = (M 1)
k

|p(k)| |pmax | |pmax |

o` pmax = maxk p(k). Si Dmax 1, une dcision symbole par symbole peut tre utilise, cela correspond a u e e e ` un il tr`s ouvert verticalement. Par contre si Dmax est voisin de 1 ou suprieur a 1, une dcision optimale e e ` e symbole par symbole est impossible. Il faut prendre en compte lensemble des observations pour dtecter la e squence la plus probable. Un algorithme particuli`rement ecace existe, il sagit de lalgorithme de Viterbi. e e Performances dune transmission sur le canal de Nyquist Revenons au schma gnral de la cha de transmission gure 2.10 o` nous supposons que le crit`re de e e e ne u e Nyquist est vri et envisageons tout dabord une transmission binaire en bande de base. Nous avons alors e e les hypoth`ses suivantes : e an est une suite alatoire i.i.d. a valeurs dans {1, +1} avec P {an = 0} = P {an = 1} = 1/2, e ` h(t) est relle et est tel que p(t) = h(t) h (t) vrie le crit`re de Nyquist, e e e le bruit est blanc, gaussien et indpendant de an , e

48 Dapr`s le crit`re de Nyquist, les chantillons en sortie du ltre adapt ont pour expression : e e e e r(nT + ) = an p(0) + wn

Chapitre 2

Dapr`s les hypoth`ses an et wn sont indpendantes. On note wa (t) = hR (t) b(t) le signal a temps continu e e e ` produit, a la rception, par le bruit en sortie du ltre adapt. Montrons que les variables alatoires wn ` e e e dnies par : e wn = wa (t)|t=nT sont gaussiennes centres, non corrles, de variance 2 = p(0)N0 /2. Le caract`re gaussien se dduit du e ee e e caract`re linaire de lopration entre b(t) et wa (t) et de lhypoth`se gaussienne sur b(t). Les formules de e e e e ltrage donnent tout dabord pour la moyenne E {wn } = E {b(t)} HR (0) = 0 puisque b(t) est suppos centr. e e a Ces formules donnent pour la densit spectrale de puissance de wa (t) lexpression Sw (f ) = |HR (f )|2 Sb (f ). e En utilisant lexpression (2.15) on obtient alors :
a Sw (f ) =

N0 P (f ) 2

a Et par consquent la fonction dautocovariance, qui est la transforme de Fourier de Sw (f ), a pour exprese e sion :

E {wn wk }

= E {wa (nt)wa (kT )} = Rw ((n k)T ) N0 a = Sw (f )e2j(nk)T f df = P (f )e2j(nk)T f df 2 R R

En revenant a p(t), on obtient : ` E {wn wk } = N0 N0 p((n k)T ) = p(0)k,n 2 2 (2.22)

la derni`re galit tant justie par lhypoth`se que p(t) satisfait le crit`re de Nyquist. Lexpression e e e e e e e (2.22) montre que, pour n = k, les variables alatoires wn et wk ne sont pas corrles, comme elles sont e ee gaussiennes elles sont en plus indpendantes. Remarquons ici que lindpendance des variables alatoires wk e e e est essentielle pour assurer quune dcision symbole par symbole est optimale. e En conclusion lobservation : Yn = r(nT + ) = an p(0) + wn en sortie du ltre adapt, est une variable alatoire gaussienne, de variance : e e 2 = p(0)N0 2 (2.24) (2.23)

et de moyenne p(0) (respectivement p(0)) si le symbole mis an est +1 (respectivement 1). Les lois de e lobservation conditionnellement a an = +1 et an = 1 ont donc pour densits respectives : ` e pYn |an =1 (y) = pYn |an =+1 (y) = 1 (y + p(0))2 exp 2 2 2 1 (y p(0))2 exp 2 2 2 (2.25)

On choisit un seuil s et on prend comme r`gle de dcision : e e an = La probabilit derreur moyenne scrit : e e Pe = = 1 1 P {n = +1|an = 1} + P {n = 1|an = +1} a a 2 2 1 1 P Yn > s|an = 1 + P Yn < s|an = +1 2 2 +1 1 si Yn > s si Yn < s

49

p(0)

+ p(0)

Fig. 2.17 Densits des lois dobservation dans le cas binaire. e

o` on a utilis que les deux symboles taient quiprobables. En utilisant les expressions (2.25), il est immdiat u e e e e de montrer3 que le seuil qui minimise Pe est s = 0 et que la probabilit derreur obtenue est alors donne e e par : + + 2 1 et /2 dt = Q(p(0)/) pYn |an =1 (y)dy = Pe = 2 0 p(0)/ o` la fonction Q(x) est dnie par : u e
+

Q(x) =
x

2 1 et /2 dt 2

Nous allons a prsent exprimer Pe en fonction de Eb nergie moyenne par bit. Comme les deux symboles ` e e sont supposs quiprobables et transportent un bit, Eb = |h(t)|2 dt = p(0). En utilisant lexpression (2.24), e e on obtient : Pe = Q 2Eb N0 (2.26)

On vrie que Pe est une fonction dcroissante du rapport Eb /N0 , quantit qui peut tre interprte comme e e e e ee un rapport signal sur bruit, le numrateur tant le nombre de Joules consomms en moyenne par bit transmis. e e e Transmission M -aire en bande de base sur le canal de Nyquist Dans le cas dune transmission M -aire, le rcepteur optimal est encore constitu dun ltre adapt a e e e ` limpulsion h(t), suivi dun chantillonneur. A condition que le crit`re de Nyquist soit vri, les quantits en e e e e e sortie du ltre adapt ont encore pour expression r(nT + ) = an p(0)+wn , o` an {1, 3, , (M 1)} et e u o` les wn sont des variables alatoires gaussiennes centres, non corrles, de mme variance 2 = p(0)N0 /2. u e e ee e Un calcul simple montre que : E {an } = 0 et que 2 M2 1 12 + 32 + + (M 1)2 = M 3 Le rcepteur est identique a celui de la MIA-2 et lobservation en sortie de lchantillonneur est donne par : e ` e e E a2 = n Yn = p(0)an + wn Un calcul analogue au calcul fait pour M = 2 montre que la loi de Yn conditionnellement a an est une loi ` gaussienne de moyenne an p(0) et de variance 2 = N0 p(0)/2. Nous avons reprsent gure 2.18 les densits e e e de probabilits des lois conditionnelles dans le cas o` M = 8. e u Lorgane de dcision est un dtecteur a seuils, dont les seuils sont situs entre les amplitudes possibles e e ` e ak p(0), cest-`-dire aux points damplitude {0, 2p(0), 4p(0), }. Si on note : a
p(0) p(0)
3 On
2 2 1 ex /2 dx = 1 2q 2

o` u

1 q= 2

+ p(0)/

et

/2

dt = Q (p(0)/)

peut montrer que le ltre adapt est, parmi tous les ltres linaires, celui qui maximise le rapport p(0)/. e e

50

Chapitre 2

p(0)

Fig. 2.18 Densits des lois de probabilit de lobservation en sortie de e e lchantillonneur, pour une transmission 8-aire sur un canal additif, gaussien, blanc. e Les points (o) reprsentent les seuils de dcision. e e

la probabilit de dcision correcte scrit : e e e Pc = 1 M 2 1 2 (1 q) + (1 2q) + (1 q) = 1 (M 1)q M M M M

On en dduit que la probabilit derreur est donne par : e e e Pe = 1 Pc = 2(M 1) Q (p(0)/) M

En utilisant que lnergie moyenne par symbole est donne par : e e Es = E a2 n |h(t)|2 dt = M2 1 p(0) 3

on dduit que lnergie moyenne par bit est donne par : e e e Eb = Es 1 M2 1 = p(0) log2 (M ) log2 (M ) 3 (2.27)

En portant dans lexpression de Pe et en utilisant que 2 = p(0)N0 /2, on obtient : Pe = 2(1 1/M )Q TEEB et codage de Gray En plus de lexpression de la probabilit derreurs Pe par symbole, on est aussi intress en pratique par e e e le taux derreurs par lment binaire, en abrg TEEB (en anglais BER pour Bit Error Rate). De faon ee e e c gnrale son expression est ; e e TEEB = (a, b)P {n = b|an = a} a
aA bA

2Eb 3 log2 (M ) 2 N0 M 1

(2.28)

o` (a, b) reprsente le taux de bits errons entre les deux mots-code a et b. an et an dsignent respectivement u e e e le symbole mis et le symbole dcid a linstant n. La dtermination prcise de lexpression du TEEB est e e e` e e toutefois tr`s complique et dpend, par lintermdiaire de (a, b), de lassociation entre les lments binaires e e e e ee et les symboles M -aires. Une formule approche pratique peut cependant tre obtenue lorsque le rapport signal sur bruit est e e susamment grand et si le code utilis est un code de Gray. On rappelle que, pour un code de Gray, les e mots-code de deux amplitudes voisines ne di`rent que par un bit. e Considrons par exemple le cas M = 8. Dans le tableau 2.2 nous avons indiqu, conditionnellement e e a lmission du symbole an = +3, les direntes possibilits de dcision pour le symbole an ainsi que la ` e e e e probabilit dune telle dcision et le taux de bits errons correspondant. Les approximations sont valides si e e e on suppose que le rapport signal sur bruit est susamment grand pour que les seules erreurs correspondent au cas o` le symbole choisi est lun des deux symboles voisins en amplitude du symbole mis. u e

51 bA 7 5 3 1 +1 +3 +5 +7 e.b. P {n = b|an = +3} a 111 0 110 0 100 0 101 0 001 Pe /2 000 = 1 Pe 010 Pe /2 011 0 (b, +3) 3/3 2/3 1/3 2/3 1/3 0/3 1/3 2/3

Tab. 2.2 TEEB conditionnellement a an = +3. Colonne 1 : direntes possibilits de dcision. Colonne ` e e e 2 : suite dlments binaires (e.b.) dcide. Colonne 3 : probabilit dune telle dcision. Colonne 4 : taux ee e e e e dlments binaires errons. Le rapport signal sur bruit est suppos grand. ee e e On en dduit que le taux derreurs par lments binaires, conditionnellement a lmission de an = +3, est e ee ` e TEEB3 Pe /3. Comme les symboles sont supposs quiprobables, le taux derreurs par lments binaires e e ee est donc Pe /3. En conclusion, si le rapport signal sur bruit est susamment grand et si on utilise un codage de Gray, un seul bit sur les log2 (M ) bits transmis par symbole est faux et lexpression du taux derreurs par lments ee binaires (TEEB) est alors donne par : e Pe TEEB = log2 (M ) Nous avons reprsent gure 2.19 le TEEB en fonction du rapport Eb /N0 , pour direntes valeurs de M . e e e
1
TEEB

10

10

10

M=16

10

M=8

10

M=4

10

M=2

10

10

10

15

20

Fig. 2.19 TEEB en fonction du rapport Eb /N0 en dB, pour M = 2, 4, 8, 16

Ecacit spectrale/rapport signal sur bruit e Dapr`s la formule (2.21), lecacit spectrale en MIA-M , sur le canal de Nyquist et avec une impulsion e e en cosinus sur-leve, est donne par : e e e = Db log (M ) =2 2 B 1+ (2.29)

52

Chapitre 2

M Eb /N0 (dB) (dB)

2 4 8 16 9.6 13.6 18 22.9 0 4 8.4 13.3

Tab. 2.3 Rapport signal sur bruit en MIA-M pour un TEEB = 105 . . Si on consid`re le cas (le plus favorable) o` = 0, on a : e u = 2 log2 (M ) soit M 2 4 (bits/s/Hz) 2 4 8 16 6 8 (2.30)

Le tableau 2.3 donne les valeurs du rapport signal sur bruit releves sur les courbes de la gure 2.19 e pour TEEB = 105 . est laugmentation en dB du rapport signal sur bruit pour compenser en terme de TEEB laugmentation de M par rapport a M = 2. On peut mme admettre a la vue des courbes, ` e ` qui sont quasiment parall`les, que ces carts sont encore pertinents pour les faibles valeurs du TEEB. e e Nous avons report gure 2.20 les positions () du rapport signal sur bruit en fonction de lecacit e e spectrale. Les valeurs correspondent a un TEEB de 105 . Nous avons aussi report la limite fondamentale ` e de la capacit dun canal gaussien donne par lexpression (2.5). e e
25 20 15 10 5 0 5 (bits/s/Hz) 0 2 4 6 8 10 (dB) MIA16 MDP16 MDP8 MDP4 MIA4 MDP2 MIA2 MIA8

Fig. 2.20 Ecacit spectrale en fonction du rapport signal sur bruit pour les modue
lations MIA-M () et pour les modulations MDP-M ( ). Les valeurs correspondent ` un TEEB de 105 . La courbe en trait plein reprsente la limite fondamentale du a e canal gaussien (quation (2.5)). e

2.4

Performances en prsence de bruit pour les modulations sur e frquence porteuse e

Pour les modulations sur frquence porteuse, les calculs peuvent tre eectus en sappuyant sur la e e e description faite a partir de lenveloppe complexe. En eet on rappelle quune modulation sur frquence ` e porteuse est dcrite par le signal complexe : e xb (t) =
k

ak h(t kT )

53 e ` o` h(t) est une impulsion en gnral complexe et o` ak dsigne une suite de symboles complexes pris a un u e e u alphabet de M symboles et que le signal numrique transmis scrit x(t) = R{xb (t) exp(2jf0 t)}. e e e Ce signal est soumis a un bruit n(t) additif, gaussien, centr, de d.s.p. constante et gale a N0 /2 dans ` e e ` la bande utile du signal x(t). A la rception le signal observ a pour expression z(t) = x(t) + n(t). Son e e enveloppe complexe (par rapport a f0 ) scrit zb (t) = xb (t) + nb (t). On sait que : ` e nb (t) = nr (t) + jni (t) b b o` nr (t) et ni (t) dsignent respectivement les composantes en phase et en quadrature du bruit. On a montr u b e e b chapitre 1 que ce sont deux processus alatoires, gaussiens, centrs, indpendants, ayant mme densit e e e e e spectrale de puissance gale a N0 dans la bande utile du signal xb (t). e `

zbr(t) z(t) 2 cos(2f0 t) zbi(t) 2 sin(2f0 t)


Fig. 2.21 Dmodulation synchrone. e On rappelle (voir gure 2.21) que le signal complexe zb (t) sobtient a partir du signal reu z(t) en ` c utilisant un dtecteur synchrone, cest-`-dire une opration de multiplication de z(t) par e2jf0 t suivie dun e a e ltrage passe-bas. Comme pour une transmission en bande de base, on montre que le minimum de probabilit derreur e sobtient en eectuant la dcision sur les chantillons complexes pris a la cadence T en sortie du ltre de e e ` rception, ce dernier tant le ltre adapt hR (t) = h ( t). Comme, dans la plupart des cas pratiques, e e e le ltre adapt est un ltre passe-bas plus troit que le ltre du dtecteur synchrone qui limine les e e e e composantes autour de 2f0 , ce dernier peut tre omis dans le schma de rception. e e e Dans le cas gnral, la rponse h(t) est complexe et par consquent la rponse hR (t) du ltre adapt est e e e e e e elle-mme complexe. Il sen suit que le ltrage de z(t) par hR (t) scrit : e e
r i rb (t) = zb (t) hR (t) = (zb (t) + jzb (t)) (hr (t) + jhi (t)) R R

Ce traitement ncessite donc 4 oprations relles de convolution. La situation se simplie un peu si h(t) est e e e rel auquel cas le ltrage de zb (t) ne comporte que deux oprations relles de ltrage. e e e Annulation de lIES : crit`re de Nyquist e En choisissant pour p(t) = h(t) h (t) une fonction qui satisfait le crit`re de Nyquist (2.17), a savoir e ` p(mT ) = 0 pour tout m = 0, il y a annulation de linterfrences entre symboles. Typiquement on prendra e pour p(t) une fonction en cosinus sur-lev dont on dterminera la valeur du roll-o de faon a satisfaire la e e e c ` contrainte de bande de frquence du canal. Dans ce cas la sortie chantillonne a pour expression complexe : e e e Yn = r(nT + ) = an p(0) + wn o` wn dsigne la partie de lobservation due au bruit nb (t) ltr par hR (t). En calculant la d.s.p. du bruit u e e r i wn en sortie du ltre hR (t) et en utilisant le crit`re de Nyquist, on montre aisment que wn et wn sont deux e e suites de variables alatoires gaussiennes, centres, indpendantes, de mme variance N0 p(0). e e e e Lorgane de dcision peut donc prendre une dcision symbole par symbole : il choisit le symbole dalphabet e e le plus proche de la valeur rn observe. Il est important de noter que lorgane de dcision, qui intervient apr`s e e e lchantillonneur, traite des nombres complexes. Cela signie que la dcision est prise symbole complexe par e e symbole complexe, mais pas en gnral partie relle par partie relle et partie imaginaire par partie imaginaire e e e e (sauf si la constellation est un quadrillage rgulier). e Nous allons tudier plus en dtails le cas de la modulation de phase. e e

54

Chapitre 2

2.4.1

Cas de la MDP-M

Dapr`s lquation (2.3), lenveloppe complexe du signal MDP-M par rapport a la frquence porteuse f0 e e ` e a pour expression : xb (t) = ak h(t kT ) (2.31)
k

On suppose que h(t) est relle. On rappelle que lalphabet (ou constellation) est constitu de M = 2m points e e rguli`rement espacs sur le cercle unit. On peut donc crire an = exp(jn ) o` n {0, 2/M, , 2(M e e e e e u 1)/M }. En supposant que n est une suite de variables alatoires indpendantes et rparties uniformment e e e e cest-`-dire P {an = exp(2jk/M )} = 1/M , on dduit que E {an } = 0 et que E {an a } = (n k). a e k Annulation de lIES : crit`re de Nyquist e Choisissons le ltre h(t) en bande de base de telle faon que limpulsion p(t) = h(t) h (t) vrie le c e crit`re de de Nyquist a savoir p(mT ) = 0 pour tout m = 0. Typiquement on prend pour p(t) une fonction e ` en cosinus sur-lev. La valeur du roll-o est dtermine en fonction de la bande du canal. Supposons e e e e que le canal puisse tre considr comme un ltre passe-bande idal de bande B autour de la frquence f0 . e e e e e Pour voir comment ce ltre agit sur le signal il sut de dterminer le ltre quivalent en bande de base qui e e lui correspond (voir chapitre 1) et dappliquer ce ltre au signal h(t). On rappelle que le ltre quivalent e en bande de base sobtient en transaltant de f0 la partie du gain situe dans les frquences positives. e e Par consquent le ltre quivalent en bande de base du ltre de canal est le ltre passe-bas idal de bande e e e (B/2, B/2). Pour que limpulsion en cosinus sur-lev ne soit pas distordue, il faut que vrie : e e e B 1 (1 + ) = 2T 2 soit =
B R

(2.32)

1 o` R dsigne le dbit symbole. Il sen suit que : u e e R<B (2.33)

constitue une condition ncessaire a labsence dinterfrence entre symboles. En comparer cette condition a e ` e ` la condition (2.19), tablie pour les modulations en bande de base, on voit que la bande ncessaire est deux e e fois plus grande : ce rsultat est a rapprocher du rapport 2 entre la bande occupe en transmission en bande e ` e de base et la bande occupe en modulation double bande. On pourrait, comme en modulation analogique e BLU, diviser la bande par 2 en ltrant le signal MDP. Dans la suite nous considrons uniquement le cas dune MDP double bande sans IES. De lexpression e (2.32) on dduit que lecacit spectrale a pour expression : e e = Db log2 (M ) = B 1+ (2.34)

En chantillonnant, en sortie du ltre hR (t) de rception, aux instants nT + , on obtient un chantillon e e e complexe qui ne dpend que dun seul symbole et dont les parties relle et imaginaire ont pour expressions e e respectives (on a suppos p(t) rel) : e e
r r Yn = p(0) cos(n ) + wn i i Yn = p(0) sin(n ) + wn

composante en phase composante en quadrature


+

(2.35)

o` n est la phase associe au n-i`me symbole et o` u e e u p(0) =

|h(t)|2 dt

Les composantes variance :

r wn

et

i wn

sont deux variables alatoires, gaussiennes, centres, indpendantes de mme e e e e 2 = N0


+

|hR (t)|2 dt = N0 p(0)

r i Partant de l`, conditionnellement a lmission du symbole , lobservation (Yn , Yn ) est un vecteur alatoire a ` e e gaussien de dimension 2, de moyenne p(0) cos(), p(0) sin() et de matrice de covariance 2 I2 . Leur densit e scrit : e 1 1 pYn Yn | (yr , yi ) = r i exp 2 (yr p(0) cos())2 + (yi p(0) sin())2 2 2 2

55
r i ` Une dtection symbole par symbole est possible. Elle consiste a tester lappartenance de Zn = (Yn , Yn ) a e ` lun des M secteurs angulaires centrs sur les points de la constellation (voir gure 2.22 le cas M = 8). En e notant k le secteur associ au symbole Ae2jk/M , la probabilit derreur par symbole scrit : e e e

Pe

= 1 = 1 M 1 M 2 M

1 M
M

M k=1

P {Zn k |n = 2k/M }

k=1 M k=1 M

(1 P {Zn k |n = 2k/M }) P {Zn k |n = 2k/M } P {Zn Dk |n = 2k/M } (2.36)

k=1

= 2P {Zn D0 |n = 0} o` Dk dsigne le demi-disque dont le diam`tre est la mdiatrice entre les points Mk et Mk1 de la constellation u e e e (points associs respectivement aux phases 2k/M et 2(k 1)/M (voir gure 2.22) et qui contient le point e de coordonnes (p(0) cos(2k/M ), p(0) sin(2k/M )). Notons quavec ces notations D0 = DM1 e Lapproximation dans lquation (2.36) est justie d`s lors que M est grand et que le rapport signal sur e e e bruit est grand : la rgion qui est compte deux fois (voir gure 2.22) tant de probabilit ngligeable. On e e e e e peut a prsent calculer P {Zn D0 |n = 0}. Il vient : ` e P {Zn D0 |n = 0}
2 1 (yr p(0))2 + yi exp 2 2 2 D1 2 d = Q 2

dyr dyi

o` 2 = N0 p(0) et o` d reprsente la distance euclidienne entre le point de coordonnes (p(0), 0) et le point u u e e de coordonnes (p(0) cos(2/M ), p(0) sin(2/M )), soit d = 2p(0) sin(/M ). e Dapr`s la proprit 5 nonce paragraphe 1.3.4, lnergie par symboles associe au signal transmis est la e ee e e e e moiti de lnergie par symboles associe a lenveloppe complexe et donc : e e e ` Es = 1 2 |h(t)|2 dt = p(0) 2

En utilisant un codage de Gray et si le rapport signal/bruit est susamment grand, on obtient pour le taux derreur par lment binaire : ee TEEB 2 Q log2 (M ) 2Eb sin2 (/M ) log2 (M ) N0

On en dduit que lnergie par bit a pour expression Eb = p(0)/2 log2 (M ). En portant dans lexpression de e e Pe , on obtient : p(0) sin2 (/M ) 2Eb Pe 2Q = 2Q sin2 (/M ) log2 (M ) N0 N0

(2.37)

Pour M = 2, 4 on peut montrer que le TEEB est prcisment donn par : e e e TEEB = Q 2Eb N0 (2.38)

Nous avons reprsent gure 2.22, le rsultat dune simulation : les points () indiquent 500 observations e e e obtenues en MDP-8 lors de lmission du symbole 1 pour un rapport signal sur bruit Eb /N0 = 7 dB. On e voit quune vingtaine de points sont en dehors de la rgion 0 , points qui conduisent donc a une dcision e ` e errone. Cela donne comme estimation de la probabilit derreur par symbole Pe 0.05 et donc pour le e e TEEB 0.015. On peut vrier que le rsultat obtenu est en accord avec la valeur thorique donne gure e e e e 2.23 o` nous avons reprsent le TEEB dune MDP-M en fonction du rapport signal sur bruit Eb /N0 en dB u e e et pour direntes valeurs de M . e

56

Chapitre 2

D0 0 D7

Fig. 2.22 Constellation MDP-8. Les deux demi-droites en trait plein reprsentent e
les sparatrices de la rgion 0 de dcision de n = 0. Les deux demi-droites en e e e pointill reprsentent la partie compte deux fois dans la borne de (2.36). Le diam`tre e e e e en trait plein reprsente la sparatrice entre D0 et D7 . e e

Ecacit spectrale/rapport signal sur bruit e Dapr`s la formule (2.34) et pour = 0 (cas le plus favorable) on a : e = log2 (M ) soit M 2 4 (bits/s/Hz) 1 2 8 16 3 4 (2.39)

Le tableau 2.4 donne les valeurs du rapport signal sur bruit releves sur les courbes de la gure 2.23 e pour TEEB = 105 . reprsente lcart en dB par rapport a la MDP-2. e e ` M Eb /N0 (dB) (dB) 2 4 8 16 9.6 9.6 13 17.4 0 0 3.4 7.8

Tab. 2.4 Rapport signal sur bruit en MDP-M pour un TEEB = 105 . . Nous avons report gure 2.20 les positions ( ) du rapport signal sur bruit en fonction de lecacit e e spectrale. Les valeurs correspondent TEEB = 105 .

2.5

Exercices

Exercice 2.1 Quappelle-t-on dbit binaire ? dbit symbole ? Quelle relation y a-t-il entre ces deux quane e tits ? e Exercice 2.2 Dcrire la modulation MIA-4 utilisant une impulsion rectangulaire NRZ. e Exercice 2.3 On consid`re le signal de transmission numrique x(t) = k ak g(t kT ) o` g(t) est une e e u impulsion et ak une suite de symboles (rels ou complexes) suppose stationnaire au second ordre. On note e e ma = E {an } et Ra (k) = E {(an+k ma )(an ma ) }. Donner une condition ncessaire pour que le spectre de x(t) contienne des composantes harmoniques e aux frquences multiples de 1/T ? Quel intrt cela a-t-il ? e e e Donner une condition susante pour que le spectre de x(t) soit nul autour de la frquence 0. Quel e intrt prsente cette proprit ? e e e ee

57

1
TEEB

10

10

10

10

10

M=2,4

M=8

M=16

10

10

10

10

15

20

Fig. 2.23 TEEB des modulations MDP-M , en fonction du rapport Eb /N0 en dB,
pour M = 2, 4, 8 et 16.

Exercice 2.4 Quappelle-t-on linterfrence entre symboles ? Comment peut-on sen aranchir ? e Exercice 2.5 Donner le crit`re de Nyquist. Quelle condition sur le dbit symbole et la bande impose ce e e crit`re ? e Exercice 2.6 (Fonctions vriant le crit`re de Nyquist) e e 1. On consid`re le signal y(t) dont la e transforme de Fourier scrit Y (f ) = X(f ) R(f ) o` R(f ) = C 1(1/2T,1/2T ) (f ). On rappelle e e u que la transforme de Fourier inverse de R(f ) est r(t) = C sin(t/T )/t. Quelle proprit remarquable e ee a y(t) ? 2. On consid`re X(f ) = 2 cos(f /2b)1(f (b, b)). Dterminer lexpression de x(t) (noter que x(t) est e e la somme de deux exponentielles complexes). 3. On pose b = /2T , o` 0 < < 1. Dans la suite C = T /8b. Dterminer, en fonction de et de T , u e lexpression de Y (f ) = X(f ) R(f ). Exercice 2.7 Quappelle-t-on le diagramme de loeil ? Quelle particularit prsente ce diagramme quand e e lIES=0 ? Exercice 2.8 Dcrire en frquence les fonctions dites en cosinus-surlev. Quappelle-t-on le rollo ? e e e e Comment le rollo intervient-il sur le diagramme de loeil ? Exercice 2.9 Quappelle-t-on la distorsion maximale ? Montrer que, pour les impulsions en cosinussurlev, la distorsion maximale est nulle si on choisit correctement les instants dchantillonnage en sortie e e e du ltre de rception. e Si on scarte de ces instants, comment varie la distorsion maximale en fonction du rollo ? Que e pensez-vous du cas o` le rollo est nul ? u Exercice 2.10 On consid`re une transmission binaire dont la rponse impulsionnelle globale est reprsente e e e e a la gure ci-dessous. La transmission est-elle sans IES ? Tracer le diagramme de loeil correspondant. ` Exercice 2.11 Dcrire la chane dune transmission binaire, sans IES, sur un canal a bande limite (en e ` e bande de base) et soumis a un bruit additif gaussien et blanc. On prcisera les ltres dmission et de ` e e rception. e

58

Chapitre 2

Exercice 2.12 Quappelle-t-on taux derreur par lments binaires ? taux derreur par symbole ? Quelle ee relation simple lie ces 2 quantits ? e Exercice 2.13 Quappelle-t-on lecacit spectrale ? Donner en fonction de la taille de lalphabet de moe dulation et du rollo lexpression de lecacit spectrale. e Exercice 2.14 Pour une transmission binaire sans IES, donner lexpression des chantillons yk en sortie e du ltre de rception. Dterminer, en fonction de la d.s.p. N0 /2 du bruit et du gain du ltre de rception, e e e lexpression de la variance du terme associ au bruit. e Exercice 2.15 On consid`re un canal passe-bas de bande 2400 Hz sur lequel on dsire transmettre, sans e e IES, un dbit de 3600 bits/s a partir dune modulation de modulation utilisant une impulsion NRZ. e ` Dterminer les ltres idaux (IES nulle et minimum de probabilit derreur) dmission et de rception. e e e e e Exercice 2.16 Pour transmettre un dbit binaire de 2 Mbits/s, on utilise une modulation MIA a 4 tats. e ` e La probabilit derreurs par bits est de 105 . On dsire, en conservant une modulation de type MIA, doubler e e le dbit binaire, sur ce mme canal (et donc avec la mme bande), sans toucher a la probabilit derreurs par e e e ` e bits. 1. Quelle doit tre la nouvelle valeur de la taille de lalphabet de modulation ? e 2. De combien de dB faut-il augmenter la puissance ncessaire a lmission ? e ` e On donne pour une probabilit derreurs par bits Pe = 105 : e M Eb /N0 (dB) 2 4 8 16 9.6 13.6 18 22.9 (2.40)

Exercice 2.17 (Transmission en bande de base) On consid`re une source binaire, indpendante, e e quirpartie, dont le dbit est de 10000 bits/s. Le signal mis a pour expression : e e e e s(t) =
k

ak h(t kT )

o` les ak sont une suite de symboles a valeurs dans lalphabet {3, 1, +1, +3}. T dsigne lintervalle de u ` e temps entre deux symboles conscutifs. h(t) est un signal rel, dnergie nie, dont la transforme de Fourier e e e e H(f ) est nulle a lextrieur de la bande de frquence (B, B). On donne B = 3000Hz. Le bruit est une ` e e ralisation dun processus blanc, gaussien, centr, de densit spectrale de puissance N0 /2. On note z(t) = e e e s(t) + b(t) le signal reu. c 1. Calculer la vitesse de modulation 1/T . 2. Indiquer un codage qui minimise le taux derreur par bits. 3. Donner la fonction de transfert du ltre de rception qui minimise la probabilit derreur. e e On note P (f ) la cascade constitue par le ltre dmission H(f ) et le ltre de rception et p(t) sa e e e transforme de Fourier inverse. e 4. A quelle condition sur p(t) a-t-on absence dinterfrence entre symboles a la sortie de lchantillonneur. e ` e 5. On utilise pour P (f ) une fonction en cosinus surlev. Quelle valeur du taux de dbordement faut-il e e e choisir ? 6. Calculer, en fonction de p(t), lnergie moyenne Es par symbole. e 7. En dduire lnergie moyenne Eb par bit. e e 8. Montrer que la variance du bruit a la sortie de lchantillonneur est gale a N0 p(0)/2. ` e e ` 9. Indiquer la r`gle de lorgane de dcision. e e 10. Dterminer lexpression de la probabilit derreur par symboles, en fonction de Eb et de N0 . e e 11. En dduire la probabilit derreur par bits. e e 12. Y a-t-il des raies spectrales dans le signal mis ? Justier la rponse. e e

59 Exercice 2.18 (Variance de lIES) On consid`re, dans une transmission numrique, que le signal en e e sortie du ltre de rception a pour expression r(t) = kZ ak p(t kT ) o` ak est une suite de variables e u alatoires a valeurs dans un alphabet M -aire et telle que ma = E {ak } = 0 et Ra (k) = E {an+k a }. On note e ` n Sx (f ) le spectre de x(t). On suppose que la transmission est sans bruit. On chantillonne le signal r(t) aux instants nT + , ce qui donne, dapr`s lexpression (2.16) : e e r(nT + ) = an p(0) +
k=n

ak p((n k)T ) IES : n

o` n reprsente le terme d a linterfrences entre symboles (IES) dont nous allons calculer la moyenne et u e u` e la variance. 1. Montrer que n sexprime sous la forme dun ltrage linaire : e n =
kZ

ak g(n k)

dont on dterminera la rponse impulsionnelle gn et le gain en frquence en fonction de la transforme e e e e de Fourier P (f ) de p(t) et de p(0). On rappelle que si un dsigne un processus alatoire stationnaire au second ordre de moyenne mu et de e e d.s.p. Su (f ) a lentre dun ltre numrique de rponse impulsionnelle hn et de gain en frquence H(f ) = ` e e e e hn e2jnf alors le processus en sortie vn a pour moyenne mv = mu H(0) et pour d.s.p. : n Sv (f ) = |H(f )|2 Su (f ) Enn on a Rv (n) =
1/2 1/2

Sv (f )e2jf n df .

2. Dterminer E {n }. e 3. Dterminer lexpression de var(n ) en fonction de Sx (f ) (utiliser la formule de Poisson). e 4. Dans le cas dune transmission avec une impulsion en cosinus surlev, comment se comporte var(n ) e e en fonction du facteur de roll-o ? Exercice 2.19 (Transmission sur porteuse) On utilise pour transmettre une source binaire, de dbit e Db = 30000 bits/s, une modulation MDP-8. On suppose que les symboles sont indpendants et quiprobables. e e Le canal est soumis a un bruit additif, gaussien, centr, blanc de densit spectrale de puissance N0 /2. On ` e e note s(t) le signal transmis et z(t) = s(t) + b(t) le signal reu. c 1. Quel est le dbit symbole R = 1/T ? e 2. Donner lexpression du signal modul s(t) ainsi que celle de son enveloppe complexe (on prcisera e e lalphabet de modulation, ainsi que la forme de limpulsion). 3. Indiquer un codage qui minimise le taux derreur par lments binaires. ee 4. Donner le schma de principe du dtecteur qui fournit les composantes en phase et quadrature du signal e e reu z(t). On note respectivement zp (t) et zq (t) ces deux composantes. c 5. Donner lexpression du ltre de rception qui minimise la probabilit derreur. e e 6. Montrer que lexpression des chantillons, observs a la cadence 1/T , en sortie du ltre de rception e e ` e scrit : e rk = dk p(0) + wk 7. Calculer, en fonction de p(t), lnergie moyenne Es par symbole. e 8. En dduire lnergie moyenne Eb par bit. e e 9. On pose wk = pk + jqk . Montrer que pk et qk sont deux variables alatoires gaussiennes, centres, de e e mme variance N0 p(0), indpendantes. e e 10. Indiquer la r`gle de lorgane de dcision. e e 11. Donner sous forme dune intgrale la probabilit derreur par symbole. e e Exercice 2.20 (Choix de la modulation MDP-M ) On souhaite transmettre un dbit de 4.8 kbits/s a e ` travers un canal dont la bande est 3 kHz autour de la frquence f0 = 1.8kHz. Pour cela on utilise une e MDP-M ltr. e

60 1. Dcrire la modulation. Donner lexpression du signal en bande de base. e 2. Comment choisir M pour satisfaire une transmission sans IES ?

Chapitre 2

3. La puissance transmise est 2 W et la d.s.p. du bruit blanc sur le canal est de 0.3 mW/Hz. Quel est le taux derreurs par lment binaire ? ee Exercice 2.21 On dsire transmettre en MDP-M , simultanment et avec le mme TEEB, deux trains e e e numriques de dbits respectifs 4 Mbits/s et 8 Mbits/s. e e 1. Sachant que lon sait raliser des ltres de Nyquist de roll-o = 0.5, donner pour chacun des deux e dbits les bandes ncessaires en MDP-M pour M = 2, 4, 8 et 16. e e 2. Le canal a une bande de 9 MHz. En saidant du tableau 2.4, dterminer quelle est la faon la plus e c conomique, en terme de puissance moyenne transmise ? e 3. Mme question avec un canal de bande de 7.5 MHz. e Exercice 2.22 (MDP-8) On consid`re un modulation MDP-8 points. On suppose que la transmission se e fait sur un canal idal de bande B autour dune frquence f0 et que le bruit est AGB de densit spectrale e e e N0 /2. 1. On note h(t) limpulsion de modulation et p(t) = h(t) h (t). Rappeler lexpression de lenveloppe complexe par rapport a f0 ainsi que celle du signal modul. ` e 2. Dcrire un dispositif qui donne les composantes en phase et en quadrature. e 3. Dcrire la forme du rcepteur optimal. e e 4. Donner lexpression des parties relle et imaginaire des chantillons Yn en sortie du ltre de rception. e e e 5. On suppose que la transmission se fait sans IES. Donner les proprits de lobservation en sortie du ee ltre de rception. e 6. Donner la forme de lorgane de dcision. e 7. Donner lexpression de lnergie moyenne par bit en fonction de p(0) et de M = 8. e 8. On rappelle que les parties relle et imaginaire du bruit sont centres, indpendantes de mme variance e e e e 2 = N0 p(0). Partant de lexpression approche Pe = 2Q(d/2) dterminer le TEEB en fonction de e e Eb /N0 .

61

2.6
2.6.1

Annexes
Preuve de (2.7)

Partant E {x(t + )x (t)} on a : E {x(t + )x (t)} = =


k m k m

E {ak h(t + kT + U )a h (t mT + U )} m + kT + U )h (t mT + U )}

E {ak a } E {h(t m
T 0

=
k m

E {ak a } m

1 h(t + kT + u)h (t mT + u)du T en utilisant que la loi de U est uniforme


t+ kT +T

par indpendance de U et des {ak } e

1 T

(Ra (k m) + |ma |2 ) (Ra (p) + |ma |2 )

t+ kT t+ kT +T

h(v)h (v ( + (m k)T ))dv h(v)h (v ( pT ))dv

1 = T = = 1 T 1 T

t+ kT

+ p

(Ra (p) + |ma |2 )

h(v)h (v ( pT ))dv

(Ra (p) + |ma |2 )chh ( pT ) Ra (p)chh ( pT ) +


Ra ( ) x

1 = T

1 |ma |2 T

chh ( pT )

Rd ( ) x

o` nous avons pos chh (u) = h(u) h (u) dont la transforme de Fourier est Chh (f ) = |H(f )|2 . Pour u e e d obtenir le spectre on traite sparment les deux quantits Rx ( ) et Rx ( ). e e e a a Rx ( ) poss`de une transforme de Fourier donne par : e e e
a Sx (f ) =

1 T

Ra (p)Chh (f )e2jpf T =
p

|H(f )|2 T

Ra (p)e2jpf T
p

d Rx ( ) appara comme la somme des dcales dune mme fonction chh (t). Cest donc une fonction t e e e priodique de priode T , qui, dapr`s la formule de Poisson, scrit : e e e e d Rx ( ) =

|ma |2 T2

Chh (k/T )e2jk /T =


k

|ma |2 T2

|H(k/T )|2 e2jk /T

d Rx ( ) est un mlange harmonique. Son spectre est donc constitu de raies aux frquences k/T et damplitudes e e e respectives |ma |2 |H(k/T )|2 /T 2.

Formule de Poisson Soit (t) un signal de module intgrable et dont la transforme de Fourier (f ) est elle-mme de module e e e intgrable. On a alors pour tout T > 0 : e 1 (t nT ) = T n=
+ +

(k/T )e2jkt/T
k=

(2.41)

62

Chapitre 2

Chapitre 3

Introduction aux codes correcteurs derreur


3.1 Canal binaire symtrique sans mmoire e e

Considrons la cha de transmission reprsente gure 3.1. La modulation est une modulation binaire e ne e e dimpulsions en amplitude MIA-2. Le canal est suppos idal, de bande B et soumis a un bruit additif, gause e ` sien, blanc. On suppose que linterfrence entre symboles est nulle aux instants dchantillonnage (lensemble e e des ltres dmission et de rception vrie le crit`re de Nyquist) et que la probabilit derreur est minimale e e e e e (le ltre de rception est donc le ltre adapt). e e
Bruit AGB Xk kT+ Yk Yk

h(t)

a h(tkT)
k

+ +

Filtre adapt h*( t)

Fig. 3.1 cha de transmission binaire sur un canal de bande B, soumis ` un ne a


bruit additif, gaussien, blanc. Xk est une suite de variables alatoires i.i.d. ` valeurs e a dans {0, 1} et ak = 2Xk 1. h(t) est, par exemple, une racine carre dun ltre en e cosinus-surlev. e e

En considrant le syst`me de transmission de bout en bout, on voit que lentre Xk prend ses valeurs e e e dans lalphabet dentre F2 = {0, 1} de taille 2 et que la sortie Yk du comparateur a seuil prend ses valeurs e ` dans lalphabet de sortie F2 = {0, 1} de taille 2. On a vu chapitre 2 que, dans les conditions dune rception e idale sur le canal de Nyquist, la probabilit derreurs a pour expression : e e p = P {Yk = 1|Xk = 0} = P {Yk = 0|Xk = 1} = Q( 2Eb /N0 ) o` Eb dsigne lnergie par bit et N0 /2 la densit spectrale de puissance du bruit blanc, gaussien. Notons u e e e que la valeur p ne dpend pas de linstant k dutilisation du canal et que, lors dutilisations successives du e canal, les erreurs sont indpendantes : on dit alors que le canal est sans mmoire. e e On peut alors reprsenter la cha de transmission entre Xk et Yk par le schma de la gure 3.2 que e ne e lon dsigne sous le nom de canal binaire symtrique sans mmoire (en abrg CBS). En principe (nous y e e e e e reviendrons chapitre 4) les alphabets dentre et de sortie ne doivent pas tre confondus mme si, comme e e e cest le cas ici, les deux alphabets ont la mme taille et que, par souci de simplicit, on note les lments de e e ee la mme mani`re. e e Tout se passe comme si Xk tait soumis a un bruit additif et que lobservation Yk scrivait : e ` e Yk = Xk Bk o` dsigne laddition modulo 2 (OU exclusif) dans F2 = {0, 1}. Le bruit Bk est une suite de variables u e alatoires, a valeurs dans {0, 1}, indpendantes et identiquement distribues telles que P {Bk = 1} = p. On e ` e e peut aussi voir le CBS suivant le schma de la gure 3.3. e 63

64

Chapitre 3

q 0 Xk 1 q p 1 0 Yk

Fig. 3.2 Canal binaire symtrique. q = 1 p. e

Bk Xk Yk

Fig. 3.3 Canal CBS vu comme un canal additif (modulo 2) binaire : Yk = Xk Bk .

Lutilisation dune dcision dure dans une cha de transmission, comme celle construite autour dune e ne modulation MIA-2, dgrade les performances. Cependant dans beaucoup de syst`mes pratiques, par souci de e e rduction de la complexit, on spare souvent les oprations de modulation et de codage. En se limitant au e e e e cas des entres binaires, on consid`re alors que le canal est un canal binaire symtrique sans mmoire dont la e e e e probabilit derreur est p et on sintresse aux performances des codes construits sur ce canal. Ce paragraphe e e donne une br`ve introduction aux codes correcteurs sur le canal binaire symtrique sans mmoire. e e e

3.2

Dirents types de code e

Nous verrons chapitre 4, dans le cadre de la thorie de linformation, la dnition gnrale dun canal ainsi e e e e que celle dun code (dnitions 4.1 et 4.3). Dans ce chapitre nous nous intressons uniquement aux canaux e e a entre binaire, tel que le CBS, et nous adoptons la dnition suivante : un codeur sur le canal binaire est ` e e un dispositif qui associe a une suite de k bits dinformation une suite de n lments binaires (crite avec ` ee e lalphabet dentre du canal). Lensemble des 2k mots ainsi construits par le codeur et appartenant a Fn est e ` 2 appel le code. Nous le notons C(n, k) o` k reprsente le nombre de bits dinformation, (n k) le nombre de e u e bits de redondance et le rapport : r= le taux de codage (en anglais code rate). log2 (M ) k = n n

Exemple 3.1 (Code ` rptitions sur le canal CBS) On consid`re le code dni par : a e e e e C: 0 000 F3 2 1 111 F3 2

Rponse : Avec les notations prcdentes on a n = 3 et k = 1. Pour des raisons videntes ce code est dit e e e e a rptitions. Son taux de codage est gal a 1/3. ` e e e ` En pratique on sintresse principalement aux codes linaires : il sont tels que, si c1 et c2 dsignent les e e e deux mots-code respectifs des deux suites de k bits d1 et d2 , alors a la suite de k bits d1 d2 est associ le ` e mot-code c1 c2 . Lopration est laddition bit a bit modulo 2 dans F2 . On vrie aisment que le code a e ` e e ` rptitions est linaire. e e e Deux grandes familles de codes linaires existent : les codes en bloc et les codes convolutifs. En fait, e comme nous allons le voir, les codes en bloc ne sont quun cas particulier des codes convolutifs.

65 Code en bloc Dans un code en bloc, les n lments binaires des mots-code sont calculs uniquement avec les k bits ee e dinformation du bloc courant suivant le schma de codage : e [dm dm ] 1 k
bloc numro m: k bits dinformation e

[cm cm ] 1 n
n lments binaires du mot-code ee

o` m dsigne le numro du bloc courant. Dans la suite, quand il ny aura pas dambigu e, nous omettrons u e e t lindice m et nous noterons le bloc courant dinformation d et le mot-code associ c. e On vrie aisment que, pour un code en bloc linaire, le mot-code c sobtient a partir du mot dinfore e e ` mation d par une expression matricielle de la forme : c = dG o` d est un vecteur ligne de dimension 1k et G une matrice de dimensions k n appele matrice gnratrice u e e e du code. Dans le cas binaire, qui est le seul que nous traiterons, la matrice G est constitue de 0 et de 1 e et les sommes sont calcules modulo 2. Nous y reviendrons plus en dtails paragraphe 3.4. En voici deux e e exemples simples. Exemple 3.2 (Code ` rptitions (n, 1)) Nous avons dj` prsent ce code dans lexemple 3.1. Ce code a e e ea e e associe respectivement a k = 1 bit dinformation les deux mots-code suivants : ` d=0 c=0 d=1 c=1 Dterminer sa matrice gnratrice et son taux de codage. e e e Rponse : On vrie aisment que la matrice gnratrice de ce code est : e e e e e G = [1 n 1] 0 1

n n

Son taux de codage est 1/n. Exemple 3.3 (Code parit (n, n 1)) Ce code ajoute un bit, appel bit de parit, a une suite de k = e e e ` (n 1) bits dinformation de faon a ce que le nombre total de 1 du mot-code ainsi form soit pair. On a : c ` e cj cn = = d1 d2 dn1 dj , pour j = 1, , n 1

Dterminer sa matrice gnratrice et son taux de codage. e e e Rponse : Le code de parit a pour matrice gnratrice : e e e e 1 . G = In1 . . 1 o` In1 dsigne la matrice identit de taille n 1. Le taux de codage est (n 1)/n. u e e

66

Chapitre 3

3.3

Dcision optimale sur le canal CBS e

Une fois cods les bits dinformation sont transmis sur le canal. A la rception, partant des mots-code e e reus et comportant, a cause du bruit, des erreurs, il faut trouver une r`gle de dcision qui optimise un c ` e e crit`re comme par exemple celui de maximiser la probabilit de dcision correcte. Ce probl`me entre dans e e e e le cadre de la thorie de la dcision statistique que nous avons prsent section 1.4. e e e e

3.3.1

Un exemple

Avant de donner la solution gnrale de la r`gle de dcision optimale sur le CBS, commenons par e e e e c montrer que le dcodage optimal du code a rptitions (prsent dans lexemple 3.1) sur le canal binaire e ` e e e e symtrique, se prsente comme un probl`me de dcision statistique : a lentre du canal on transmet, de e e e e ` e faon quiprobable, soit le message 0 soit le message 1. Ici M = 2. En sortie du canal, on reoit un des 8 c e c lments y F3 constitus de 3 composantes (y1 , y2 , y3 ) a valeurs dans F2 . En utilisant lhypoth`se que le ee e ` e 2 canal est symtrique et sans mmoire, on dduit que : e e e P {Y = y|X = 0} = (1 p)3dH (y,000) pdH (y,000)
3dH (y,111) dH (y,111)

(3.1) (3.2)

et

P {Y = y|X = 1} = (1 p)

o` dH (y, c) dsigne le nombre de bits, en mme position, qui di`rent entre y et c. u e e e Le dcodage se fait au moyen dune fonction de dcision caractrise par la partition de F3 en deux rgions e e e e e 2 0 et 1 telles que, si lobservation y i , on choisit i. Du fait que les deux rgions 0 et 1 ralisent une e e partition de lespace dobservation F3 et que les deux messages sont quiprobables, la probabilit de dcision e e e 2 correcte sur les mots-code scrit : e Pc = 1 2 P {Y = y|X = 0} + 1 2 P {Y = y|X = 1}

y0

y1

La maximisation de Pc est simple : il sut de mettre dans 0 tous les points y de F3 tels que : 2 P {Y = y|X = 0} > P {Y = y|X = 1} Ce qui scrit : e 0 = {y F3 : P {Y = y|X = 0} > P {Y = y|X = 1}} 2 et de prendre 1 = F3 0 . En utilisant les expressions (3.1) et supposant que p < 1/2, on en dduit que : e 2 0 = {y F3 : dH (y, 000) < dH (y, 111)} 2 et 1 = F3 0 2

Par consquent, pour un code a rptitions sur le canal CBS, la fonction de dcision optimale (dans le sens e ` e e e du maximum de probabilit de dcision correcte sur les mots-code) est : e e g : 000 0 001 0 010 0 011 1 100 0 101 1 110 1 111 1

Dans ce cas la probabilit derreur, Pe = 1 Pc , est minimale et a pour expression : e Pe = 1 1 P {Y 0 |X = 1} + P {Y 1 |X = 0} 2 2 = P {Y = 011|X = 0} +P {Y = 101|X = 0}
p2 (1p)

+P {Y = 110|X = 0} + P {Y = 111|X = 0} = 3p (1 p) + p3 3p2


2

67

3.3.2

Application au CBS : distance de Hamming

Voyons a prsent lexpression de la fonction de dcision pour un code C(n, k) utilis sur le canal binaire ` e e e symtrique. On note ci le mot-code associ au i-`me message. Des hypoth`ses dabsence de mmoire, on e e e e e dduit que : e P {Y1 = y1 , , Yn = yn |X1 = c1 , , Xn = cn } = P {Y = y|X = c} p 1p
dH (y,c)

(3.3) (3.4)

= (1 p)n

o` dH (y, c) dsigne la distance de Hamming entre le mot reu (y1 , . . . , yn ) et le mot-code c C. u e c Dnition 3.1 (Distance de Hamming) Soit x = (x1 , . . . , xn ) et y = (y1 , . . . , yn ) deux suites binaires e appartenant a Fn . On appelle distance de Hamming : ` 2
n

dH (x, y) =
i=1

1(xi = yi )

(nombre de bits qui di`rent entre x et y) e

On vrie que dH (x, y) est une distance sur Fn . La distance dH (x, 0) = H (x) sappelle le poids de x. e 2 Dapr`s lexpression (??) et sous lhypoth`se que les mots-code sont quiprobables, les rgions de vraie e e e semblance maximale sont donnes par : e i = {y Fn t.q. P {Y = y|X = i} P {Y = y|X = j} i = j C} 2 En supposant que p < 1/2 (et donc que p/(1 p) < 1), on peut encore simplier sous la forme : i = {y Fn t.q. dH (y|i) dH (y|j) i = j C} 2 (3.5)

R`gle de dcision optimale e e Dapr`s (3.5), la r`gle de dcision optimale sur le canal binaire symtrique consiste a associer au mot e e e e ` reu y le mot-code le plus proche au sens de la distance de Hamming a savoir : c ` c = arg min dH (y, c)
cC(n,k)

(3.6)

o` y dsigne le mot reu1 . u e c Insistons tout particuli`rement sur le fait que le minimum de distance de Hamming est la r`gle de dcision e e e optimale sur le canal binaire symtrique. Sur un autre canal, la r`gle de dcision est a priori dirente ; e e e e celle-ci doit tre tablie en utilisant lexpression gnrale (??) apr`s avoir dtermin les expressions de e e e e e e e P {Y = y|X = i}. Probabilit derreur e En revenant au canal CBS et en utilisant lexpression (3.3), on dduit lexpression de la probabilit e e derreur par mot-code : Pe (M, n) = 1 M 1 M
M i=1 yi M i=1 yi

P {Y = y|X = ci } (1 p)ndH (y,ci ) pdH (y,ci ) (3.7)

o` i dsigne le complmentaire de i par rapport a Fn , ainsi que lexpression de la probabilit de dcision u e e ` 2 e e correcte : Pc (M, n) = 1 M 1 M
M i=1 yi M i=1 yi

P {Y = y|X = ci } (1 p)ndH (y,ci ) pdH (y,ci ) (3.8)

=
1 argf

dsigne largument de la fonction f . e

68

Chapitre 3

e Notons que ces expressions se prtent mal au calcul car les rgions i , qui dpendent du choix du code, e e ont en gnral des formes compliques. Cest pourquoi on sintresse, en pratique, a lobtention de bornes e e e e ` infrieures ou suprieures plus facilement calculables. En particulier on peut montrer (voir annexe 3.6.1) e e que : Pe (M, n) (M 1)[4p (1 p)]dmin /2 (3.9) o` dmin est la distance minimale entre deux mots-code dnie par : u e Dnition 3.2 (Distance minimale dun code) Soit un code C(n, k) sur le canal binaire. On appelle e distance minimale du code la quantit : e dmin = min dH (x, y)
x=yC

Dans la suite nous noterons un code sous la forme C(n, k, dmin). Le rsultat suivant est fondamental : e Proprits 3.1 (Capacit de correction dun code) On consid`re un code C(n, k, dmin ) sur le canal e e e e binaire symtrique. On note2 : e t= Alors ce code corrige t erreurs. En eet, choisissons un entier u qui vrie 2u + 1 dmin et supposons que le mot reu y comporte u erreurs e c avec le mot mis c. Cela scrit dH (y, c) = u. En utilisant lingalit triangulaire, on a alors quel que soit le e e e e mot-code c = c, dH (y, c ) dH (c, c ) dH (y, c) dmin u u + 1 > dH (y, c). En conclusion, c = c, on a dH (y, c ) > dH (y, c), ce qui signie que y est bien le mot-code le plus proche de c. Par consquent la e r`gle du maximum de vraisemblance conduit a une dcision correcte, a condition que le nombre t derreurs e ` e ` soit infrieur au plus grand entier u qui vrie 2u + 1 dmin , ce qui donne t = (dmin 1)/2. e e Dans le cas o` le mot reu comporte entre (t + 1) et (dmin 1) erreurs et donc que t + 1 dH (y, c) u c dmin 1, alors quel que soit le mot-code c = c, dH (y, c ) 1 qui signie que lobservation reue nest pas c un mot-code. Mais la r`gle du minimum de distance peut conduire a une dcision errone, puisquil peut e ` e e exister un mot-code c qui vrie dH (y, c ) < dH (y, c). De faon plus gnrale, on a : e c e e Proprits 3.2 (Correction, dtection) Un code peut corriger erreurs et dtecter erreurs, avec e e e e , si dmin + + 1. Remarques sur les eacements Souvent lorsque le symbole reu est ambigu lors une dcision dure (par exemple, niveau proche de 0 c e pour une MIA-2) ou quand le rcepteur saperoit dune anormalit dans la dmodulation, un ou plusieurs e c e e symboles peuvent tre eacs au lieu dtre vu comme une valeur de lalphabet. Alors tout mot comportant e e e g eacements peut tre corrig si dmin g + 1. e e Tout mot contenant erreurs et g eacements peut tre corrig si dmin 2 + g + 1. e e Une borne suprieure sur t e Une condition ncessaire pour quun code corrige t erreurs est que les ensembles des mots a la distance e ` 1, 2, . . ., t (voir gure 3.4) des M = 2k mots-code soient disjoints. Il faut donc que :
1 2 t 2n 2k (1 + Cn + Cn + + Cn )

dmin 1 2

Quand lgalit est vrie on dit que le code est parfait. e e e e Exemple 3.4 (Code ` rptitions (n, 1, n)) La distance minimale du code a rptitions est dmin = n. La a e e ` e e r`gle de dcision optimale consiste a eectuer un vote majoritaire. Ce code corrige (n 1)/2 erreurs. e e ` Exemple 3.5 (Code parit (n, n 1, 2)) Ce code est dni dans lexemple 3.3. Sa distance minimale est e e dmin = 2. Ce code ne corrige pas derreur par contre il permet den dtecter une. e
2 x

dsigne la partie enti`re de x dnie par x N et tel que x x < x + 1. e e e

69

Fig. 3.4 Les M = 2k mots-code et leurs sph`res de dcision associes aux distances e e e
1,. . ., t. Si on veut que le code corrige t erreurs, il faut que les sph`res de rayon t e t soient disjointes, et par consquent que 2n > M (1 + n + + Cn ). e

Taux derreurs par lment binaire (TEEB) ee Considrons un code C(n, k, dmin ), sur le canal CBS de probabilit derreur p. Ce code corrige t erreurs. e e j Par consquent les rgions de vraisemblance maximale i contiennent au moins les Cn mots distants de j t e e du mot-code associ a cette rgion. En se reportant a la formule (3.8), on peut crire : e` e ` e
1 t (1 p)ndH (y,Ci ) pdH (y,Ci ) (1 p)n + Cn (1 p)n1 p + + Cn (1 p)nt pt

yi

On en dduit une borne infrieure de la probabilit de dcision correcte : e e e e


1 t Pc (1 p)n + Cn (1 p)n1 p + + Cn (1 p)nt pt

et donc, pour la probabilit derreur, la borne suprieure : e e


n 1 Pe 1 (1 p)n Cn (1 p)n1 p = j=t+1 j Cn pj (1 p)nj

(3.10)

Si on sintresse, a prsent, au taux derreur par lments binaires (TEEB), dont lexpression est donne e ` e ee e par : TEEB = 1 M
M i=1 yi

dH (y, ci ) 1 (1 p)ndH (y,ci ) pdH (y,ci ) = n M

TEEBi
i=1

(3.11)

le calcul est, l` encore, en principe tr`s compliqu. Il faut en eet se donner un code et en conna lensemble a e e tre des distances entre mots-code3 On peut toutefois obtenir lexpression approche suivante : e
n

TEEB

j=t+1

j+t j j Cn p (1 p)nj n

(3.12)

En eet considrons un code qui corrige t erreurs et supposons que le canal introduise j erreurs, avec j t+1 e au mot-code mis ci . Au dcodage on va, dans le pire des cas, en modier t de plus (pour peu quil existe un e e mot-code a la distance t du mot reu !). Le taux derreur est alors de (j + t)/n et, donc conditionnellement ` c au mot-code mis ci , on a : e n j+t j j Cn p (1 p)nj TEEBi n j=t+1 En portant dans lexpression (3.11) on obtient lexpression (3.12). Dans le cas o` p 1, cette expression se u simplie si on consid`re uniquement le terme dordre t + 1. On aboutit alors a une formule pratique du taux e ` derreurs par lments binaires dont lexpression est : ee TEEB 2t + 1 t+1 t+1 Cn p n (3.13)

3 Il pourrait para tre plus raisonnable, de prime abord, de choisir le code et de construire la r`gle de dcision de faon a e e c ` minimiser directement le TEEB. La raison qui conduit a prfrer minimiser, comme nous lavons fait, la probabilit derreur ` ee e par mot-code est que la rsolution de ce probl`me est bien plus simple. e e

70 Gain de codage en modulation MIA-2

Chapitre 3

Dans le cas o` le canal CBS est obtenu a partir dune transmission binaire sur le canal de Nyquist, on a u ` vu que sans codage la probabilit derreur est donne par : e e p=Q 2E0 N0

o` N0 /2 dsigne la d.s.p. du bruit AGB et o` E0 dsigne lnergie mise en jeu a chaque utilisation du canal. u e u e e ` Si on dispose, pour transmettre la source dune nergie moyenne par bit gale a Eb et que lon utilise un e e ` code (n, k, d), lnergie moyenne disponible a chaque utilisation du canal est donc : e ` k Eb n Par consquent la probabilit derreur avec codage, en eectuant une dcision ferme, a pour expression : e e e E0 = TEEB(ac) = 2t + 1 t+1 t+1 Cn Q n k 2Eb n N0 (3.14)

Cette expression est a comparer a celle de la probabilit derreur sans codage qui scrit : ` ` e e TEEB(nc) = Q 2Eb N0 (3.15)

Pour une mme probabilit derreur, le syst`me sans codage ncessite en principe un rapport signal sur e e e e bruit fois plus grand. La quantit 20 log10 (), exprime en dB, sappelle le gain de codage. On verra, page e e 75, une application numrique pour un code de Hamming. e Supposons que lon veuille obtenir un code C(70, 50) pour le canal CBS, cest-`-dire un code transmettant a 50 bits dinformation avec 20 bits de redondance. On montre alors quen tirant au hasard les 250 mots-code parmi le 270 mots possibles, il y a de grandes chances de tomber sur un tr`s bon code. Toutefois, la fonction e de dcision, donne par (3.6) bien que simple, est dicile a mettre en uvre avec un algorithme pratique. Il e e ` faut en eet comparer le mot reu aux 250 mots-code ; mme a raison de une comparaison par nanoseconde c e ` cela fait tout de mme 13 jours de calcul ! Cest pourquoi on a t conduit a rechercher des codes dont e ee ` la structure facilite lalgorithme de dtermination du mot-code le plus proche. Les codes en bloc et, plus e gnralement, les codes convolutifs ont une telle proprit. e e ee

3.4
3.4.1

Codes linaires en bloc e


Proprits gnrales e e e e
k

Dnition 3.3 Le code (n, k) est dit linaire en bloc si les 2k mots de codes ont pour expression : e e c=
i=1

di gi

(3.16)

o` les coecients di F2 et o` les gi sont k vecteurs-ligne, constitus de Fn , supposs linairement u u e e e 2 indpendants. Les oprations daddition et de multiplication sont eectues modulo 2. e e e Notons que les vecteurs-ligne gi sont eux mme des mots-code. Ils sont supposs linairement indpendants e e e e car il est, en eet, raisonnable dexiger que, si d1 = d2 , alors c1 = c2 . Ils forment donc une base du sousespace de Fn engendr par G. Ce sous-espace est de dimension k. En crivant lexpression (3.16) sous forme e e 2 matricielle on a : 1 n g1 g1 . . . c = d G o` G = . u . .
1 gk

et o` d est lun des M = 2k vecteurs-ligne de longueur k qui reprsentent les messages dinformation a u e ` transmettre. La matrice G est appele matrice gnratrice du code. Elle est, dapr`s la remarque ci-dessus, e e e e de rang plein k. Et on a : d1 = d2 d1 G = d2 G

n gk

71 Code mis sous forme systmatique e Rappelons quun code est principalement le choix de 2k points dans lespace Fn et que les performances 2 sont essentiellement lies aux inter-distances entre ces points. Les deux remarques qui suivent conduisent a e ` la notion de forme systmatique dun code en bloc linaire : e e combinaisons linaires des lignes de G : dapr`s la dnition dun code linaire en bloc, toute opration e e e e e de changement de base, qui sobtient par combinaisons linaires des lignes de G, conduit aux mmes e e mots-code. Ce qui change est ltiquetage des 2k mots-code par les suites de k bits dinformation. Par e consquent, la probabilit derreur par mot-code sur le CBS est inchange. e e e permutation des colonnes : soit C un code linaire en bloc associ a la matrice G. La permutation des e e` colonnes de G conduit a un code C dont la matrice gnratrice scrit G = G o` dsigne une ` e e e u e matrice de permutation. On sait que cette opration laisse la matrice gnratrice G de rang plein. Par e e e contre elle change le code. Les mots-code de C sobtiennent par une mme permutation des mots-code e de C. Toutefois cette opration ne modie les inter-distances des mots-code de ces deux codes et, par e consquent, la probabilit derreur par mot-code sur le CBS reste inchange. e e e En conclusion tout changement de base (sur les lignes) et toute permutation des colonnes de la matrice gnratrice dun code laissent inchange la probabilit derreur par mot-code sur le CBS. On peut alors, par e e e e un choix judicieux de la base et des permutations, amener la matrice gnratrice4 sous la forme : e e G= Ik | Pk(nk) (3.17)

o` Ik est la matrice identit de dimension k. On dit alors que le code est mis sous forme systmatique. La u e e matrice P de dimensions k (n k) est appele la matrice de parit du code. Dans ce cas, les 2k mots-code e e commencent par les k bits dinformation et sont complts par (n k) bits de redondance, sous la forme ee (ligne) : c = d G = d1 dk p1 pnk On verra (proprits 3.5) que, lorsque G est mise sous forme systmatique, la dtermination de la matrice ee e e H telle que HGT = 0 est simple. Exemple 3.6 On consid`re le code linaire (7, 4) e e 1 1 0 1 G= 0 0 0 0 dni par la matrice gnratrice : e e e 0 1 0 0 0 1 0 1 0 0 1 1 0 1 0 0 1 1 0 1

Vrier que la matrice est de rang plein puis la mettre sous forme systmatique. e e

Rponse : Il faut choisir k colonnes de G tels que la sous-matrice de dimensions k k soit inversible, ce e qui est toujours possible puisque la matrice G est suppose de rang plein. Sur notre exemple on note que la e sous-matrice : 1 1 0 1 0 1 1 0 G4 = 0 0 1 1 0 0 0 1

construite sur les 4 premi`res colonnes est inversible puisque son dterminant est gal a 1. Il nest donc pas e e e ` utile deectuer de permutation. Il faut ensuite de trouver 4 combinaisons linaires des vecteurs-ligne de G, caractrises par une matrice e e e de dimension 4 4, telles que : G = I4 P obtenue. On en dduit G4 = I4 . Un calcul e 0 1 1 1

o` I4 est la matrice identit de taille 4. On note F la matrice u e sans dicult donne : e 1 1 1 0 1 1 1 = G4 = 0 0 1 0 0 0


4 Il

est clair que les k vecteurs-ligne de G, dnie par (3.17), sont indpendants et donc que G est de rang plein. e e

72 En consquence la matrice sous forme systmatique e e 1 1 G = 0 F = G4 0 0 Distance minimale de ce code a pour expression : 0 0 0 1 1 0 1 0 0 0 1 1 0 1 0 1 1 1 0 0 1 1 0 1

Chapitre 3

Nous avons vu le rle dterminant de la distance minimale dans le calcul des performances. En principe, la o e dtermination de lexpression de la distance minimale dun code est souvent complique : il faut en principe e e 2 calculer CM distances puis dterminer la plus petite. Pour les codes linaires on a le rsultat suivant : e e e Proprits 3.3 (Distance minimale) La distance minimale dun code linaire en bloc est le poids du e e e mot-code de poids minimale autre que 0 : dmin = min H (c)
c=0

En eet soit c1 = c2 , d(c1 , c2 ) = H (c1 c2 ) = 0. Comme c1 c2 appartient au code (puisque le code est linaire), la recherche du minimum de d(c1 , c2 ) = 0 est quivalent a la recherche du minimum de H (c) pour e e ` tout mot-code c = 0. La dtermination de dmin ne ncessite alors que le calcul de 2k 1 poids. e e Codes de Hamming Un code de Hamming est dni, pour une valeur de m donne, par (2m 1, 2m 1 m, 3). On note que, e e pour un code de Hamming, on a 2n = 2k (1 + n). Cela signie que chacun des 2k mots utiles est entour des n e mots a la distance 1. Par consquent un code de Hamming ne corrige quune erreur et sa distance minimale ` e est 3. Son taux de codage est donn par : e r = (2m 1 m)/(2m 1) qui est une fonction croissante de m. Exemple 3.7 (Code de 1 0 G= 0 0 Hamming (4, 7, 3)) le code de Hamming (7, 4, 3) a pour matrice gnratrice : e e 0 0 0 1 0 1 1 0 1 1 1 1 1 0 0 1 1 1 = I4 | P4,3 o` P4,3 = u 1 1 0 0 1 0 1 1 0 0 0 1 0 1 1 0 1 1

Dnition 3.4 (Matrice de contrle de parit) Soit un code linaire C(n, k) de matrice gnratrice G. e o e e e e On appelle matrice de contrle de parit une matrice H de dimensions (n k) n et de rang plein (n k) o e qui vrie : e HGT = 0 GHT = 0 (3.18)

On en dduit que G et H dcomposent lespace Fn en deux sous-espaces complmentaires C et C de dimene e e sions respectives k et (n k) et tels que, pour tout x Fn , il existe un unique couple (x1 , x2 ) C C , tel que x = x1 x2 . Comme G et H sont de rang plein, on en dduit alors quil existe un unique couple e (d1 , d2 ) Fk Fnk , tel que : x = d1 G d2 H On a le rsultat fondamental suivant : e Proprits 3.4 (Caractrisation dun mot-code) x code xHT = 0 e e e Condition ncessaire : si x code x = a G xHT = a GHT = 0 dapr`s la dnition (3.18) de e e e H. Condition susante : supposons que xHT = 0. Dapr`s (3.19), x peut scrire x = d1 G d2 H. En e e multipliant a droite par HT , il vient 0 = 0 d2 HHT = 0 qui implique que d2 = 0 puisque H est de rang ` plein. Et donc x scrit x = d1 G qui signie que x appartient au code. e (3.19)

73 Dnition 3.5 (Syndrome) On appelle syndrome associ a y le vecteur de Fnk dni par s = HyT . e e` e Une consquence directe de la proprit (3.4) est que le syndrome de y est nul si et seulement si y appartient e ee au code. Proprits 3.5 Soit un code linaire dont la matrice gnratrice G est mise sous forme systmatique. Alors e e e e e e la matrice de contrle de parit H a pour expression : o e H= (PT )(nk)k | I(nk) (3.20)

En eet, dune part HGT = PT PT = 0, et dautre part H est de rang (n k), puisque les (n k) lignes de H sont constitues des vecteurs de Ink complts par ceux de P. e ee Une consquence directe est que : e Proprits 3.6 Pour un code linaire en bloc la distance minimale dmin est gale au plus petit nombre de e e e e colonnes dpendantes de la matrice H. e En eet, dapr`s la proprit 3.3, pour un code linaire la distance minimale est gale au poids du mot-code e ee e e de poids minimal. Or dapr`s la proprit 3.4, HxT = 0. Ce qui dmontre la proprit. e ee e ee Il sensuit une borne suprieure tr`s simple de la distance minimale. e e Proprits 3.7 (Borne suprieure simple de dmin ) Pour un code linaire en bloc : e e e e dmin n k + 1 (3.21)

En eet, considrons un code linaire dont la distance minimale est gale a dmin et supposons que le rang e e e ` r de H vrie r < dmin 1. On peut alors trouver (r + 1) colonnes de H qui soient lies et donc construire e e un vecteur u non nul de poids r + 1 tel que HuT = 0. Mais dapr`s la proprit 3.4, u appartient au code e ee et son poids est strictement infrieur a dmin . Ce qui est impossible puisque le code est suppos avoir comme e ` e distance minimale dmin . On en dduit que le rang de H, qui est gal a (n k), vrie r = (n k) dmin 1 e e ` e qui est le rsultat annonc. e e Proprits 3.8 Pour quun code linaire en bloc corrige t erreurs, il doit avoir au moins 2t bits de redone e e dance. En eet, dapr`s la proprit 3.1, pour corriger t erreurs, il faut que 2t dmin 1. En appliquant (3.21) il e ee vient le rsultat annonc. e e Notons que la borne suprieure donne par (3.21) est tr`s grande. Elle indique toutefois que si on veut e e e augmenter dmin , dans le but de diminuer la probabilit derreur, alors il faut augmenter n k = n(1 k/n) e et donc augmenter n, si on souhaite garder k/n constant.

3.4.2

Dcodage par le syndrome e

La proprit 3.4 permet de tester lappartenance dun mot quelconque de longueur n au code engendr ee e par la matrice G. Supposons quon transmette sur le CBS le mot-code c. Alors le mot reu scrit y = c b c e o` le vecteur de bruit b est un vecteur alatoire a n composantes F2 dont les 1 indiquent les positions u e ` des erreurs introduites par le canal. On a alors, dapr`s la proprit 3.4, HyT = HbT . Par consquent on a : e ee e Proprits 3.9 Soit un code linaire C de matrice de contrle de parit H. On note y = c b le mot reu e e e o e c sur le CBS. Alors le vecteur de bruit b vrie : e s = HbT o` s = HyT dsigne le syndrome associ a y. u e e` Ce rsultat est une consquence directe de la proprit 3.4 et du fait que y = c b. e e ee La proprit est remarquable car elle indique que le syndrome, qui se calcule a partir de lobservation ee ` et de la matrice de contrle de parit, ne dpend que du bruit mais pas du mot-code mis. On peut donc o e e e esprer pouvoir dduire b de la connaissance de H et de lobservation y. Une fois b connu, on peut dduire e e e c simplement en crivant que y = c b est quivalent a : e e ` c=yb

74 Syndrome nul

Chapitre 3

La r`gle du maximum de vraisemblance sur le CBS consiste a prendre le mot-code le plus proche du mot e ` reu. Par consquent, si le syndrome nul, il faut prendre le mot reu comme le mot-code le plus vraisemblable. c e c Si le code est systmatique, il sut alors dextraire les k premiers bits du mot reu. Cela ne signie pas e c que le mot mis soit le mot reu. Il peut avoir eu un nombre derreurs tel que, partant dun mot-code, on e c aboutisse a un autre mot-code. Ce que nous enseigne la thorie de la dtection statistique est que la dcision ` e e e optimale, dans le sens du minimum de la probabilit derreur moyenne, est de faire conance a la r`gle du e ` e minimum de distance. Syndrome non nul Si le syndrome s, calcul a partir de lobservation, nest pas nul et quil existe un unique vecteur b de poids e` minimum qui vrie s = HbT , alors le mot-code le plus proche du mot observ y est donn par c = y b. e e e Dans le cas o` lquation s = HbT a plusieurs solutions de poids minimum, on peut choisir lune quelconque u e pour dterminer c = y b. Dans le cas dun code systmatique, on en dduit ensuite d en ne conservant e e e que les k premiers bits. Exemple 3.8 (Code de Hamming (7, 4, 3)) Reprenons gnratrice est : e e 1 0 0 0 1 0 1 0 0 1 G= 0 0 1 0 1 0 0 0 1 0 On en dduit la matrice de contrle de parit e o e 1 H = 0 1 : 1 1 1 1 1 0 0 1 1 0 1 0 le code de Hamming (7, 4, 3) dont la matrice 0 1 1 1 1 1 0 1

1. On reoit y = [1 0 1 0 0 1 1]. Dterminer le message mis le plus vraisemblable. c e e 2. Mme question si on reoit y = [0 0 1 1 1 0 0]. e c 3. On met le message d = [0 1 1 0]. Dterminer le mot-code mis. Dterminer les dirents syndromes e e e e e associs a zro erreur, a une erreur en position 3, a deux erreurs en position 4 et 5, a deux erreurs en e ` e ` ` ` position 2 et 4. Dduire dans chaque cas le mot-code dcid. e e e

0 0 1 0 0 1

Exemple (corrig) 3.4.1 e 1. Si y = [1 0 1 0 0 1 1], alors s = HyT = [0 0 0]T . On en dduit que y est e un mot-code. On dcide que le mot-code mis est [1 0 1 0 0 1 1]. Comme le code est systmatique, le e e e message est donc d = [1 0 1 0]. 2. Si y = [0 0 1 1 1 0 0], alors s = Hy T = [0 0 1]T . On note que s est la 7-`me colonne de H. Par consquent e e H[0 0 0 0 0 0 1]T = [0 0 1]T et b = [0 0 0 0 0 0 1] est le vecteur contenant un seul 1 et qui, ajout a y, e` donne un syndrome nul. On en dduit que le mot-code le plus proche de y est [0 0 1 1 1 0 1]. On dcide e e donc d = [0 0 1 1]. 3. d = [0 1 1 0] c = [0 1 1 0 0 0 1] et on a : sil ny a pas derreur, le syndrome est nul. Le mot reu est prcisment le mot-code mis et la c e e e dcision est d = [0 1 1 0]. On na aucun bit erron. e e sil y a une seule erreur en position 3, le mot reu est y = [0 1 0 0 0 0 1] et le syndrome est [1 1 0] qui c est la 3-`me colonne de H. Dans ce cas, le mot-code le plus proche du mot reu est = [0 1 1 0 0 0 1] e c c et d = [0 1 1 0]. Le code corrige le bit erron. e sil y a deux erreurs, respectivement en position 4 et 5, le mot reu est y = [0 1 1 1 1 0 1] et le syndrome c est alors [1 1 1] qui est aussi le syndrome dune seule erreur en position 2. Dans ce cas le mot-code le plus proche du mot reu est c = [0 0 1 1 1 0 1]. Par consquent la r`gle de dcision optimale nous c e e e oblige a dire que d = [0 0 1 1]. On a donc 2 bits errons. ` e sil y a deux erreurs, respectivement en position 2 et 4, le mot reu est y = [0 0 1 1 0 0 1] et le syndrome c est alors [1 0 0] qui est aussi le syndrome dune seule erreur en position 5. Dans ce cas le mot-code le plus proche du mot reu est c = [0 0 1 1 1 0 1]. Par consquent la r`gle de dcision optimale nous c e e e = [0 0 1 1]. On a encore 2 bits errons. oblige a dire que d ` e

75 En rsum, sur le canal binaire symtrique : e e e labsence derreur donne un syndrome nul, la prsence de t erreurs donne un syndrome qui est la somme de t colonnes de H. Par consquent, si le e e syndrome observ correspond a plusieurs sommes possibles de colonnes de H, la r`gle du minimum de e ` e distance de Hamming nous conduit a prendre la somme comportant le moins de termes pour modier les ` lments du mot reu. Si plusieurs sommes comportant le moins de termes sont gales, cela signie quil ee c e y a plusieurs mots-code quidistants du mot reu et on choisit lune quelconque de ces combinaisons e c pour modier le mot reu. c On peut aussi, si on dispose dune voie de retour, adopter un protocole de demande de rmission ee lorsque la distance de Hamming entre le mot reu et le mot-code trouv dpasse un certain seuil. c e e Insistons sur le fait que ces conclusions sont troitement lies a lutilisation du code sur le CBS. En eet e e ` elles se dduisent, en partie, de lquation s = HbT . Le mme code considr sur un autre canal donne des e e e e e capacits de dtection et de correction direntes. Ainsi sur le canal a eacements, un code C(n, k, dmin ) e e e ` corrige dmin 1 eacements (voir exercice 3.2). Signalons enn que la mthode de dcodage utilisant le calcul du syndrome est rapidement impraticable e e d`s lors que n et k deviennent grands. Cest pourquoi des classes particuli`res de codes ont t tudies, e e ee e e en particulier les codes BCH (voir section 3.4.3) pour lesquels des algorithmes de dcodage simples ont t e ee trouvs. e Gain de codage et limite fondamentale En se reportant a lexpression (3.14) donnant le taux derreur par lments binaires sur le canal CBS ` ee obtenu a partir dune transmission MIA-2 sur le canal de Nyquist avec dcision ferme, on a pour un code de ` e Hamming qui corrige 1 erreur : TEEB(ac) = 3(n 1) 2 Q 2 k 2Eb n N0 o` n = 2m 1 et k = 2m 1 m u (3.22)

Nous avons reprsent, gure 3.5, le taux derreur par lments binaires en fonction du rapport signal sur e e ee bruit Eb /N0 , exprim en dB, pour le syst`me sans codage (quation 3.15) et pour le syst`me utilisant un e e e e code de Hamming (quation 3.22) pour m = 3,4 et 5. Pour une probabilit derreur de 105 , on rel`ve e e e respectivement pour m = 3,4 et 5, comme gains de codage environ 0.5, 1 et 1.6 dB.
10
2

10

10

10

10

10

Fig. 3.5 Probabilit derreur en fonction du rapport signal sur bruit Eb /N0 exprim e e en dB. Courbe en trait plein : probabilit derreur sans codage. Courbes en trait poine till : probabilit derreur avec codage de Hamming : m = 3 (),m = 4 (),m = 5 e e (). A TEEB = 105 , on rel`ve comme gains de codage 0.5, 1 et 1.6 dB. e La gure 3.5 indique au concepteur dun syst`me de transmission numrique le gain quil obtient en terme e e de rapport signal sur bruit avec un codage. Considrons, par exemple, un syst`me de transmission qui utilise e e

76

Chapitre 3

une modulation numrique MIA-2 sur un canal idal avec un ltrage de Nyquist. La courbe de la gure 3.5 e e indique quil faut un rapport signal sur bruit de 9.6 dB pour avoir, sans codage, un TEEB gal a 105 tandis e ` quil ne faut que 8 dB pour un syst`me utilisant un code de Hamming (31, 26, 3), soit un gain denviron 1.6 dB. e Laspect exceptionnel de la dcouverte de C. Shannon est quil existe, dans un certain sens, une limite e fondamentale au gain de codage. En eet pour une ecacit spectrale = 2 bit/s/Hz, qui est celle de la e 1 MIA-2, la formule 2.5 de la capacit dun canal gaussien, que nous rappelons ici Eb /N0 = 2 , nous indique e quil sut que Eb /N0 = 3/2 soit 1.76 dB pour obtenir les mmes performances (en fait inniment mieux, e puisquon peut atteindre, en principe, une probabilit derreur aussi faible que lon veut !). Compar au 9.6 e e dB dun syst`me sans codage, cela signie que lon peut, en thorie, avoir un gain de codage denviron 8 dB. e e Des codes plus compliqus que les codes de Hamming prcdents, utiliss en transmission spatiale dans les e e e e annes 80, donnaient des gains de lordre de 6 a 7 dB. En tout il manquait encore 1 a 2 dB. La dcouverte, e ` ` e en 1993, des turbo-codes par C. Berrou et A. Glavieux a repouss cette limite a quelques dixi`mes de dB de e ` e la limite fondamentale prvue par C. Shannon. e

3.4.3

Codes cycliques

Les principales proprits qui ont orient la recherche des codes en bloc sont la facilit dimplantation et ee e e de dcodage, la capacit a corriger un grand nombre derreurs, la capacit a corriger des erreurs intervenant e e` e` par paquets, la capacit a retrouver une perte de synchronisation, etc. Tous ces objectifs ont fait que la e ` recherche sest concentre plus particuli`rement sur une petite sous-classe de codes en bloc : les codes dits e e cycliques. Dnition 3.6 (Code cyclique) On dit quun code linaire en bloc est cyclique si tout dcalage circulaire e e e dun mot-code est un autre mot-code. Cette dnition sugg`re de traiter les mots-code dun code cyclique (n, k) comme les coecients dun poe e lynme de degr infrieur ou gal a (n 1), et dassocier au mot-code c = {cn1 , cn2 , , c1 , c0 }, le o e e e ` polynme : o c(D) = cn1 Dn1 c1 D c0 o` les coecients de ce polynme sont les composantes dun mot-code a valeurs dans F2 = {0, 1}. De la u o ` mme mani`re, partant du mot-code cm = {cnm1 , cnm2 , , c1 , c0 , cn1 , , cnm }, obtenu en dcalant e e e le mot-code c de m positions vers la gauche avec 0 m n 1, on peut introduire le polynme : o cm (D) = cnm1 Dn1 cnm+1 D cnm

Exemple 3.9 On consid`re un code cyclique C(n, k) avec n = 4. On note c(D) et cm (D) les polynmes e o associs a un mot-code et a son dcal de m vers la gauche. Dterminer lexpression du polynme p(D) = e ` ` e e e o Dm c(D) cm (D) pour m = 3. Montrer que p(D) est divisible par (Dn 1). Exemple (corrig) 3.4.2 Il vient : e p(D) = = = D3 (c3 D3 c2 D2 c1 D1 c0 ) c0 D3 c3 D2 c2 D c1 c0 (D3 D3 ) c1 (D4 1) c2 (D5 D1 ) c3 (D6 D2 ) (D4 1)(c1 c2 D c3 D2 )

qui montre que p(D) est divisible par Dn 1. On en dduit que Dm c(D) = (D4 1)(c1 c2 Dc3 D2 )cm (D). e Lexemple 3.9 se gnralise sans dicult et on peut noncer : e e e e Proprits 3.10 Le polynme c(D) associ a un mot-code et le polynme cm (D) associ a son dcal e e o e ` o e ` e e circulaire de m pas vers la gauche, avec m < n, vrient : e cm (D) = Dm c(D) mod (Dn 1) (3.23)

77 Voyons comment engendrer un code cyclique. Pour cela choisissons un polynme g(D) de degr (n k) o e qui soit un diviseur de (Dn 1) et considrons les 2k polynmes, de degr infrieur ou gal a (k 1), de la e o e e e ` forme : d(D) = dk1 Dk1 d1 D d0 Posons : c(D) = g(D)d(D) (3.25) (3.24)

Le polynme c(D) est de degr infrieur ou gal a (n 1) et ses coecients reprsentent un mot-code dun o e e e ` e code cyclique. En eet, dapr`s (3.23), un dcalage cyclique de c(D) donne le polynme : e e o cm (D) = Dm c(D) q(D)(Dn 1) En utilisant c(D) = g(D)d(D) il vient : cm (D) = Dm d(D)g(D) q(D)(Dn 1) Comme, par hypoth`se, g(D) divise (Dn 1), g(D) divise cm (D) ce qui scrit cm (D) = g(D)dm (D) o` e e u dm (D) est un polynme de degr infrieur ou gal a (k 1). dm (D) est donc lun des 2k polynmes dont la o e e e ` o forme est donne par (3.24). Par consquent, un dcalage cyclique dun mot-code dni par (3.25) fournit e e e e un autre mot-code. En conclusion on a le rsultat suivant : e Thor`me 3.1 Tout code cyclique C(n, k) est engendr par un diviseur g(D) de degr (n k) de (Dn 1) e e e e et tout diviseur de degr (n k) de (Dn 1) engendre un code cyclique C(n, k). g(d) sappelle le polynme e o gnrateur du code. e e Les mots-code dun code cyclique (n, k), associ au polynme gnrateur g(D) de degr (n k) diviseur de e o e e e (Dn 1), sont donns par : e c(D) = d(D)g(D) o` le polynme d(D) de degr (k 1) peut prendre 2k valeurs. Dans la suite on note : u o e g(D) = gnk Dnk g0 , o` gnk = g0 = 1 u Intressons-nous a prsent a la matrice gnratrice G dun code cyclique. Il est clair que lensemble des e ` e ` e e k mots-code associs aux polynmes : e o {Dk1 g(D), Dk2 g(D), , Dg(D), g(D)} (3.26)

sont indpendants. Par consquent, ils engendrent une base pour le code. On peut donc les utiliser pour e e construire la matrice gnratrice mais celle-ci ne se prsentera pas, en gnral, sous forme systmatique. Elle e e e e e e scrit : e gnk g0 0 0 0 0 gnk g0 0 0 . . .. .. .. . G= . (3.27) . . . . . 0 0 gnk g0 0 0 0 0 gnk g0 Exemple 3.10 Considrons le cas n = 15. e 1. Vrier que polynme g(D) = D8 D7 D6 D4 1 de degr 8 divise D15 1. e o e 2. En dduire une matrice gnratrice du code cyclique (15, 7). e e e Exemple (corrig) 3.4.3 e 1. En eectuant la division euclidienne de D15 1 par g(D) on obtient D15 8 7 6 4 1 = (D D D D 1)(D7 D6 D4 1). Par consquent g(D) engendre un code cyclique e (15, k). Comme k = n et que le degr du polynme g(D) est = 8 , on en dduit que k = 7. e o e

78 2. En utilisant la construction donne e 1 1 1 0 1 1 0 0 1 G= 0 0 0 0 0 0 0 0 0 0 0 0 par (3.26), on obtient : 0 1 1 1 0 0 0 1 0 1 1 1 0 0 0 1 0 1 1 1 0 0 0 1 0 1 1 1 0 0 0 1 0 1 1 1 0 0 0 1 0 1 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1

Chapitre 3

Exemple 3.11 On vrie que : e

D7 1 = (D 1)(D3 D2 1)(D3 D 1) Dterminer une matrice gnratrice des deux codes cycliques (7, 4). En dduire les mots-code respectifs. e e e e Exemple (corrig) 3.4.4 De la dcomposition de D7 1, on peut considrer soit le facteur g(D) = (D3 e e e D2 1) soit le facteur g(D) = (D3 D 1). Considrons tout dabord g(D) = (D3 D2 1). Dapr`s (3.26), on a : e e 1 1 0 1 0 0 0 0 1 1 0 1 0 0 G1 = 0 0 1 1 0 1 0 0 0 0 1 1 0 1 Les seize mots-code de G1 sont : d 0000 : 0001 : 0010 : 0011 : c 0000000 0001101 0011010 0010111 d 0100 : 0101 : 0110 : 0111 : c 0110100 0111001 0101110 0100011 d 1000 : 1001 : 1010 : 1011 : c 1101000 1100101 1110010 1111111 d 1100 : 1101 : 1110 : 1111 : c 1011100 1010001 1000110 1001011

Il y a sept mots-code qui sont obtenus par dcalage circulaire du mot-code 0001101, sept autres mots-code e par dcalage du mot-code 0010111 et les deux mots-code, lun tout a 0 et lautre tout a 1. e ` ` Considrons maintenant de g(D) = (D3 D 1). Dapr`s (3.26), on a : e e 1 0 1 1 0 0 0 0 1 0 1 1 0 0 G2 = 0 0 1 0 1 1 0 0 0 0 1 0 1 1 qui donnent les seize mots-code : d 0000 : 0001 : 0010 : 0011 : c 0000000 0001011 0010110 0011101 d 0100 : 0101 : 0110 : 0111 : c 0101100 0100111 0111010 0110001 d 1000 : 1001 : 1010 : 1011 : c 1011000 1010011 1001110 1000101 d 1100 : 1101 : 1110 : 1111 : c 1110100 1111111 1100010 1101001

Il y a sept mots-code qui sont obtenus par dcalage circulaire du mot-code 0001011, sept autres mots-code e par dcalage du mot-code 0100111 et les deux mots-code, lun tout a 0 et lautre tout a 1. Sur le CBS, les e ` ` deux codes sont quivalents. e Construction de la matrice dun code cyclique sous forme systmatique e Intressons-nous a prsent a la forme systmatique de la matrice G dun code cyclique. On montre que e ` e ` e les k lignes de la matrice gnratrice, mise sous forme systmatique, dun code cyclique sobtiennent de faon e e e c unique a partir dun polynme g(D) de degr r = (n k) par la procdure suivante dcrite dans le tableau ` o e e e 3.1. On rappelle que g(D) est de degr r = (n k) et par consquent, la ligne (k j) du tableau comporte e e un 1 en position (r + j) a partir de la droite du tableau 3.1 et donc, un 1 en colonne k j dans la matrice ` gnratrice. e e

79 ligne k . . . kj . . . 1 polynme o k (D) = g(D) D si r kj (D) = 0 kj+1 (D) kj (D) = D kj+1 (D) g(D) sinon D (D) si r 1 (D) = 0 2 1 (D) = D 2 (D) g(D) sinon

Tab. 3.1 Algorithme de construction de la matrice sous forme systmatique dun code cyclique. s q(D) e dsigne le coecient du terme de degr s du polynme q(D). e e o Exemple 3.12 On vrie que le polynme g(D) = D4 D 1, de degr n k = 4, divise D15 1. En e o e utilisant la procdure dcrite page 79, dterminer a partir de g(D) la matrice du code cyclique (15, 11) crite e e e ` e sous forme systmatique. e Exemple (corrig) 3.4.5 A chaque tape le polynme obtenu est multipli par D. Sil appara alors un e e o e t terme de degr 4, on ajoute g(D). En passant, par rcurrence, de la ligne 11 a la ligne 1, on obtient : e e ` polynme o 11 (D) = g(D) = D D 1
6 3 4

ligne 11 10 9
3 2 2

10 (D) = D11 (D) = D5 D2 D 9 (D) = D10 (D) = D D D


7 8

8 (D) = D9 (D) g(D) = D D D 1 7 (D) = D8 (D) g(D) = D D 1 6 (D) = D7 (D) = D D D


9 3

8 7 6 5 4 3 2 1

5 (D) = D6 (D) g(D) = D10 D2 D 1 4 (D) = D5 (D) = D11 D3 D2 D 3 (D) = D4 (D) g(D) = D 2 (D) = D3 (D) g(D) = D 1 (D) = D2 (D) g(D) = D qui donne la matrice gnratrice : e e 1 0 0 1 0 0 0 0 0 0 G= 0 0 0 0 0 0 0 0 0 0 0 0
12 13 14 3 3 3

D D D1 D D 1 D 1
2

0 0 1 0 0 0 0 0 0 0 0

0 0 0 1 0 0 0 0 0 0 0

0 0 0 0 1 0 0 0 0 0 0

0 0 0 0 0 1 0 0 0 0 0

0 0 0 0 0 0 1 0 0 0 0

0 0 0 0 0 0 0 1 0 0 0

0 0 0 0 0 0 0 0 1 0 0

0 0 0 0 0 0 0 0 0 1 0

0 0 0 0 0 0 0 0 0 0 1

1 1 1 1 0 1 0 1 1 0 0

0 1 1 1 1 0 1 0 1 1 0

0 0 1 1 1 1 0 1 0 1 1

1 1 1 0 1 0 1 1 0 0 1

Exemple 3.13 (Code de Golay) On consid`re le polynme gnrateur g(D) = D11 D9 D7 D6 e o e e D5 D 1. On vrie que g(D) est un diviseur de D23 1. Par consquent g(D) engendre un code cyclique e e 1 2 3 (23, 12, 7) appel code de Golay. On vrie que 2n = 2k (1 + Cn + Cn + Cn ). Le code de Golay est un code e e

80

Chapitre 3

e e e parfait. Sa distance minimale est dmin = 7. On en dduit quil corrige t = 3 erreurs. Dterminer la probabilit derreur sur les mots-code sur le CBS de probabilit derreur p. e Exemple (corrig) 3.4.6 puisque le code de Golay est parfait la probabilit derreur par mot-code est e e donne par lexpression : e
n

Pe =
j=4

j 4 C23 pj (1 p)23j C23 p4

(3.28)

o` lapproximation suppose que p 1. Dans le cas, o` le CBS considr correspond a une transmission u u e e ` binaire sur le canal AGB avec dcision ferme, p = Q( ) avec = (k/n)2Eb /N0 . e Figure 3.6, nous avons report la probabilit derreur, en fonction du rapport Eb /N0 , pour le code de e e Golay sur le canal a entre binaire issu dune transmission sur le canal AGB. Nous avons considr le cas ` e e e du CBS issu dune dcision ferme. Nous avons reprsent lexpression exacte (3.28) , la borne suprieure e e e e expression (3.9). Nous avons aussi indiqu la borne suprieure sur la canal a dcision ferme expression (??). e e ` e

10

10

10

10

(a)

(b)

(c)

10

10

10

12

Fig. 3.6 Comparaison des expressions de la probabilit derreur par mot-code, en e


fonction du rapport signal sur bruit Eb /N0 , pour le code de Golay (23, 12) sur le canal ` entre binaire, issu dune transmission idale sur le canal AGB. Figure (b) : a e e expression exacte (3.28) sur le canal ` dcision ferme (CBS). Figure (c) : expression a e (3.9) de la borne suprieure pour une dcision ferme. Figure (a) : expression (??) de e e la borne suprieure pour une dcision douce. e e

Codes BCH On montre que, pour tout couple dentiers m et t, il existe un code cyclique de param`tres : e n = 2m 1 et k n mt Ces codes sont dits BCH des noms de leurs dcouvreurs : Bose, Chaudhuri et Hocquenghem. On montre que e la distance minimale est donne par : e dmin = 2t + 1 En faisant t = 1, on trouve que les codes de Hamming sont un cas particulier de codes BCH. Comme nous lavons montr, les polynmes gnrateurs sont les diviseurs de Dn 1. Ceux-ci ont t tabuls pour des e o e e ee e degrs tr`s levs allant jusqu` m = 34. Les codes BCH forment une sous-classe tr`s importante des codes e e e e a e cycliques. Lune des principales raisons est que Peterson et Weldon [?] ont trouv un algorithme de dcodage e e ecace qui a rendu possible, en pratique, limplantation de codes BCH de tr`s grande longueur dans les e syst`mes de communications numriques. e e

81 Syndrome pour un code cyclique Supposons que la transmission sur un canal bruyant saccompagne dun vecteur derreurs b de longueur n. Le mot reu scrit alors y = c b. Il sensuit que y(D) = c(D) b(D) o` : c e u y(D) = yn1 Dn1 y1 D y0 et b(D) = bn1 Dn1 b1 D y0

Dnition 3.7 (Syndrome) Soit le code cyclique de polynme gnrateur g(D). On appelle syndrome associ e o e e e a lobservation y(D), le reste de la division euclidienne de y(D) par g(D). Ce qui scrit : ` e y(D) = (D)g(D) s(D) o` le polynme s(D) est de degr strictement infrieur a (n k). u o e e ` Proprits 3.11 On a : e e s(D) = 0 si et seulement si y appartient au code. s(D) est le reste de la division de b(D) par g(D). En eet en utilisant la relation y(D) = c(D) + b(D) et c(D) = d(D)g(D), on obtient : b(D) = ((D) d(D))g(D) s(D) La deuxi`me proprit est importante pour le dcodage. Ayant observ y, on en dduit tout dabord s(D). e ee e e e Puis : si s(D) = 0, alors le mot reu est un mot-code, c si s(D) = 0, alors : si lun des n polynmes b(B) o` un seul bi est non nul donne comme reste s(D), il y a un mot-code o u a la distance 1 du mot reu. Il sobtient en faisant y b. ` c 2 sinon si lun des Cn polynmes b(B) o` seuls deux coecients sont non nuls donne comme reste o u s(D), il y a un mot-code a la distance 2 du mot reu. Il sobtient en faisant y b. ` c etc. Proprits 3.12 Soit un code cyclique C(n, k) de polynme gnrateur g(D). Si s(D) est le syndrome associ e e o e e e au bruit b(D), alors le syndrome associ au bruit obtenu par dcalage circulaire de b(D) de positions vers e e la gauche est le reste de la division de D b(D) par g(D). En eet D b(D) caractrise le vecteur-bruit dcal de positions sur la gauche. On a D b(D) = e e e D q(D)g(D) D s(D) qui montre que le reste de la division de D b(D) par g(D) est aussi le reste de la division de D s(D) par g(D).

Matrice de contrle de parit dun code cyclique o e Soit un code cyclique C(n, k) de polynme gnrateur g(D) et soit h(D) dni par g(D)h(D) = Dn 1 o e e e (rappelons que g(D) divise DN 1.). h(D) scrit : e h(D) = hk Dk h0 , avec hk = h0 = 1 Quel que soit le mot-code c(D), on a : Dans le terme de droite, il ny a aucun terme de la forme Dj+k1 pour 1 j n k. Par identication avec le membre de gauche, le coecient de Dj+k1 vrie : e pour tout 1 j n k. Matriciellement cela scrit HcT = 0 o` e u h0 hk 0 0 0 h0 hk 0 . .. .. .. H= . . . . . 0 0 h0 hk 0 0 0 h0 hk cnj h0 cnjk = 0 0 0 . . . 0 hk h(D)c(D) = h(D)d(D)g(D) = d(D)(Dn 1) = d(D)Dn d(D)

Par consquent H est la matrice de contrle de parit et on a HGT = 0 o` G est donne par (3.27). e o e u e

82 Dtection derreurs par paquet avec un code cyclique e

Chapitre 3

Supposons que le canal introduise p erreurs successives. On dit que les erreurs arrivent par paquet (en anglais burst). Cette situation se rencontre, par exemple, lorsque le rcepteur se trouve a proximit dun e ` e syst`me qui produit un intense et brusque rayonnement lectromagntique comme la mise en route dun e e e moteur. En gnral les codes bons pour le canal binaire symtrique ne sont pas ncessairement bons pour e e e e dtecter/corriger des paquets derreurs. Cependant les codes cycliques ont quelques bonnes proprits. e ee Thor`me 3.2 Tout code cyclique (n, k) peut dtecter tout paquet derreurs dont la longueur est infrieure e e e e ou gale a (n k). e ` En eet, dans le cas o` le canal introduit un paquet de p erreurs conscutives en position , le syndrome u e est le reste de la division de D (1 D Dp1 ) par le polynme gnrateur g(D). Mais dune part D o e e nest pas un multiple de g(D) et dautre part, si (p 1) (n k) 1, alors (1 D Dp1 ) nest pas un multiple de g(D). Il sensuit que le reste nest pas nul et le paquet derreurs est dtect. e e Indiquons ici quune technique pratique pour traiter les paquets derreurs est dutiliser un entrelaceur (en anglais interleaver). Un entrelaceur est un dispositif qui r-ordonne les suites de symboles. Typiquement il e sagit dune matrice que lon remplit par lignes et que lon relit par colonnes. Ainsi les symboles dun mme e mot-code ne seront plus transmis conscutivement (voir exercice ??). e

3.5

Exercices

Exercice 3.1 Un code C(100, 50, 10) est-il prfrable a un code C(50, 25, 5) ? Existe-t-il un code linaire ee ` e C(24, 16, 10) ? Exercice 3.2 (Canal ` eacement) On consid`re le canal a eacement reprsent gure 3.7 a e ` e e
0 p 1 0 1

Fig. 3.7 Canal ` eacements a On utilise sur ce canal un code C(n, k, dmin ). Combien ce code corrige-t-il deacements ? (remarque : ce canal ne fait pas derreur contrairement au canal CBS). Rponse : t = dmin 1. e Exercice 3.3 Soit le code linaire de matrice gnratrice e e e 1 0 G = I3 1 1 1 1 : 1 1 0 1 1 0

1. Dterminer la matrice de contrle de parit. e o e 2. On suppose quapr`s transmission il y a une erreur en position i. Dterminer le syndrome correspone e dant. En dduire que lon peut corriger une erreur. e 3. On suppose quil y a deux erreurs en position i et j. Dterminer le syndrome correspondant. Peut-on e corriger 2 erreurs ? Peut-on dtecter deux erreurs ? e

3.6
3.6.1

Annexes
Preuve de (3.9)
M i=1

Partant de lexpression (3.8), la probabilit derreur est donne par : e e 1 Pe (M, n) = M P Y i |X = ci

83 e e e o` la suite C = {ci } dsigne lensemble des mots-code et M le nombre de mots-code supposs de mme u probabilit 1/M . Les rgions de dcision sont dnies par : e e e e i = {y Fn t.q. P {Y = y|X = ci } > P {Y = y|X = cj } , j = i} 2 On note : Lj|i = {y Fn t.q. P {Y = y|X = cj } > P {Y = y|X = ci }} 2 Lj|i reprsente la rgion associe a cj dans une dtection binaire de ci contre cj . Il est clair que : e e e ` e i = j=i Lj|i En utilisant la borne de lunion, qui dit que P {i Ai } Pe (M, n) 1 M
M i=1 j=i i

P {Ai }, on a : (3.29)

P Y Lj|i |X = ci

Nous allons a prsent dterminer, pour le CBS, un majorant de P Y Lj|i |X = ci en fonction de la ` e e distance de Hamming dH (i, j) entre ci et cj . Rappelons quil sagit a prsent dune dcision binaire entre ` e e les deux mots-code ci et cj qui di`rent par dH (i, j) bits. On pose uij = dH (i, j)/2 qui implique que e dH (i, j)/2 < uij + 1. La r`gle de dcision utilisant le minimum de distance de Hamming permet dcrire e e e que :
dH (i,j)

P Y Lj|i |X = ci

m CdH (i,j) pm q dH (i,j)m m=uij +1 dH (i,j) m CdH (i,j) pm q dH (i,j)m 1pm uij + 1

(3.30)

m=0

o` on a pos q = 1 p. On suppose que p < 1/2 et donc = q/p > 1. Montrons que, pour tout m, on a : u e 1pm uij + 1 mdH (i,j)/2 (3.31)

En eet, si m < uij + 1, alors le membre gauche est nul. Et si m uij + 1, alors 1 mdH (i,j)/2 puisque > 1 et que m dH (i, j)/2 > m (uij + 1) 0 qui est une consquence du choix de dH (i, j)/2 < uij + 1. e En portant (3.31) dans (3.30), il vient :
dH (i,j)

P Y Lj|i |X = ci

m CdH (i,j) pm q dH (i,j)m (q/p)mdH (i,j)/2 m=0

= [4p(1 p)]dH (i,j)/2 En portant cette expression dans (3.29), on obtient : Pe 1 M [4p(1 p)]dH (i,j)/2

j=i

Comme 4p(1 p) 1 et que i,j dmin , un autre majorant est : Pe (M 1)[4p(1 p)]dmin /2 qui est lexpression (3.9).

84

Chapitre 3

Chapitre 4

Elments de thorie de linformation e e


4.1
4.1.1

Capacit dun canal de transmission e


Notion de canal de transmission

Que doit-on entendre par a envoie un message a b ? Nous entendons par l` que a agit physiquement ` a de faon a induire chez b un tat dsir. Le processus physique qui sert a laccomplissement de cette c ` e e e ` action est toujours soumis a des perturbations incontrles qui rend la rception incertaine. On dira que ` oe e la communication est russie si a et b sont daccord ce qui a t envoy. Le nombre de messages que lon e ee e peut envoyer de faon russie lors de n utilisations du canal est une fonction exponentielle de n. Lexposant c e sappelle la capacit du canal. e Plus prcisment la source est un mcanisme qui met un message parmi M messages possibles. A chaque e e e e message de source est associe une suite de n actions sur les entres du canal. Le nombre dentre peut tre e e e e ni, dnombrable ou non dnombrable. Cette suite produit n ralisations parmi les tats de sortie du canal. e e e e Le nombre dtats de sortie peut tre ni, dnombrable ou non dnombrable. Lobjectif du transmetteur e e e e est de retrouver les suites dentres mises et donc, par consquent, les symboles de source envoys. e e e e Malheureusement les suites observes ct rception sont, a cause des perturbations sur le canal, alatoires. e o e e ` e Cela provoque une certaine confusion sur les symboles mis par la source. Le thor`me de codage de canal e e e dit que, malgr la confusion apparente, on peut retrouver le message dentre avec une probabilit derreur e e e aussi faible que lon veut, a condition que log2 (M )/n soit infrieur a une quantit appele la capacit du canal. ` e ` e e e Le cas le plus simple est un canal comportant deux entres et deux sorties : laction sur lune des e deux entres provoque chez le destinataire la ralisation de lune des deux sorties. Si la valeur de cette e e sortie Y ne dpend que de la derni`re action sur lentre X, on dira que le canal est sans mmoire. Il peut e e e e alors tre reprsent par le schma de la gure 4.1 qui est caractris par les 4 probabilits conditionnelles e e e e e e e P {Yk = i|Xk = j}, o` j X = {0, 1} et i Y = {0, 1}, avec P {Yk = 0|Xk = j} + P {Yk = 1|Xk = j} = 1. u

0 1
q

1q 1p

0 1

Fig. 4.1 Canal binaire sans mmoire. Les probabilits conditionnelles e e P {Yk = 0|Xk = 0} = p, P {Yk = 1|Xk = 0} = 1 p, P {Yk = 0|Xk = 1} = 1 q, P {Yk = 1|Xk = 1} = q ne dpendent pas des entres passes. e e e

Il en ressort quun canal est caractris par un alphabet dentre, un alphabet de sortie et une loi de e e e probabilit de la sortie conditionnellement a lentre. e ` e 85

86

Chapitre 4

4.1.2

Exemples

Dans ce paragraphe nous allons voir que, partant de lexemple physique dun syst`me de communication, e il est possible de mettre en vidence plusieurs types de canaux de transmission suivant les endroits o` lon e u place, le long de la cha ne, lentre et la sortie du canal. Ces canaux di`rent par leur alphabet dentre, e e e leur alphabet de sortie et par leur loi de probabilit conditionnelle. e Considrons une cha de transmission binaire utilisant une modulation dimpulsions a deux niveaux e ne ` (en abrg MIA-2), sur un canal de bande B, soumis a un bruit additif, gaussien, blanc. On suppose que e e ` linterfrence entre symboles est nulle aux instants dchantillonnage (lensemble des ltres dmission et de e e e rception vrie le crit`re de Nyquist) et que la probabilit derreur est minimale (le ltre de rception est e e e e e le ltre adapt). e
Bruit AGB Xk

h(t)

a h(tkT)
k

+ +

Filtre adapt h*( t)

kT+ Yk Zk

Fig. 4.2 cha de transmission binaire sur un canal de bande B, soumis ` un ne a


bruit additif, gaussien, blanc. Xk est une suite de variables alatoires i.i.d. ` valeurs e a dans {0, 1} et ak = 2Xk 1. h(t) est, par exemple, une racine carre dun ltre en e cosinus-surlev. e e

Canal binaire symtrique e Considrons tout dabord le syst`me de transmission de bout en bout, dont lentre Xk est lentre du e e e e codeur, qui prend ses valeurs dans lalphabet dentre {0, 1} de taille 2 et dont la sortie Zk est la sortie e du comparateur a seuil, qui prend ses valeurs dans lalphabet de sortie {0, 1} de taille 2. On a vu dans le ` chapitre communications numriques que, dans les conditions dune rception idale sur le canal de Nyquist, e e e on a les probabilits suivantes : e p = P {Zk = 1|Xk = 0} = P {Zk = 0|Xk = 1} = Q( 2Eb /N0 ) o` Eb dsigne lnergie par bit et N0 /2 la densit spectrale de puissance du bruit blanc. u e e e On peut alors reprsenter lensemble par le schma de la gure 4.3 que lon dsigne sous le nom ce canal e e e binaire symtrique (en abrg CBS). e e e

q 0 p 1 q 1 0

Fig. 4.3 Canal binaire symtrique. q = 1 p. e

Notons que dune part p est indpendant de linstant dutilisation du canal et que dautre part, lors e dutilisations successives du canal, les erreurs sont indpendantes : on peut dire que le canal est alors sans e mmoire. Tout se passe comme si la sortie tait soumise a un bruit additif et scrivait : e e ` e Zk = Xk Bk o` dsigne lopration OU EXCLUSIF et o` Bk est un bruit binaire, cest-`-dire une suite de variables u e e u a alatoires, a valeurs dans {0, 1}, indpendantes et identiquement distribues telles que P {Bk = 1} = p. e ` e e

87 Canal binaire ` dcision douce a e Considrons a prsent que, sur la cha de transmission prcdente, nous plaons la sortie Yk apr`s e ` e ne e e c e lchantillonneur qui suit le ltre de rception (qui est le ltre adapt dans le cas dune rception optimale). e e e e Depuis lentre Xk jusqu` la sortie Yk de lchantillonneur, on dispose dun canal dont lalphabet dentre e a e e est lensemble {0, 1} et dont lalphabet de sortie est R. Nous avons vu chapitre 2 que lobservation scrit e Yk = ak + Wk o` ak = 2Xk 1 et o` Wk est une suite de variables gaussiennes, centres, indpendantes u u e e 2 entre elles, de mme variance 2 = E Wk = N0 /2Eb . Par suite Yk suit une loi de probabilit gaussienne e e dont la densit de probabilit conditionnellement aux deux symboles dentre a pour expression : e e e pYk |Xk =0 (y) = et pYk |Xk =1 (y) = 1 exp((y 1)2 /2 2 ) 2 1 exp((y + 1)2 /2 2 ) b 2

o` 2 = N0 /2Eb . u Le canal obtenu est reprsent gure 4.4. Il est dit a dcision douce1 . Nous verrons plus loin la raison du e e ` e choix de ce terme.
0 (y) pY|X=0 Y 1 pY|X=1 (y)

Fig. 4.4 Canal binaire ` dcision douce a e

Canal ` eacement a Partons toujours dune transmission binaire sur la canal de Nyquist en prsence dun bruit additif, e gaussien, blanc. Mais considrons a prsent que la sortie du canal est la sortie dun organe de dcision, mis e ` e e apr`s lchantillonneur, et qui fonctionne de la faon suivante : e e c si Yk > e > 0 il ache la valeur Vk = 1, si e Yk e il ache la valeur Vk = , enn si Yk < e il ache la valeur Vk = 0. On a alors un canal dont lalphabet dentre est binaire {0, 1} et dont lalphabet de sortie est ternaire e {0, , 1}. Dapr`s lexpression des lois de probabilits de Yk conditionnellement a Xk , on obtient comme loi e e ` conditionnelle de Vk par rapport a Xk les expressions suivantes : ` P {Vk = 0|Xk = 0} = P {Vk = 1|Xk = 1} = Pc P {Vk = 0|Xk = 1} = P {Vk = 1|Xk = 0} = q P {Vk = |Xk = 1} = P {Vk = |Xk = 0} = p o` u q = P {Vk e|0} = Q( 2(Eb + e)/N0 )

Pc = P {Vk e|1} = 1 Q( 2(Eb e)/N0 ) p = 1 Pc q

En pratique q 0 et le canal peut tre reprsent par le schma de la gure 4.5 avec p Q( 2(Eb e)/N0 ). e e e e Le canal obtenu porte le nom de canal a eacements. `
1 En

anglais on emploie le terme soft decision par opposition au terme hard decision utilis pour dsigner la dcision ferme e e e

88

Chapitre 4

0 p 1

0 1

Fig. 4.5 Canal ` eacements a

Canal gaussien Reprenons encore le cas dune transmission sur le canal de Nyquist en prsence dun bruit additif, gaussien, e blanc. Mais considrons a prsent que lentre du canal est la sortie du ltre dmission chantillonne. e ` e e e e e Lchantillonnage en sortie du ltre dmission est justi puisque le signal est a bande limite et peut donc e e e ` e tre remplac par la suite de ses chantillons, si la cadence dchantillonnage est suprieure a deux fois la e e e e e ` bande. On note Uk la suite obtenue. La sortie du canal est la sortie Yk de lchantillonneur de rception. e e On a alors un canal dont lentre Uk et a la sortie Yk sont a valeurs dans R. Tout se passe comme si on e ` ` avait : Yk = Uk + Bk o` Bk est un bruit additif gaussien, blanc, cest-`-dire une suite de variables alatoires gaussiennes, u a e 2 indpendantes, centres, de mme variance B . En supposant que Uk et Bk sont indpendantes, lobsere e e e vation Yk , conditionnellement a Uk , suit une loi de probabilit gaussienne dont la densit est : ` e e pYk |Uk (y) = (y uk )2 1 exp 2 2B B 2

4.1.3

Dnitions e

Dnition 4.1 (Canal discret) Un canal discret est constitu dun alphabet dentre X de taille nie, e e e dun alphabet de sortie Y de taille nie et dune loi de probabilit de transition note p(y|x). On le note e e {X , p(y|x), Y}. La loi p(y|x) est caractrise par les probabilits : e e e P {Y = y|X = x} o` x X et y Y et qui vrie pour tout x : u e
yY

P {Y = y|X = x} = 1

Dnition 4.2 (Extension dordre n sans mmoire et sans voie de retour) Lextension dordre n e e sans mmoire et sans voie de retour dun canal discret {X , p(y|x), Y} est le canal {X n , p(y n |xn ), Y n } o` : e u
n

P {Yn = yn , . . . , Y1 = y1 |Xn = xn , . . . , X1 = x1 } = Remarquons que lexpression (4.1) peut se dduire de : e absence de mmoire e

k=1

P {Yk = yk |Xk = xk }

(4.1)

P {Yk = yk |Xk = xk , . . . , X1 = x1 , Yk1 = yk1 , . . . , Y1 = y1 } = P {Yk = yk |Xk = xk } absence de voie de retour P {Xk = xk |Xk1 = xk1 , . . . , X1 = x1 , Yk1 = yk1 , . . . , Y1 = y1 } = P {Xk = xk |Xk1 = xk1 , . . . , X1 = x1 }

89 Dnition 4.3 ((n, M )-code) Un (n, M )-code pour le canal {X n , p(y n |xn ), Y n } est dni par la donne : e e e dun ensemble M = {1, . . . , M } de M indices (messages), dune application c : M X n , et dune application g : Y n M, appele r`gle de dcision. e e e c(i) = (c1 (i), , cn (i)) est appel un mot-code. e Dnition 4.4 On appelle probabilit derreur maximale dun (n, M )-code sur le canal {X n , p(y n |xn ), Y n } : e e Pe (M, n) = max P {g(Y1 , . . . , Yn ) = i|c(i)}
iM

= max
iM yY n

P {(Y1 , . . . , Yn ) = y|c(i)} 1(g(y) = i)

Dnition 4.5 (Capacit) Soit un (n, M )-code sur le canal {X n , p(y n |xn ), Y n }. On note r = log2 (M )/n e e le taux de codage (qui se mesure en bits par utilisation du canal). On dit que r est acceptable si Pe,max (M, n) tend vers 0 quand n tend vers linni. La plus grande valeur de r est appele la capacit. e e Thor`me 4.1 (Codage de canal) Soit {X , p(y|x), Y} un canal sans mmoire. Sa capacit est donne e e e e e par : C = max I(X, Y ) (4.2)
PX

o` PX dsigne lensemble de toutes les lois de probabilit sur X et o` u e e u I(X, Y ) =


xX yY

P {X = x, Y = y} log2

P {X = x, Y = y} P {X = x} P {Y = y}

(4.3)

I(X, Y ) sappelle linformation mutuelle entre X et Y . Thor`me 4.2 (Rciproque du thor`me de capacit) Soit un (n, M )-code dni sur le canal e e e e e e e {X n , p(y n |xn ), Y n } (voir dnition 4.3) avec M = 2nr , soit r = log2 (M )/n. On note Pe (M, n) la probabilit e e derreur moyenne dnie par : e
M

Pe (M, n)

=
i=1

1 P {g(Y1 , . . . , Yn ) = i|Xn = cn (i), . . . , X1 = cn (i)} n 1 M

= P {i = g(Y1 , . . . , Yn )} Alors on a : C 1 Pe (M, n) 1 r nr o` C dsigne la capacit du canal. Si r > C, Pe (M, n) est borne infrieurement par une quantit strictement u e e e e e positive. Il existe une forme plus forte de ces rsultats : on montre que, si r < C, la probabilit derreur tend e e exponentiellement vers 0 quand n tend vers linni et si r > C la probabilit derreur tend exponentiellement e vers 1. La capacit reprsente, pour le dbit, une valeur critique qui spare le cas des communications s res e e e e u de celles qui ne le sont pas. Lien avec le dbit binaire en bits/s : si Db dsigne le dbit binaire, en nombre de bits par unit de e e e e temps, de la source a lentre du canal et Wc le nombre moyen dutilisations du canal par unit de temps, il ` e e sen suit que lon a : log2 (M ) Db r= = n Wc et donc Db < CWc , formule qui tablit la limite, en bits/s, du dbit pour avoir une communication s re. En e e u pratique C est souvent dtermin par le rapport signal sur bruit et Wc par la bande passante en frquence e e e du canal. Proprits 4.1 La capacit vrie : e e e e C 0,

90 C min{log2 (cardX ), log2 (cardY)}

Chapitre 4

Nous verrons paragraphe 4.2.2 comment montrer ces proprits. Rappelons simplement ici les rsultats ee e suivants qui sont souvent utiles dans le calcul de la capacit : e P {X = x, Y = y} = P {Y = y|X = x} P {X = x} P {X = x} = yY P {X = x, Y = y} P {Y = y} = xX P {X = x, Y = y}. Par consquent lexpression (4.3) peut encore scrire : e e I(X, Y ) =
xX yY

P {X = x, Y = y} log2

P {Y = y|X = x} P {Y = y}

La formule de la capacit donne par lexpression (4.2) est encore vraie : e e dans le cas des alphabets continus cest-`-dire lorsque les lois de probabilit poss`dent une densit a e e e (par rapport a la mesure de Lebesgue). Il sut, dans ce cas, de remplacer, dans I(X, Y ), le signe ` somme par le signe intgrale et les probabilits par des densits : e e e I(X, Y ) =
X

=
X

pXY (x, y) dxdy pX (x)pY (y) Y pY |X (x, y) dxdy pXY (x, y) log2 pY (y) Y pXY (x, y) log2

dans le cas o` lon impose des contraintes sur lentre cest-`-dire des contraintes sur lensemble PX u e a des lois de probabilits sur X . Ainsi dans lexemple 4.6 on calcule la capacit du canal gaussien sous e e la contrainte que lentre est de moyenne nulle et de variance gale a X . e e ` 2

4.1.4

Calculs de capacit e

Canal CBS Partant de la loi de transition de param`tre p = P {Z = 0|X = 1} = P {Z = 1|X = 0} et dune loi de e probabilit quelconque sur lentre, loi qui est caractrise par P {X = 0} = et P {X = 1} = 1 avec e e e e (0, 1), on a : I(X, Y ) = (1 p) log2 1p (1 p) + (1 )p p +p log2 p + (1 )(1 p) p +(1 )p log2 (1 p) + (1 )p 1p +(1 )(1 p) log2 p + (1 )(1 p)

q 0 p 1 q 1 0

Fig. 4.6 Canal binaire symtrique. q = 1 p. e Par raison de symtrie on trouve que I(X, Y ) est maximum pour = 1/2 et on en dduit que : e e C(p) = 1 + p log2 (p) + (1 p) log2 (1 p) (4.4)

Nous avons reprsent, gure 4.7, C en fonction de p. On voit que, si p = 1/2, la capacit est nulle. En eet e e e si la probabilit de recevoir 0 ou 1, conditionnellement a lmission dun 0 ou dun 1, est gale a 1/2, on e ` e e `

91 comprend bien quun tel canal ne puisse rien transmettre de faon s re. Dun autre ct un canal tel que c u o e p = 1, qui systmatiquement conduit a dcider 0 a la place de 1 et inversement, est tr`s able et il est normal e ` e ` e que sa capacit soit maximale (pour sen convaincre il sut dinverser les dcisions). e e
1 0.8 0.6 0.4 0.2 0

0.2

0.4

0.6

0.8

Fig. 4.7 Capacit du canal binaire symtrique en fonction de la probabilit de e e e


transition p.

Explication intuitive : on peut, en sappuyant sur le canal CBS et en utilisant un argument li a e ` la loi des grands nombres, fournir une explication intuitive du thor`me de codage de canal : supposons e e que lon envoie, sur le canal CBS de probabilit derreur p, le mot-code c0 dun code (n, M ). La loi des e grands nombres nous dit que, quand n est grand, le mot reu comportera asymptotiquement np symboles c errons et n(1 p) symboles justes : par consquent tous les mots reus tombent donc sur la sph`re e e c e de centre c0 et de rayon np (distance de Hamming). On dit quil y a durcissement de la sph`re (en anglais e sphere hardening). Comptons combien chaque sph`re contient de mots reus. Tous les mots reus, dapr`s e c c e lhypoth`se dindpendance (le canal est suppos sans mmoire) sont asymptotiquement quiprobables de e e e e e probabilit t = pnp (1 p)n(1p) . Leur nombre est donc gal a : e e ` Nt = 1 = pnp (1 p)n(1p) = 2n(p log2 (p)+(1p) log2 (1p)) = 2n(1C(p)) t

Dun autre ct, on voit que, si les M sph`res associes aux M mots-code sont disjointes, la r`gle de o e e e e dcision optimale donnera une probabilit derreur nulle. Par consquent, pour que la probabilit derreur e e e e soit asymptotiquement nulle, il faut que : M Nt < 2 n En posant r = log2 (M )/n (soit M = 2nr ), il vient 2nr 2n(1C(p)) < 2n soit : r < C(p) La recherche des bons codes : le code a rptitions est de la forme (n, 2rn ) avec un taux de codage ` e e r = 1/n. On a vu que, pour que la probabilit derreur tende vers 0, il fallait que n tende vers linni et donc e que r tende vers 0. Laspect fabuleux du thor`me de Shannon est quil assure lexistence dun code (n, 2rn ) e e sur le canal CBS dont la probabilit derreur tend vers 0, quand n tend vers linni, a condition que r reste e ` strictement infrieur a la quantit C(p) = 1 + p log2 (p) + (1 p) log2 (1 p). r na donc pas besoin de tendre e ` e vers 0 quand n tend vers linni. Pour la petite histoire, il a fallu attendre 1972 avant de trouver un code de longueur n qui corrige n erreurs, avec > 0, et dont le taux de codage ne tende pas vers 0 quand n tend vers linni. Canal ` eacement a La capacit en fonction de p a pour expression : e C (p) = 1 p (4.5)

92

Chapitre 4

0 p 1

0 1

Fig. 4.8 Canal ` eacements a

En eet notons = P {X = 0}. On en dduit la loi conjointe de (X, Y ) pour X appartenant a {0, 1} et Y e ` appartenant a {0, , 1} : ` X \Y 0 1 0 1 0 (1 )(1 p) (1 p) p 0 (1 )p

Par consquent linformation mutuelle a pour expression : e I(X, Y ) = = (1 p) log2 () (1 )(1 p) log2 (1 ) (1 p)( log2 () + (1 ) log2 (1 ))

Le maximum est obtenu pour = 1/2 et vaut C = 1 p. Imaginons que lon dispose dune voie de retour sans bruit et que lon adopte la procdure suivante : e si Yi = 0 on dcide X = 0 et on arrte, e e si Yi = 1 on dcide X = 1 et on arrte, e e si Yi = on demande, au moyen de la voie de retour, la (i + 1)-`me r-mission du symbole. e ee On note N linstant darrt alatoire de la procdure cest-`-dire la plus petite valeur de k telle que Yk = . e e e a Plus mathmatiquement N = inf{k N : Yk = }. Sous lhypoth`se que le canal est sans mmoire, on a e e e pour n x : e P {N > n|X = 1} = P {N > n|X = 0} = P {Y1 = , , Yn = } = pn

P {N n|X = 1} = P {N n|X = 0} = 1 pn

On suppose que P {X = 0} = P {X = 1} = 1/2. Par consquent la probabilit de dcider sans erreur apr`s e e e e n missions est gale a Pc = 1 pn . Quand on fait tendre n vers linni, Pc tend vers 1. Par consquent e e ` e le codage avec voie de retour propos a une probabilit derreur aussi petite que lon veut. Examinons a e e ` prsent le dbit. Pour cela calculons le nombre moyen dmissions. Il vient conditionnellement a lmission e e e ` e de X {0, 1} : ni = 1 (1 p) + 2 p(1 p) + + k pk1 (1 p) + = 1 1p

Il faut donc en moyenne 1/(1 p) utilisations du canal pour transmettre, asymptotiquement sans erreur, un bit ou ce qui est quivalent : on transmet (1 p) bit par utilisation du canal. Par consquent la voie e e de retour a permis datteindre un dbit asymptotiquement sans erreur et gal a la capacit. On pourrait e e ` e rtorquer que la capacit propre de la voie de retour sans bruit, doit tre ajouter a celle du canal a eacement. e e e ` ` Il nen est rien car on dmontre le rsultat surprenant suivant : e e Thor`me 4.3 (Canal avec voie de retour) On consid`re un canal discret sans mmoire (X , p(y|x), Y) e e e e disposant dune voie de retour sans bruit. On peut alors considrer que le code C(M, n), dni comme une e e application de M dans X n , soit tel que la composante ci (k) soit a la fois une fonction de i M et des ` valeurs Y1 , , Yk1 obtenues en sortie du canal. Alors la capacit du canal est gale a celle du canal sans e e ` voie de retour : C = Csans voie de retour Comme le montre lexemple ci-dessus, la voie de retour facilite la transmission sur le canal mais naugmente pas sa capacit. e

93

pY|X=0 (y) Y

pY|X=1 (y)

Fig. 4.9 Canal binaire ` dcision douce a e

Canal binaire ` dcision douce a e Lentre X prend ses valeurs dans lalphabet binaire et la sortie Y dans R. On note p0 (y) et p1 (y) les e densits des lois de transition conditionnellement a X = 0 et X = 1. e ` Un calcul sans dicult donne pour sa capacit lexpression : e e CS = 1+ 1 2 1 + 2 p0 (y) log2
R

p1 (y) log2
R

p0 (y) dy p0 (y) + p1 (y) p1 (y) dy p0 (y) + p1 (y)

(4.6)

Canal AGB Lentre X et la sortie Y = X + B sont a valeurs dans R. On suppose que B est une variable alatoire e ` e 2 2 gaussienne, centre, de variance B et indpendante de X. On impose que X soit centre et de variance X . e e e Le calcul de la capacit est un peu long mais sans dicult (voir exemple 4.6). On vrie tout dabord que e e e 2 2 Y est centre et de variance X + B . On montre ensuite que : e I(X, Y ) = pY (y) log2 (pY (y))dy +
R R

pB (b) log2 (pB (b))db

On note que la seconde intgrale ne dpend pas du choix de pX (x). On montre ensuite (voir exemple 4.5) e e que la premi`re intgrale est maximale si Y suit une loi gaussienne (ce qui est possible. Il sut que (X, B) e e soient conjointement gaussiennes). On en dduit que : e C= 1 2 log2 1 + X 2 2 B (4.7)

4.1.5

Canal CBS/Canal binaire ` dcision douce/Canal AGB a e

Reprenons le syst`me de transmission MIA-2 reprsent gure 4.10. On peut alors appliquer les rsultats e e e e prcdents. e e Canal CBS (dcision ferme) lalphabet dentre est X = {0, 1}, o` lalphabet de sortie Z = {0, 1} et o` e e u u les probabilits de transition sont donnes par : e e P {Z = 0|X = 1} = P {Z = 1|X = 0} = Q 2Eb N0

Dapr`s (4.4) sa capacit est donne par CH = 1 + p log2 (p) + (1 p) log2 (1 p). e e e
Bruit AGB Xk

h(t)

a h(tkT)
k

+ +

Filtre adapt h*( t)

kT+ Yk Zk

Fig. 4.10 Canal de transmission MIA-2. Dans le cas o` on impose comme contrainte sur la loi dentre que lnergie Eb soit proportionnelle a u e e ` log2 (M )/n, on a : Eb = E0 log2 (M )/n E0 CH

94 e Par consquence lexpression de CH en fonction de E0 vrie : e CH = 1 + p log2 (p) + (1 p) log2 (1 p) o` p = Q u 2E0 CH N0

Chapitre 4

(4.8)

Canal binaire ` dcision douce Considrons a prsent le canal dont lalphabet dentre est X = {0, 1}, a e e ` e e lalphabet de sortie Y = R et dont la probabilit de transition est donne par : e e pY |X=0 (y) = et pY |X=1 (y) = 1 exp((y + 1)2 /2 2 ) 2 1 exp((y 1)2 /2 2 ) 2

o` 2 = N0 /2Eb . En utilisant lexpression (4.6), on obtient : u CS = 1


2 2 1 eu /2 log2 (1 + e2/ e2u/ )du 2

En prenant la mme contrainte que dans le cas a dcision dure, lexpression de la capacit du canal e ` e e binaire a dcision douce en fonction de E0 vrie : ` e e CS = 1 o` 1/ 2 = 2E0 CS /N0 . u Numriquement on vrie que CS CH . Ce rsultat nest pas surprenant. En eet notons : e e e X {0, 1} Y R le canal binaire a dcision douce. Et faisons le suivre dun dtecteur a seuil 0. On obtient : ` e e ` X {0, 1} Y R Z {0, 1} qui est prcisment le canal CBS. Or dans une telle cascade on ne peut que rduire la capacit. Une e e e e autre faon est de remarquer que Y permet de dduire Z alors que la rciproque est fausse : il y a c e e donc ncessairement perte de linformation mutuelle par passage de Y a Z. Le thor`me 4.5, que nous e ` e e nonons plus loin, donne une explication rigoureuse de ce rsultat. e c e Le canal X Z est dit a dcision dure ou ferme (en anglais hard decision) tandis que le canal X Y ` e est dit a dcision douce (en anglais soft decision). Dans le calcul du gain de codage nous verrons quen ` e terme de probabilit derreur le canal a dcision douce est meilleur que le canal a dcision ferme. e ` e ` e Canal additif, Gaussien, blanc, de bande B lalphabet dentre X = R et lalphabet de sortie Y = R. e On impose que X soit centre, de variance PX = E X 2 = E0 Db . Le bruit est suppos blanc dans e e la bande B, par consquent sa puissance est donne par PB = N0 B. En utilisant lexpression (4.7), la e e capacit vrie, en fonction de E0 et N0 : e e 2CG 1 E0 = CG N0 (4.10)
2 2 1 eu /2 log2 (1 + e2/ e2u/ )du 2

(4.9)

Nous avons reprsent gure 4.11 les courbes de capacit correspondant aux expressions (4.8), (4.9), e e e (4.10). On observe que le canal binaire symtrique a dcision ferme a une capacit CH plus faible que celle e ` e e du canal a dcision douce et que leur capacit respective est borne par 1 (C log2 (2) = 1). Par contre celle ` e e e du canal additif gaussien, blanc, dont lentre et la sortie sont innies, peut prendre des valeurs suprieures e e a 1. On peut montrer que, quand E0 /N0 tend vers 0, CG et CS tendent vers 10 log10 (log(2)) 1.59. ` Exemple 4.1 On consid`re des modulations MIA-M sur le canal additif, Gaussien, blanc, de bande B. On e suppose la condition de Nyquist vrie. Le rapport Eb /N0 est x. e e e 1. En se reportant aux courbes de probabilit derreur en fonction de Eb /N0 pour direntes valeurs de e e M , comment doit-on faire pour diminuer la probabilit derreur ? e

95

12 10 8 6 4 a 2 0 2 b c 0 0.2 0.4 0.6 0.8 1 1.2

Fig. 4.11 Capacits en fonction de E0 /N0 (en dB) pour une modulation MIA-2 e sur le canal de Nyquist. Courbe (a) : alphabet dentre binaire et alphabet de sortie e binaire. Courbe (b) : alphabet dentre binaire et alphabet de sortie R. Courbe (c) : e alphabet dentre R et alphabet de sortie R. e

2. Quelle est la consquence sur le dbit ? e e 3. Le rsultat prcdent est exact. En quoi est-il insatisfaisant ? e e e Rponse : e 1. Si on xe Eb /N0 pour diminuer la probabilit derreur, il faut diminuer M . e 2. Comme Db = log2 (M )/T et que 1/T = B/2 (limite de la condition de Nyquist), Db = B log2 (M )/2. Il faut donc diminuer le dbit. e 3. Shannon nous apprend que, pour Eb /N0 x, il existe une valeur M de lecacit spectrale maximale e e telle la probabilit derreur soit aussi pr`s de 0 que lon veut. Pour cette valeur de M le dbit na pas e e e besoin dtre diminu : il est gal a Db = Bm . Malheureusement ce nest pas les MIA-M quil faut e e e ` utiliser. Exemple 4.2 (Code ` rptitions sur le canal ` dcision douce) Les conditions de codage sont les a e e a e mmes que dans lexemple 3.1 : e f: A 000 {0, 1}3 B 111 {0, 1}3

Mais a prsent a la sortie du canal, lobservation y est celle obtenue en sortie du ltre adapt pour une ` e ` e modulation MIA-2 sur le canal de Nyquist. Par consquent Y R3 et : e pY |X=000 (y1 , y2 , y3 ) = et pY |X=111 (y1 , y2 , y3 ) = 1 (y1 1)2 + (y2 1)2 + (y3 1)2 exp 2 2 3 (2)3/2 1 3 (2)3/2 exp (y1 + 1)2 + (y2 + 1)2 + (y3 + 1)2 2 2

o` 2 = N0 /2Eb . En utilisant (??), on montre aisment que la fonction de dcision qui minimise la probau e e bilit derreur moyenne est : e g : dE (y, yA ) < dE (y, yB ) A

dE (y, yB ) < dE (y, yA ) B

96

Chapitre 4

e e o` dE (x, y) dsigne la distance euclidienne dans R3 et yA = (1, 1, 1) et yB = (1, 1, 1). On en dduit la u probabilit derreur moyenne : e Pe = Q dE (yA , yB ) 2B = Q( 6Eb /N0 )

Le gain est plus important dans le cas o` on eectue une dcision douce entre A et B a partir de y R3 u e ` plutt que de dcider de faon ferme apr`s chaque utilisation du canal et ensuite de dcider entre A et B en o e c e e minimisant la distance de Hamming cest-`-dire le nombre dlments qui di`rent. a ee e Nous avons reprsent gure 4.12, les rgions de dcision pour une dcision ferme et une dcision douce. e e e e e e Dans le cas de la dcision douce, la sparatrice est le plan mdiateur des points reprsentatifs des deux e e e e messages. Dans le cas de la dcision ferme, o` on compare tout dabord les 3 observations a 0 puis o` on e u ` u applique un minimum de distance de Hamming, la sparatrice est constitue de 6 demi-plans. Dans ce cas, e e la probabilit derreur moyenne est plus grande que celle obtenue avec le plan mdiateur. e e
xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

1,1,1

-1,-1,-1

1,1,1 0 -1,-1,-1

Fig. 4.12 Rgions de dcision en dcisions ferme et douce sur le canal gaussien. e e e

4.2
4.2.1

Outils de la thorie de linformation e


Quantit dinformation e

De faon a pouvoir calculer prcisment le co t dune transmission, C. Shannon a t conduit a se poser c ` e e u ee ` la question de savoir comment dnir la quantit dinformation. Sans tre un grand cruciverbiste, il est e e e clairement plus facile, en franais, de trouver un mot commenant par les deux lettres w et h quun mot c c commenant par les deux lettres d et e. On peut dire que wh contient plus dinformation que de. Et c donc, indpendamment de lusage que lon fait dune information ou du contenu smantique dun message, e e on peut dire que ce qui est rare contient plus dinformation que ce qui est frquent. Dnir une quantit e e e dinformation revient donc a dnir une mesure de lincertain. En communication cest la mme ide qui est ` e e e contenue dans la remarque suivante apparemment tr`s banale : si le message tait parfaitement connu du e e destinataire on naurait pas besoin de le lui transmettre. Partant de l`, C. Shannon a adopt la dnition a e e suivante : Dnition 4.6 (Quantit dinformation) Soit un espace de probabilit {, F , P} et un vnement E e e e e e F . On appelle quantit dinformation contenue dans E la valeur positive donne par h(E) = log2 (P {E})2 . e e Notons que, par suite de lutilisation de la fonction logarithme, la quantit dinformation de lunion e dvnements indpendants est la somme des quantits dinformation respectives de chaque vnement. e e e e e e
la base du logarithme est 2 lunit est le bit. Lorsque la base du logarithme est e lunit est le nat. Dans la suite e e nous utiliserons uniquement le bit.
2 Lorsque

97 Dnition 4.7 (Entropie) Soit X une variable alatoire a valeurs dans un ensemble X = {1, , M } de e e ` cardinalit nie M . On note pX (x) = P {X = x} o` x X et h(X) = log2 (pX (X)). On appelle entropie e u la quantit : e
M

H(X) = E {h(X)} = Par convention on prend 0 log2 (0) = 0.

pX (x) log2 (pX (x))


x=1

Le lemme suivant est a la base de la dmonstration de plusieurs ingalits portant sur lentropie. ` e e e Lemme 4.1 (Fondamental) Soit P et Q deux mesures de probabilit dnies sur le mme espace e e e dnombrable X muni de lensemble de ses parties. P et Q sont caractrises par la mesure des singletons de e e e X . On note, pour x X , p(x) = P{x} et q(x) = Q{x}. Alors K(P, Q) =
xX

p(x) log2

p(x) q(x)

Lgalit a lieu si et seulement si P et Q concident. e e Il sut dutiliser lingalit de Jensen qui dit que : e e Thor`me 4.4 (Jensen) Si f est une fonction convexe et U est une variable alatoire, alors E {f (U )} e e e f (E {U }). De plus si la fonction f est strictement convexe, alors E {f (U )} = f (E {U }) implique que U = E {U } en probabilit (cest-`-dire que X est constant en probabilit). e a e Pour dmontrer le lemme 4.1, il sut dappliquer le thor`me 4.4 a la fonction strictement convexe f (U ) = e e e ` log2 (U ) pour la variable alatoire U (X) = q(X)/p(X). Il vient : e K(P, Q) = = = E log2 log2 log2 ( q(X) p(X) p(x)
xX

log2 E

q(X) p(X)

q(x) p(x)

q(x)) = 0

xX

Lgalit a lieu si et seulement si q(X)/p(X) est gale a la constante. Comme p(x) et q(x) sont norms, e e e ` e cette constante vaut 1 et on p(x) = q(x) (lgalit a lieu en probabilit). e e e K(P, Q) sappelle la divergence de Kullback entre les deux mesures. Noter que ce nest pas une distance, en particulier K(P, Q) = K(Q, P). Proprits 4.2 e e 1. H(X) 0

2. Si le cardinal de X est ni et gal a M , alors H(X) M , lgalit ayant lieu pour lquidistribution, e ` e e e

3. H(P ) = M pi log2 (pi ) est une fonction continue et concave sur lensemble convexe {P = i=1 (p1 , , pM ); pi > 0, i pi = 1}.

Pour dmontrer le point 2, il sut dappliquer le lemme 4.4 en prenant q(x) = 1/M . e Exemple 4.3 On consid`re une variable alatoire discr`te X a valeurs dans un ensemble de cardinalit M e e e ` e avec les probabilits (p1 , p2 , . . . , pM ). Montrer que : e H(X) h(p1 ) + (1 p1 ) log(M 1) o` h(x) = x log(x) (1 x) log(1 x). u

98

Chapitre 4

Rponse : on consid`re la loi de probabilit sur X , dnie par q1 = p1 , qi = (1 p1 )/(M 1) pour e e e e 2 i M . Puis on applique le lemme fondamental. Il vient :
M

H(X) = qui est le rsultat demand. e e

pi log(qi )
i=1

p1 log(p1 ) (1 p1 ) log(1 p1 ) + (p2 + + pM ) log(M 1)

4.2.2

Information Mutuelle

Dnition 4.8 (Entropie conjointe) Soit X, Y deux variables alatoires discr`tes a valeurs dans X Y e e e ` de loi conjointe pXY (x, y) = P {X = x, Y = y} o` (x, y) X Y. On note h(X, Y ) = log(pXY (X, Y )). u On appelle entropie conjointe : H(X, Y ) = E {h(X, Y )} = pXY (x, y) log2 (pXY (x, y))
xX yY

Dnition 4.9 (Entropie conditionnelle) Soit X, Y deux variables alatoires discr`tes a valeurs dans e e e ` X Y de loi conjointe pXY (x, y) = P {X = x, Y = y} o` (x, y) X Y. On note h(X|Y ) = u log(pX|Y (X, Y )). On appelle entropie conditionnelle de X sachant Y : H(X|Y ) = E {h(X|Y )} = pXY (x, y) log2 (pX|Y (x, y))
xX yY

On rappelle que pX|Y (x, y) = pXY (x, y)/pY (y) et que pY (y) = c xX pXY (x, y). Dune certaine faon H(X|Y ) mesure ce qui reste dincertitude sur X lorsque Y a t observ. Il est raisonnable de penser que si ee e X et Y sont indpendants alors H(X|Y ) = H(X). En eet cette proprit est vraie. De mme si H(X|Y ) = 0 e ee e on est en droit de penser que X = g(Y ). Dnition 4.10 (Information mutuelle) Soit X, Y deux variables alatoires discr`tes a valeurs dans e e e ` X Y de loi conjointe pXY (x, y) = P {X = x, Y = y} o` (x, y) X Y. On appelle information mutuelle : u I(X, Y ) =
xX yY

pXY (x, y) log2

pXY (x, y) pX (x)pY (y)

I(X, Y ) sinterpr`te comme une mesure dindpendance entre X et Y . On remarque en eet que si X et Y e e sont indpendantes, I(X, Y ) = 0. La rciproque est vraie : en eet, partant du lemme fondamental appliqu e e e aux deux lois de probabilit p(u) = pXY (x, y) et q(u) = pX (x)pY (y) dnies sur le mme espace produit e e e X Y, on dduit que I(X, Y ) 0 et que lgalit a lieu si et seulement si p(u) = q(u), cest-`-dire si les e e e a deux variables sont indpendantes. e Proprits 4.3 e e Pour des sources discr`tes on a : e 1. H(X, Y ) 0 3. H(g(X)|X) = 0 H(g(X)) H(X) 5. H(X, Y ) = H(X) + H(Y ) I(X, Y ) 2. H(X|Y ) 0

4. H(X, Y ) = H(X) + H(Y |X) = H(Y ) + H(X|Y ) 6. I(X, Y ) = H(X) H(X|Y ) = H(Y ) H(Y |X)

7. I(X, Y ) 0, lgalit ayant lieu ssi X et Y sont indpendantes, e e e 8. H(X, Y ) = H(X) + H(Y ) X et Y sont indpendantes, e 9. H(X) = H(X|Y ) (ou H(Y ) = H(Y |X)) X et Y sont indpendantes. e

10. H(X, Y |Z) = H(X|Z) + H(Y |X, Z) = H(Y |Z) + H(X|Y, Z)

99 Certaines des proprits donnes ci-dessus peuvent se retrouver en utilisant le diagramme reprsent gure ee e e e 4.13. De faon image, la surface de lensemble X mesure lincertitude H(X), la surface de X (X Y ) c e mesure H(X|Y ), cest-`-dire ce quil reste dincertitude sur X une fois que Y a t observ. La surface de a ee e (X Y ) mesure I(X, Y ), la surface de X Y lincertitude H(X, Y ) conjointe du couple (X, Y ). Partant de la, on retrouve simplement que H(X, Y ) = H(X) + H(Y ) I(X, Y ), ou encore I(X, Y ) H(Y ). Attention dans ce diagramme les objets ne reprsentent pas des vnements. Ainsi I(X, Y ) = 0 si et seulement si X e e e et Y sont indpendants, soit dans le diagramme si et seulement si X Y = , ce qui correspond, en termes e dvnements, a des vnements incompatibles. e e ` e e

H(X,Y)

H(X|Y)

I(X,Y)

H(Y)

H(X)
Fig. 4.13 Diagramme de Venn

Exemple 4.4 (H(g(X)) H(X)) On suppose que X est une variable alatoire a valeurs discr`tes dans X e ` e et soit Y = g(Y ). 1. Dterminer la loi conditionnelle de Y sachant X. En dduire que H(g(X)|X) = 0. e e 2. En utilisant la proprit 4 des proprits 4.3 a H(X, g(X)), dduire que H(g(X)) H(X). ee ee ` e Rponse : e 1. On note Y lensemble des valeurs prises par Y . On note g 1 (yj ) = {xk X : g(xk ) = yj } (si g nest pas bijective, g 1 (yj ) peut contenir plus dun lment. Alors pour tout couple (xi , yj ) X Y, on a : ee P {Y = yj |X = xi } = = Par consquent : e H(Y |X = xi ) = P {Y = yj |X = xi } log(P {Y = yj |X = xi }) = 0 P X g 1 (yj ), X = xi P {X = xi } 1 si xi g 1 (yj ) 0 sinon

yj Y

Partant alors de la dnition de H(Y |X), on obtient : e H(Y |X) = =


xi X xi X

P {X = xi }

yj Y

P {Y = yj |X = xi } log(P {Y = yj |X = xi })

P {X = xi } H(Y |X = xi ) = 0

En conclusion H(g(X)|X) = 0. 2. Dapr`s la proprit 4 des proprits 4.3, on a H(X, g(X)) = H(X) + H(g(X)|X) = H(g(X)) + e ee ee H(X|g(X)). Et donc H(X) + 0 = H(g(X)) + H(X|g(X)) H(g(X)). La dnition de lentropie conjointe se gnralise a un nombre n de variables : e e e ` Dnition 4.11 (Entropie conjointe) Soit X1 , . . . , Xn , n variables alatoires discr`tes, dnies sur le e e e e mme espace de probabilit, a valeurs respectivement dans X1 . . .Xn . Pour (x1 , , xn ) X1 Xn , on e e ` note : pX1 ...Xn (x1 , . . . , xn ) = P {X1 = x1 , . . . , Xn = xn }

100 et h(X1 , , Xn ) = log2 (pX1 ...Xn (X1 , . . . , Xn )) On appelle entropie conjointe : H(X1 , . . . , Xn ) = E {h(X1 , , Xn )} =
X1

Chapitre 4

pX1 ...Xn (x1 , . . . , xn ) log2 (pX1 ...Xn (x1 , . . . , xn ))

Xn

Avec des notations videntes, on montre aisment que : e e


n

H(X1 , . . . , Xn ) =
i=1

H(Xi |Xi1 , , X1 )

o` u H(Xi |Xi1 , , X1 ) =
X1

pX1 ...Xi (x1 , . . . , xi ) log2 (pXi |Xi1 , ,X1 (x1 , . . . , xi ))

Xi

Proprits 4.4 On a H(X1 , X2 , . . . , Xn ) = e e (X1 , X2 , . . . , Xn ) sont indpendantes. e

n i=1

H(Xi ) si et seulement si les n variables alatoires e

Ce rsultat est la gnralisation immdiate de la proprit 8 des proprits 4.3. e e e e ee ee

4.2.3

Thor`me du traitement de linformation e e

Dnition 4.12 (Cascade markovienne) Soit X, Y et Z trois variables alatoires dnies sur le mme e e e e espace de probabilit. On dit que X Y Z forment une cascade markovienne si et seulement si la loi e conditionnelle de Z sachant X et Y concident avec la loi conditionnelle de Z sachant Y . On rappelle le rsultat gnral suivant : si A, B, C dsignent trois vnements quelconques alors : e e e e e e P {A, B, C} = P {C|A, B} P {B|A} P {C} Dans un cascade markovienne P {C|A, B} = P {C|B} et, par consquent, si X, Y et Z dsignent trois e e variables alatoires a valeurs dans les ensembles discrets X , Y et Z, on a pour tout x X , y Y et z Z : e ` P {X = x, Y = y, Z = z} = P {Z = z|Y = y} P {Y = y|X = x} P {X = x} La dnition 4.12 est aussi quivalente a dire que, conditionnellement a Y , X et Z sont indpendantes, ce e e ` ` e qui scrit : e P {X = x, Z = z|Y = y} = P {X = x|Y = y} P {Z = z|Y = y}

Proprits 4.5 e e Si X Y Z, alors Z Y X, Si Z = g(Y ), alors X Y Z. En eet on a simultanment : e P {X = x, Y = y, Z = z} = P {Z = z|Y = y} P {Y = y, X = x} = P {X = x|Y = y, Z = z} P {Z = z|Y = y} P {Y = y}

et donc P {X = x|Y = y, Z = z} = P {Y = y, X = x} /P {Y = y} = P {X = x|Y = y}. Pour dmontrer la e seconde proprit, il sut de remarquer que, si Z = g(Y ), P {Z = z|Y = y} = P {Z = z, Y = y} /P {Y = y} ee est gal a 1 ou 0 suivant que z = g(y) ou z = g(y). e `

101 Proprits 4.6 Soit X, Y et Z trois variables alatoires dnies sur le mme espace, a valeurs respectivee e e e e ` ment dans X , Y et Z. On note : I((X, Y ), Z) =
xX yY zZ

P {X = x, Y = y, Z = z} log P {Z = z|X = x, Y = y} P {Z = z}

Alors : lgalit ayant lieu si et seulement si X Y Z. e e En eet : I((X, Y ), Z) I(Y, Z) =


xX yY zZ

I((X, Y ), Z) I(Y, Z)

P {X = x, Y = y, Z = z} P {Z = z|X = x, Y = y} P {Z = z} P {Z = z} P {Z = z|Y = y}

log =
xX yY

P {X = x, Y = y}

zZ

P {Z = z|X = x, Y = y} log P {Z = z|X = x, Y = y} P {Z = z|Y = y}

Dapr`s le lemme fondamental le terme dans la derni`re parenth`se est positif et est nul si et seulement si e e e P {Z = z|X = x, Y = y} co ncide avec P {Z = z|Y = y}. Notons ici que, dans la proprit 4.6, X et Y jouent ee un rle symtrique et que, par consquent, on a toujours : o e e I((X, Y ), Z) max{I(X, Z), I(Y, Z)}

Thor`me 4.5 (Traitement de linformation) Soit X Y Z une cascade markovienne. Alors : e e I(X, Z) min{I(X, Y ), I(Y, Z)} En eet, dapr`s la proprit 4.6, on a a la fois I((X, Y ), Z) I(X, Z) et I((X, Y ), Z) = I(Y, Z). e ee ` On en dduit que, si X Y g(Y ), alors on a : e I(X, g(Y )) I(X, Y )

4.2.4

Cas de variables alatoires continues e

Dans ce paragraphe on sintresse a des sources sans mmoire, dont la loi de probabilit poss`de une e ` e e e densit pX (x) par rapport a la mesure de Lebesgue. e ` Dnition 4.13 (Entropie direntielle) Soit X une variable alatoire a valeurs dans Rk dont la loi e e e ` poss`de une densit de probabilit pX (x) par rapport a la mesure de Lebesgue dans Rk . On appelle entropie e e e ` direntielle : e Hd (X) =
Rk

pX (x) log2 (pX (x))dx

Contrairement au cas discret o` lentropie est une quantit toujours positive, lentropie direntielle Hd (X) u e e peut tre ngative. e e Thor`me 4.6 (Lemme fondamental) Soit deux mesures de probabilit P et Q dnies sur Rk et e e e e possdant des densits, par rapport a la mesure de Lebesgue dans Rk , que lon note respectivement p(x) e e ` et q(x). Alors on a : K(P, Q) =
Rk

p(x) log2

p(x) q(x)

dx 0

(4.11)

102

Chapitre 4

(4.11) est une consquence directe de lingalit de Jensen applique a la fonction f (X) = q(X)/p(X), e e e e ` lgalit ayant lieu si et seulement si les deux lois co e e ncident. Soulignons que les lois p(x) et q(x) peuvent tre multi-dimensionnelles. e Dnition 4.14 (Information mutuelle) Soit (X, Y ) deux variables alatoires dnies sur le mme ese e e e pace de probabilit a valeurs dans R2 dont la loi conjointe poss`de une densit de probabilit pXY (x, y) par e ` e e e rapport a la mesure de Lebesgue dans R2 . On appelle information mutuelle : ` I(X, Y ) =
R R

pXY (x, y) log2

pXY (x, y) pX (x)pY (y)

dxdy

Proprits 4.7 on a : e e lgalit ayant lieu si et seulement si X et Y sont indpendantes. e e e Il sut dappliquer le lemme fondamental aux densits p(u) = pXY (x, y) et q(u) = pX (x)pY (y) dnies sur e e R2 . Proprits 4.8 e e On a aussi : H(X, Y ) = H(X) + H(Y |X) = H(Y ) + H(X|Y ) H(X, Y ) = H(X) + H(Y ) I(X, Y ) I(X, Y ) = H(X) H(X|Y ) = H(Y ) H(Y |X) Exemple 4.5 (Maximum dentropie : loi gaussienne) Soit X une variable alatoire a valeurs dans R, e ` 2 centre, de variance X xe. Dduire de lingalit (4.11) que la loi qui maximise lentropie, sous contrainte e e e e e 2 de moyenne nulle et de variance X xe, est la loi gaussienne. e
2 Rponse : Appliquons lingalit (4.11) aux densits p(x) = pX (x) et q(x) = (2X )1/2 ex e e e e
2 2 /2X

I(X, Y ) 0

. Il vient :

H(X) =

pX (x) log2 (pX (x))dx


R

pX (x) loge (q(x)) log2 (e)dx =


R

1 2 log2 (2X e) 2

2 Par consquent, quelle que soit la loi centre de variance X , H(X) log2 (X 2e). Cette borne, e e indpendante de la loi, peut tre atteinte en prenant pour loi de X la loi gaussienne. Cest donc la loi e e gaussienne qui maximise lentropie sous contraintes que la moyenne est nulle et la variance gale a X . e ` 2 Exemple 4.6 (Capacit du canal gaussien) Soit Y = X + B o` X et B sont deux variables alatoires e u e indpendantes. Montrer que I(X, Y ) = H(Y ) H(B). En dduire la capacit du canal gaussien. e e e Rponse : En eet I(X, Y ) = H(Y ) H(Y |X). Mais, comme X et B sont indpendantes, la loi pY |X (y) = e e pB (y x) (dans le cas o` X et B sont indpendantes, il sut de xer X = x dans Y = X + B.). Par u e consquent : e H(Y |X) = o` u g(u) =
R R R

pX (u)pB (v u) log2 (pB (v u))dudv =

pX (u)g(u)du
R

pB (v u) log2 (pB (v u))dv =

pB () log2 (pB ())d


R

1 2 = log2 (2eB ) = H(B) 2


2 et donc I(X, Y ) = H(Y ) H(B). Sous contrainte que E {X} = 0 et E X 2 = X , on a E {Y } = 0 et 2 2 2 E Y = X + B . Par consquent pour maximiser I(X, Y ) il faut maximiser H(Y ) sous contrainte que e 2 2 2 E {Y } = 0 et E Y = X + B . On sait, dapr`s lexercice 4.5, que le maximum est atteint par la loi e gaussienne. Cette solution est acceptable : il sut que X soit une variable gaussienne. On a alors :

2 {PX t.q. E{X}=0, E{X 2 }=X }

max

I(X, Y ) =

1 log2 2

2 2 X + B 2 B

1 2 log2 1 + X 2 2 B

103

4.3

Exercices

Exercice 4.1 (Canal en Z) On consid`re le canal dont les alphabets dentre et de sortie sont binaires et e e dont les probabilits de transition sont : e P {Y = 1|X = 1} = q et P {Y = 0|X = 0} = 1 Ce canal est dit canal en Z. Il peut modliser un canal physique optique dans lequel labsence de lumi`re e e (entre 0) ne peut pas donner lieu a une dtection lumineuse. e ` e

1 p

Fig. 4.14 Canal en Z. p + q = 1

1. Dterminer lexpression de sa capacit. e e 2. On adopte le protocole suivant : si on observe Y = 1, on dcide X = 1, par contre, si on observe e Y = 0, on demande, au moyen dun canal auxiliaire dont on ngligera la capacit (ce qui est justi si e e e p est suppos petit), a lmetteur de retransmettre le symbole dentre mais en commutant sa valeur. e ` e e Dterminer les expressions respectives 0 et 1 du nombre moyen dutilisation du canal, si le symbole e a mettre est respectivement 0 et 1. `e 3. En dduire le nombre moyen de bits transmis par utilisation du canal. Comparer a la capacit. e ` e Exercice 4.2 On consid`re le canal dont lentre X est a valeurs dans {0, 1} et dont la sortie scrit e e ` e Y = X + Z o` Z est une variable alatoire a valeurs dans {0, a} avec P {Z = 0} = P {Z = a} = 1/2. On u e ` suppose que X et Z sont indpendantes. Dterminer lexpression de la capacit en fonction de a. e e e Exercice 4.3 Soit les deux canaux {X1 , p(y1 |x1 ), Y1 } et {X2 , p(y2 |x2 ), Y2 }. On note C1 et C2 leurs capacits e respectives. On consid`re a prsent le canal {X1 X2 , p(y1 |x1 )p(y2 |x2 ), Y1 Y2 }. Dterminer lexpression de e ` e e sa capacit en fonction de C1 et C2 . e Exercice 4.4 On consid`re la mise en cascade de n canaux binaires symtriques de mme probabilit dere e e e reur p. Montrer que le canal obtenu est un canal binaire symtrique dont on dterminera lexpression de sa e e probabilit derreur en fonction de p. Vers quelle valeur tend sa capacit quand n tend vers linni ? e e Exercice 4.5 On consid`re le canal dont les alphabets dentre et de sortie comportent 5 symboles nots e e e {0, 1, 2, 3, 4} et dont les probabilits de transition sont : e P {Y = i|X = j} = 1. Dterminer lexpression de sa capacit. e e 2. Clairement ce canal transmet sans erreur au moins 1 bit. Trouver un code en blocs qui montre que la capacit est suprieure a 1. e e ` Exercice 4.6 Soit X une variable alatoire prenant un nombre ni de valeurs. On note H(X) son entropie. e Dterminer, en fonction de H(X), lexpression de lentropie H(Y ) de la variable alatoire Y dans les deux e e cas suivants : 1. Y = eX . 2. Y = cos(X). Exercice 4.7 Trouver la loi de probabilit de la variable alatoire X a valeurs dans N qui maximise lentropie e e ` sous la contrainte que E {X} = A > 0. 1/2 si 0 sinon i = j 1 mod 5

104

Chapitre 4

e ` Exercice 4.8 Montrer que lentropie de la distribution {p1 , . . . , pN } est infrieure a celle de la distribution {p1 , . . . , pN } o` on a remplac pi et pj par q = (pi + pj )/2. u e Exercice 4.9 On consid`re les variables alatoires X et Y a valeurs dans {0, 1} dont la loi conjointe est e e ` donne par : e P {X = 0, Y = 0} = 1/4, P {X = 0, Y = 1} = 1/4, P {X = 1, Y = 0} = 1/2 Calculer H(X), H(Y ), H(X, Y ), H(Y |X), H(X|Y ), I(X, Y ). Exercice 4.10 (Ingalit de Fano) On consid`re deux variables alatoires discr`tes X et Y . On note e e e e e M = |X | la cardinalit de lensemble des valeurs de X. On consid`re la variable alatoire X = g(Y ) obtenue e e e a partir de Y par la fonction (mesurable) g. On pose E = 1(X = X) et on note Pe = P {E = 1}. ` 1. Montrer que H(E|X, Y ) = 0 (indication : utiliser le rsultat de lexemple 4.4). e 2. En dduire que H(X|Y ) = H(E|Y ) + H(X|E, Y ). e 4. Montrer que H(X|Y, E) = H(X|Y, E = 0)P {E = 0} + H(X|Y, E = 1)P {E = 1} Pe log(M 1). H(Pe ) + Pe log(M 1) H(X|Y ) 3. Montrer que H(E|Y ) Pe log(Pe ) (1 Pe ) log(1 Pe ).

En dduire lingalit de Fano : e e e

Vous aimerez peut-être aussi