Vous êtes sur la page 1sur 20

CHAPITRE 4 : TRANSMISSIONS NUMERIQUES EN BANDE DE BASE

4. TRANSMISSIONS NUMERIQUES EN BANDE DE BASE


4.1. Généralités
4.1.1. Notion de l’information
L’information est l’objet transmis d’une source vers un destinataire distant, à travers un canal de
transmission. Sa valeur réside dans son effet de surprise. Sa valeur est donc d’autant plus grande
qu’elle est inattendue.
L’information est quantifiable. La quantité d’information contenue dans un caractère ou un
message de probabilité d’apparition 𝑝 est donnée par : 𝐼 = −𝑙𝑜𝑔2 (𝑝).

De cette définition, on peut vérifier que.


- un évènement certain n’apporte aucune information ( 𝐼 = 0 lorsque 𝑝 = 1),
- plus 𝑝 est petite plus l’information 𝐼 est grande,
- la quantité d’information correspondant à l’émission de deux caractères statistiquement
indépendants est la somme des informations associées respectivement à chaque caractère.
- la quantité d’information moyenne par caractère correspondant à l’émission d’une série de
deux caractères statistiquement indépendants et équiprobables est 1.

Bien que physiquement sans dimension, l’Organisation Internationale de Standardisation (ISO) a


retenu le Shannon (Sh) comme pseudo unité pour la quantité d’information. Elle est parfois
abusivement exprimée en bit qui est une unité réservée à la quantité de décision. Un bit est donc
égal à la quantité́ d’information fournie par le choix d’une alternative parmi deux équiprobables.

4.1.2. Source d’information


Une source d’information délivre de l’information. Elle est dite continue si elle peut générer une
infinité d’états différents : l’information délivrée est alors dite de nature analogique.

La source est dite discrète si elle travaille à partir d’un nombre fini de caractères (ou symboles)
issus d’un alphabet, les combinant pour former des messages. L’information est alors numérique.

La transmission numérique a pour objet la communication d’un point (émetteur) vers un autre
(récepteur) d’une information discrète.

Si la source délivre une information analogique tel que le signal de parole (sortie d’un microphone)
ou le signal d’image (sortie d’une caméra), il faut le numériser.
Les principales étapes de la numérisation d’un signal analogique sont résumées sur la figure ci-
après :
Source Codage Message
analogique Échantillonnage Quantification binaire binaire

Chapitre 4 -1-
Une source discrète dont l’alphabet est composé de n caractère est caractérisé par son entropie H
et sa redondance R. L’entropie est la quantité moyenne d’information par caractère émis.

𝐻 = ∑ −𝑃𝑖 𝑙𝑜𝑔2 (𝑃𝑖 )


𝑖=1
Elle s’exprime en Sh/caractère. Comme l’entropie thermodynamique, elle est d’autant plus grande
que l’émission de la source est aléatoire.

On démontre, que l’entropie H d’une source dont la taille de l’alphabet est n, est telle que :
𝐻 ≤ 𝑙𝑜𝑔2 (𝑛) avec égalité si et seulement si la loi de probabilité donnant p est uniforme.

Pour indiquer l'écart entre l'entropie d'une source dont la taille de l’alphabet vaut n et sa valeur
maximale possible (𝑙𝑜𝑔2 (𝑛) lorsque tous les symboles sont équiprobables), on définit
la redondance de la source RS = Hmax(S) - H(S)= log2n-H(S)

La redondance de la source est d'autant plus grande que son entropie est faible, c'est-à-dire que
l'incertitude liée à la source est faible. Si certains symboles sont beaucoup plus probables que
d'autres, l'entropie de la source est faible et la source est dite redondante.

4.2. Caractéristique d’une transmission numérique


4.2.1. Principe
La transmission numérique a pour objet la communication d’un point (émetteur) vers un autre
(récepteur) d’une information discrète provenant d’une source qui ne dispose que d’un nombre
fini n de caractères (alphabet) qui par leurs diverses combinaisons constituent des messages. La
source est dite discrète.
Pour qu’elle puisse avoir lieu, la source et le destinataire doivent se mettre d’accord, par une
convention préalable, sur la représentation symbolique de l’information à transmettre.
Le destinataire a alors connaissance de l’alphabet utilisé par la source. Il peut donc interpréter
l’information qu’il reçoit en fonction de cet alphabet.
La transmission de l’information numérique se fait à travers un milieu physique appelé canal. Le
canal exige que l’information, notion abstraite, soit au préalable, concrétisée par des signaux de
nature électromagnétique capable de se propager à travers celui-ci. Le signal est une grandeur
physique variable porteuse d’information.
Les canaux réels présentent les défauts suivants :
 Ils déforment les signaux qu’ils transportent (distorsions)
 Ils introduisent des perturbations indésirables (bruits)
 Ils sont chers et doivent être utilisés aussi économiquement que possible.
Le destinataire compare les signaux reçus (déformés et perturbés par la transmission dans le canal)
à la liste des signaux possibles et en déduit, par une décision, lequel de ces caractères sont les plus
probablement à l’origine du signal reçu.
L’information numérique transmise peut ainsi, en principe, être régénérée intégralement à la
réception. Toutefois, si la distorsion ou la perturbation des signaux reçus est telle qu’elle simule la
présence d’un autre caractère, des erreurs de régénération irréversibles apparaissent. Leur
probabilité Pe est le critère principal d’appréciation de la qualité d’une transmission numérique.
Chapitre 4 -2-
Le schéma de principe d’une chaîne de transmission numérique est représenté sur la figure
suivante :
Information Messages signaux
émise émis émis

Source numérique Codeur de Codeur Modulateur Émetteur


ou analogique source canal

Signal analogique
Canal
Données Bruit +

Transmission numérique
en bande de base

Destinataire Décodeur Décodeur Démodulateur Récepteur


de source canal

Information Messages Signaux


reçue reçus reçus

On entend par codage de source, toute opération qui adapte la source d'information à la
transmission numérique. L'adaptation se fait en deux opérations :
Mise en forme
 Si la source est de type analogique, elle sera échantillonnée quantifiée, puis codée. Les choix
de la loi de quantification et du code ont des incidences sur l'entropie de la source numérique
résultante et sur les caractéristiques du signal à transmettre.
 Si la source est discrète d'origine (échanges entre deux calculateurs, transmission d'un texte, …,
les "caractères" sont codés suivant un format standardisé : par exemple Code ASCII, Baudot,
ou leurs versions normalisées CCITT N°5 (code à 7 bits), CCITT N° 2 (code à 5 bits).
Optimisation
 En tenant compte de la statistique, un codage optimum réduit (élimine) la redondance naturelle
de la source discrète : c'est une opération de compression de données.
Le codage de source élimine la redondance naturelle de la source et vise la transmission d’un débit
de décision minimum, le plus proche possible du débit d’information. Le codeur délivre des
messages (mots) constitués par une suite d’éléments binaires pris avec les probabilités respectives
p0 et p1 et émis toutes les Tb secondes.
La transmission est dite synchrone si Tb est constant. Si Tb varie dans le temps, la
transmission est dite asynchrone.
Après numérisation et codage, la source de message numérique est caractérisée par son
1
débit binaire 𝐷 = (débit de décision). Défini comme le nombre d’éléments binaires qu’elle
𝑇𝑏
émet par unité de temps.

Chapitre 4 -3-
La numérisation du signal de parole, préalablement limité à la bande de 300-3400 Hz en
téléphonie, est réalisée en échantillonnant ce signal à la fréquence de 8 KHz puis en codant les
échantillons quantifiés sur n=8 bits. Ainsi, après numérisation, la source de parole est transformée
en une source numérique ayant un débit binaire de 64 Kbit/s. Pour le téléphonie cellulaire GSM,
européen, il de 13 Kbit/s.
Le codage canal englobe en général deux fonctions fondamentalement différentes :
 La première est le codage détecteur voire correcteur d’erreurs. Pour se protéger des effets
(inévitables) des imperfections du canal, on introduit une redondance dans le message pour
permettre la détection voire la correction des erreurs de transmission. C’est une fonction
spécifique des transmissions numériques qui permet d’améliorer la qualité de la transmission.
Cette opération conduit à une augmentation du débit binaire de la transmission
Le décodeur de canal, qui connaît la loi de codage utilisée à l’émission, vient vérifier si cette loi
est toujours respectée en réception. Si ce n’est pas le cas, il détecte la présence d’erreurs de
transmission qu’il peut corriger sous certaines conditions.
Ce codage n’est pas toujours utilisé car il accroît la complexité des équipements de transmission,
donc leur coût.
 La deuxième appelée codage en ligne, permet d’associer une représentation physique
( signaux), sous forme d’un signal électrique aux éléments abstraits émis par la source. Les
signaux délivrés par le codeur en ligne sont appelés codes en ligne.
Plus précisément, le codeur formera à partir de la suite d’éléments binaires, des mots de n
bits appelés symboles. Chaque symbole a une durée Ts=nTb. A chaque mot de n éléments binaires
(n-uplet) issu du message, on associe un signal Si(t), i=1,2,…,M, de durée T=nTb, choisi parmi
M=2n signaux, en fonction de la valeur du n-uplet.
Le message binaire de débit 𝐷𝑏 est donc représenté par un signal, dont on définit alors la
rapidité de modulation 𝑅 = 𝐷𝑠 (débit de moments exprimée en bauds), comme le nombre de
signaux émis par le modulateur par unité de temps :

1
R = 𝐷𝑠 = ( bauds)
Ts

On parle alors de transmission M-aire et dans ce cas, la rapidité de modulation R peut s’exprimer
en fonction du débit binaire 𝐷𝑏 par la relation :

1 𝐷𝑏 𝐷𝑏
R= = =
nTb n log 2 (M)

Le choix du type de signaux dépend des propriétés physiques du milieu de transmission que le
signal doit traverser ; le codeur canal assure donc aussi une fonction d’adaptation du signal au
milieu de transmission.
4.2.2. Représentation de l’information numérique
Une source est analogique ou continue exprime des nuances d’une infinie subtilité. On peut sous
certaines conditions renoncer aux fines nuances d’une information analogique et lui substituer une
information numérique plus ou moins équivalente. Cependant, l’opération inverse est impossible.
Les détails de l’information analogique sont définitivement perdus.

Chapitre 4 -4-
Les modalités de cette représentation numérique forcement approchée ont été vus au chapitre 2.
En dépit de leur nom, les convertisseurs numériques-analogiques ne restituent pas une valeur
analogique, mais bien la valeur discrète admise comme représentative lors de la quantification.
L’intérêt d’une représentation numérique réside dans la relative insensibilité de cette forme
d’information aux imperfections du canal comparativement aux exigences sévères posées par la
transmission analogique.
Le prix à payer pour cet avantage est la complexité des convertisseurs et dans la dégradation de la
qualité de transmission due à la perte des détails analogiques.

4.2.1. Caractéristique d’un flux d’information numérique


Tout flux d’information numérique est caractérisé par un débit de décision, un débit de
moment et la valence m des symboles utilisés.

 Moment
Les signaux utilisés pour porter de l’information numérique sont composés d’une suite de signaux
élémentaires appelés moments ou symboles. Le paramètre caractéristique (amplitude, fréquence
ou phase) reste constant pendant toute la durée TM du moment et représente l’information
numérique portée par ce moment. Dans le cas général ce paramètre peut prendre m valeurs
discrètes. Les moments sont appelés des moments m-aires.
Suivant le nombre m appelé valence, on a :
 m=2 : moments binaires ;
 m=3 : moments ternaires ;
 m=4 : moments quaternaires ;
 m=5 : moments quinaires, etc

 Quantité de décision
La quantité de décision correspondant à l’ampleur du choix d’un moment m-aires parmi m
moment est D=log2(m).

 Débit de moments
Le nombre de moment transmis par unité de temps est appelé débit de moments 𝑀̇ exprimé en
1
bauds (Bd). 𝐷𝑠 = 𝑇 .
𝑀

 Débit de décision
Le débit de décision 𝐷𝑏 (qui s’exprime en bits/s) correspondant à un débit de moment m-aires 𝑀̇
s’exprime par : 𝐷𝑏 = 𝐷𝑠 . 𝑙𝑜𝑔2 (𝑚).
En transmission numérique, le débit de moment revêt une importance capitale car il exprime la
vitesse de variation physique des paramètres des signaux. A ce titre, il est lié directement à la
largeur de bande du canal.
Pour un même débit de décision 𝐷𝑏 , on peut diminuer 𝐷𝑠 en augmentant m. le débit de moment
est maximum pour une transmission binaire (m=2). Il est alors et seulement dans ce cas, égal au
débit de décision.

Chapitre 4 -5-
4.2.2. Limitation du canal
le débit de décision maximal 𝐷𝑏𝑚𝑎𝑥 que peut transmettre un canal idéal caractérisé par :
 sa largeur de bande B ( passe-bas idéal) ;
P
 son rapport signal sur bruit P S ( bruit blanc gaussien) ;
N

est :
PS 1/2 PS
C = 𝐷𝑏𝑚𝑎𝑥 = 2B. log 2 (1 + ) = B. log 2 (1 + )
PN PN

P
B est exprimée en Hz, P S en linéaire. Le débit maximal qui s’exprime en bit/s et est appelé capacité
N
du canal.
A titre d’exemple, une liaison téléphonique ayant une bande passante de 3,10 kHz et un rapport
signal à bruit de 32 dB a une capacité de C = 3100. log 2 (1 + 103,2 ) = 33 kbits/s

Exercice

1) une image TV numérisée doit être transmise à partir d'une source qui utilise une matrice
d'affichage de 450x500 pixels, chacun des pixels pouvant prendre 32 valeurs d'intensité
différentes. On suppose que 30 images sont envoyées par seconde. Quel est le débit D de la source
?

2) L'image TV est transmise sur une voie de largeur de bande 4,5 MHz et un rapport signal/bruit
de 35 dB. Déterminer la capacité de la voie.

3) Quelle est la capacité d'une ligne pour téléimprimeur de largeur de bande 300 Hz et de rapport
signal/bruit de 3 dB ?

4.3. Les codes en ligne

Soit à transmettre un message numérique (suite d’éléments binaires k). Les k sont émis
aux instants kTb (Tb = période bit) et sont supposés indépendants et identiquement distribués (i.i.d.)
sur l’alphabet {0,1}, avec :
pi = Prob {k = i} ; i = 0,1  k.
Pour ce faire, les  k doivent être matérialisés par des signaux physiques susceptibles de
se déplacer à travers la voie de transmission. Cette opération porte le nom de codage en ligne (line
code en anglais) et les signaux physiques sont appelés codes en ligne.

Chapitre 4 -6-
4.4. Principe du codage en ligne

Le codage en ligne consiste à associer, à chaque élément binaire  k du message, un signal


Si(t) de durée Tb choisi parmi un ensemble de 2 signaux, en fonction de la valeur de  k :
Si  k = 0, alors émission du signal S0(t) pendant la durée de l’élément binaire (Tb)
Si  k = 1, alors émission du signal S1(t) pendant Tb.
Ainsi, à la suite des éléments binaires {  k }, le codeur en ligne associe un signal constitué
d’un train de signaux élémentaires S0(t) et S1(t).

Les signaux élémentaires S0(t) et S1(t) peuvent s’exprimer à partir d’une forme d’onde
unique h(t) de durée Tb :

S i (t )  Ai h(t ); i  0,1 .

Le signal de sortie du codeur en ligne peut alors s’écrire :

e(t )   ak h(t  kTb )


k

où ak est un symbole binaire prenant ses valeurs dans l’alphabet {A0, A1} avec la
convention suivante :
ak = A0 si  k = 0
ak = A1 si k = 1.

Remarque 3 : Le codage décrit précédemment (information contenue dans le niveau du


signal transmis) donne naissance à des codes directs ou codes L (pour level).
Le codage peut être tel que l’information soit contenue dans la transition entre S k-1(t) et
Sk(t). On parle alors de codes différentiels et on en distingue deux sous-groupes :

- Code M (pour Mark = Travail ou présence de courant). La règle est la suivante :


Si  k  1, alors S k 1 (t )  S k (t )
Si  k  0, alors S k 1 (t )  S k (t )
Le changement d’état a lieu si on doit transmettre "1" : on parle de transition sur les "1".

- Code S (pour Space = repos ou absence de courant). La règle est la suivante :


Si  k  1, alors S k 1 (t )  S k (t )
Si  k  0, alors S k 1 (t )  S k (t )
 Changement d'état si on doit transmettre "0" : on parle de transition sur les "0".

Remarque 4 : Une autre classification tient compte du niveau des symboles ak :

ak  0,1 codes unipolaires ( U/.. )

ak  -1,1 codes polaires ( P/... )

ak  -1,0,1 codes bipolaires ( B/... )


Chapitre 4 -7-
Remarque 5 : Le codage est dit élémentaire s'il se fait bit par bit. On parle de codage par
bloc, s'il se fait par bloc de bits.

4.4.1. Codage par bloc

L’opération précédente peut être généralisée en associant à chaque mot de n éléments binaires
(n–uplet) issu du message, un signal Si(t) de durée T = nTb, choisi parmi M = 2n signaux, en
fonction de la valeur du n–uplet.

L’expression du signal en sortie du codeur est alors :

𝑒(𝑡) = ∑ 𝑎𝑘 ℎ(𝑡 − 𝑘𝑛𝑇𝑏 )


𝑘

où les ak sont des symboles binaires prenant leur valeur dans l’alphabet {A0, A1,…., AM-1}.

Remarque 1 : Les symboles ak sont, comme les mots binaires qu’ils représentent, mutuellement
indépendants.

Remarque 2 : L’utilisation de symboles M-aires permet, à débit de moments R constant,


d’augmenter le débit binaire Db :
Db = Rlog 2 (M) = Rlog 2 (2n ) = nR

Le codeur peut aussi transformer une suite de bits {ai} en une suite de symboles {dk} pris dans un
alphabet de q symboles. Les dk ont, en principe, toute la même durée.

Les raisons de coder l’information par blocs sont :


 De produire un signal sans composante continue qui puisse être transmis sur les lignes.
 D’enrichir le signal en transitions pour faciliter la récupération d’horloge dans les
régénérateurs. Les longues suites de 0 ou de 1 doivent donc être codées pour éviter des états
durables sans transition.
De concentrer ou de déplacer la puissance dans une plage spectrale adaptée au milieu de
transmission. Même sans composante continue, un signal numérique synchrone non codé a une
densité spectrale concentrée sur la fréquence nulle, plage qui n’est pas transmise convenablement
dans certains canaux (forte distorsion).
Le codage par bloc est aussi appelé codage de ligne puisqu’il consiste à adapter la forme
du signal à la ligne, ou plus généralement au milieu de propagation.

4.4.2. Paramètres d’un code en ligne


Db
 Efficacité spectrale : Elle s’exprime en bits/s/Hz et est définie par : η = où Db désigne
B
le débit binaire et B, la largeur de la bande de fréquence qu’occupe le code.
 Puissance moyenne : la puissance moyenne du signal est donnée par
PS = Eb.Db où Eb désigne la quantité d’énergie moyenne par bit exprimée en nombre de
joules par bit.
Chapitre 4 -8-
Dans le cas d’un bruit additif blanc sur le canal, de densité spectrale N0/2 exprimée en
W/Hz, la puissance du bruit dans la bande B occupée par le spectre du code en ligne est
donnée par Pb = N0.B. On en déduit que le rapport signal sur bruit en puissance est :
𝑃𝑆 Eb.Db Eb
= = 𝜌. 𝜂 où 𝜌 = .
𝑃𝑏 N0.B N0

4.4.3. Critères de choix d'un code en ligne

Les transmissions en bande de base se font généralement à travers un câble (bifilaire ou


coaxial) caractérisé par sa bande passante. Le choix du code en ligne doit tenir compte de cette
bande passante.
Le premier critère est donc que la densité spectrale de puissance du code en ligne doit être
la moins étendue possible.
Lorsque la distance entre la source de message et le destinataire est importante, le signal
issu du codeur est fortement atténué. Il est alors périodiquement "régénéré" à l'aide de dispositifs
électroniques (répéteurs, régénérateurs) télé-alimentés en courant continu à travers le même câble
de transmission que le code en ligne. Pour éviter toute interférence entre ces deux signaux, le
spectre du code en ligne doit donc être nul au voisinage de la fréquence zéro : absence de
composante continue dans le spectre (2è critère).
Pour réaliser le décodage, le récepteur a besoin de connaître le rythme de la transmission
c'est-à-dire la fréquence (1/T) à laquelle les symboles ak ont été transmis. La présence d'une raie à
cette fréquence dans le spectre du code en ligne facilite la récupération du rythme de la
transmission en réception. On dit que le code en ligne est autosynchronisable (3è critère).
Par ailleurs, en imposant certaines règles pour le codage des symboles ak (configuration de
symboles interdite par exemple), le récepteur pourra détecter la présence de mots étrangers au code
: on parle de code intrinsèquement détecteur d'erreurs (4è critère ).

Remarque : les critères de choix d'un code en ligne dépendent essentiellement de ses
propriétés spectrales.

4.4.4. Densité spectrale de puissance d'un code en ligne

Le signal e(t) en sortie du codeur peut être interprété comme le résultat du filtrage d'un
signal m(t) par un filtre dont la réponse impulsionnelle est égale à la forme d'onde h(t) :

e(t )  m(t ) * h(t )


avec m(t )   a k  (t  kT )

 e ( f )  m ( f ). H ( f )
2

avec m ( f ) : densité spectrale de puissance de e(t)


m ( f ) : densité spectrale de puissance de m(t)

Chapitre 4 -9-
On montre que :

où : ma = E[ak ] est la valeur moyenne des symboles 𝑎𝑘 .


σ2a = E[a2k ] − E 2 [ak ] est la variance des symboles 𝑎𝑘 .
Soit Ra ( p ) la fonction d' autocorrélation normalisée des symboles a k :

Ra ( p ) 

E a k  ma a k  p  ma 
*

 2
a

où  2
a est la variance des symboles a k .

 a2  a2
2
m 2   p  
2  p
 e ( f )  H( f )  2 H ( f )  Ra ( p ) cos 2pfT  a2  H     f  
2

T T p 1 T p    T   T

La densité spectrale de puissance du signal en sortie du codeur comprend donc une partie
continue :

 a2  a2 2 
ec ( f )  H( f )  2 H ( f )  Ra ( p ) cos 2pfT
2

T T p 1

et une partie discrète, constituée d'un ensemble de raies aux fréquences p/T :

2
m 2   p  p
ed ( f )  a2  H     f  
T p    T   T

Remarque : La densité spectrale d'un code en ligne dépend donc de la transformée de


Fourier de la forme d'onde h(t) et des propriétés statistiques des symboles ak.

4.5. Exemples de code en ligne

4.5.1. Codes en ligne à symboles indépendants


4.5.1.1. Densité spectrale

Pour ces codes en ligne, les symboles ak sont indépendants : la fonction de corrélation
Ra ( p ) est donc nulle.
L'expression de la densité spectrale de puissance du signal m(t) est donc simplifiée et s'écrit
:

Chapitre 4 -10-
 a2 m a2   p
m ( f )   2 
 f  
T T p    T

Remarque : La partie continue du spectre du code en ligne ne dépend que de la forme


d'onde h(t).

2.1.2- Code NRZ binaire (Non Retour à Zéro)

Pour ce code en ligne, à chaque élément binaire k du message, on associe un symbole ak


avec :
ak = 1 si k = 1
ak = -1 si k = 0

La forme d'onde h(t) est une "porte" d'amplitude V et de durée Tb :

V  t  0, Tb 
h(t )    H ( f )  VTb sin c( fTb ) exp( jfTb )
0 ailleurs

Un chronogramme du code NRZ binaire est représenté sur la figure suivante :

Les éléments binaires k étant indépendants et identiquement distribués (i.i.d.) sur


l'alphabet {0, 1}, les symboles ak sont i.i.d. sur l'alphabet {-1, +1} (les ak prennent les valeurs -1
et +1 de façon équiprobable) : leur moyenne ma est donc nulle et leur variance  a2 est égale à 1.

La densité spectrale de puissance du code NRZ binaire est donc égale à :


2
1 1  sin fTb 
e ( f )  H ( f )  V 2 Tb2 sin c 2 ( fTb )  V 2 Tb  
2

Tb Tb  fTb 

𝑉 2 𝑇𝑏

Chapitre 4 -11-
Avantages :
- absence de composante continue (2è critère)

Inconvénients:
- absence de raie à 1/Tb (code non autosynchronisable)
- concentration de puissance au voisinage de la fréquence zéro

Les signaux transmis selon les normes V24, RS232, RS421, RS422, RS485… utilisent le
code NRZ.
4.5.1.2. Code NRZ M-aire

Le code NRZ M-aire est une généralisation du code NRZ binaire. A chaque ensemble de n
éléments binaires issus du message, on associe un symbole M-aire prenant ses valeurs dans un
alphabet A à M éléments :
A =  1, 3, ...,  (2p + 1), ...,  (M-1) avec M = 2n

La forme d'onde est toujours une "porte" d'amplitude V mais de durée T = nTb, puisque
chaque signal transporte n bits d'information.
Les éléments binaires k étant i.i.d. sur l'alphabet {0, 1}, les symboles ak sont i.i.d. sur
l'alphabet A. Leur moyenne ma est donc nulle et leur variance est :

 M2 1  M
1
M 2 1
   2 1
 2
 2 p  1 
2
  2  2p 1 . 
2 2
a
 p 0 M  M p 0 3
 

La densité spectrale de puissance du code NRZ M-aire a donc pour expression :


2
M 2  1 2  sin fT  M 2 1 2
e ( f )  V T    V T sin c 2  fT 
3  fT  3

M2 − 1 2
𝑉 𝑇
3

Chapitre 4 -12-
e(f)

1
T

Exercice : Tracer le chronogramme du NRZ quaternaire pour la séquence 1001001101 en


utilisant le codage suivant :

Mot binaire Symbole m-aire


01 +1
11 +3
00 -1
10 -3
e(t)

0 1 1 1 0 0 1 0 0 1
+3

+1

0
Tb 2Tb t
-1

-3

4.5.1.3. Code RZ binaire (Retour à zéro)

Pour ce code, à chaque élément binaire k du message, on associe un symbole ak avec:

ak = 1 si k = 1
ak = 0 si k = 0

La forme d'onde h (t) est un signal de durée Tb constitué par une "porte" d'amplitude V, de
durée Tb (0   1) suivie d'un retour à zéro de durée (1-)Tb:

V  t  0, Tb 
h(t )  
 0  t  Tb , Tb 

Un chronogramme de ce code est représenté sur la figure suivante ( = ½)

Chapitre 4 -13-
1 1
Les symboles binaires ak étant indépendants, de moyenne m a  et de variance  a2  , la
2 4
densité spectrale de puissance de ce code comprend une partie discrète (ma0) et une partie
continue :

2
 sin fTb  sin k   k 
2

  V 2  2  
1 1 
e ( f )  V 2  2 Tb     f  
4  fTb  4 k    k   Tb 

Pour   0,5 ( valeur généralement utilisée ) :


 
2

 sin k  
1 2 2  fTb 
e ( f )  V Tb sin c  
V 2   2    f  k 

 2  16 k       Tb 
k  
16

 2 

k
* k  0  sin c 1
2

* k  2 p  sin k  sin p
2
 
* k  2 p  1  sin k  sin 2 p  1
 1
2 2
V 2 Tb  fT  V 2   4  2 p  1 V 2
 e ( f )  sin c 2  b      f   (f )
16  2  16 p   2 p  1 
2 2
 Tb  16
V Tb2
 fT  V   2
1  2 p  1 V 2
 sin c 2  b   2 
  f   (f )
16  2  4 p   2 p  1
2
 Tb  16

Avantages :
- présence de raie à 1/Tb (code autosynchronisable)

Inconvénients :
- composante continue
Chapitre 4 -14-
- concentration de puissance à la fréquence zéro

2.1.5- Code biphase binaire ( ou code Manchester )

Ce code en ligne utilise la même règle de codage que le code NRZ binaire :
ak = -1 si k = 1
ak = 1 si k = 0

  T 
V  t  0, b 
  2
 T 
mais la forme d'onde h (t) a pour expression: h(t )   V  t   b , Tb 
 2 

 0 ailleurs

Un chronogramme du code biphase est le suivant :

e(t)
0 1 1 1 0 0 1
V

0 t

-V

Les symboles binaires ak sont indépendants, de moyenne nulle et de variance égale à 1.


La densité spectrale de puissance du code biphase est donc égale à :

 fT   fT 
e ( f )  V 2 Tb sin 2  b  sin c 2  b 
 2   2 

Ce code est donc bien adapté à un milieu qui ne passe pas les basses fréquences ni le continu, au
prix d’une bande passante doublée par rapport au codage NRZ
 Pas de composante continue
 Les transitions (+V  - V ou inversement) facilitent la récupération du rythme en réception.

Chapitre 4 -15-
Ce code est utilisé par :
 Ethernet (IEEE 802.3) sur câble coaxial ;

 Profibus (Process Field BUS), transmission MBP (Manchester Bus Powered)…

2.1.6- Code de Miller

Le code de Miller ou (Delay Modulation) est une variante du code biphase : il se déduit du
biphase en supprimant une transition sur deux suivant la règle :
Si “1”, transition en milieu de bit
Si “0”, pas de transition en milieu de bit mais transition en fin de bit si c’est un “0” qui suit.

e(t)
1 0 0 0 1 1 0
V

0 tt

-V

4.6. Codes en ligne à symboles dépendants

Pour ces codes en ligne, les symboles ak ne sont plus indépendants bien que la source de
message soit toujours à éléments binaires i-i-d.

2.2.1- Code bipolaire

Le code bipolaire ou code AMI ( Alternate Marked Inversion ) est un code à 3 niveaux.
La corrélation des symboles ak est réalisée en affectant alternativement les valeurs +1 et -1 aux
symboles ak lorsque l'élément binaire k est égal à 1. La règle de codage est la suivante :
ak = 1 si k = 1
ak = 0 si k = 0

La moyenne ma des symboles ak est nulle et leur variance est égale à 1/2.

1 1  1
 a ( f )      cos 2fTb
2Tb Tb  2


1
1  cos 2fTb 
2Tb

sin 2 fTb 
1

Tb

Remarque : Cette expression montre que la densité spectrale de puissance des codes
bipolaires s'annule à la fréquence zéro, et ceci indépendamment de la forme d'onde utilisée.
Chapitre 4 -16-
Cette caractéristique est due au codage particulier adopté pour les symboles ak. On
n
démontre en effet que si la somme courante S c (n)   a k des symboles ak d'un code en ligne est
k n

bornée pour tout n, alors la densité spectrale de puissance du code en ligne s'annule à la fréquence
zéro.
Pour le code bipolaire, cette somme Sc(n) est égale à -1, 0 ou +1 et ceci, quelle que soit la
valeur de l'indice n : le code bipolaire est donc un code à somme bornée.

La forme d'onde le plus souvent utilisée est de type RZ :

  T 
V , t  0, b  VTb  T   T 
h(t )    2  H( f )  sin c f b  exp  j b 
0 2  2  2
 ailleurs

Un chronogramme du code bipolaire RZ est le suivant :

La densité spectrale de puissance du code bipolaire RZ a pour expression :

V 2 Tb  T 
e ( f )  sin 2 fTb  sin c 2  f b 
4  2

* Le code bipolaire RZ n’a pas de raie à la fréquence zéro (avantage pour la télé-
alimentation).

* Sa densité spectrale de puissance est nulle à l’origine.

* La récupération de rythme est aisée : il suffit d’effectuer un redressement double


alternance du code bipolaire pour obtenir un code RZ binaire qui possède une raie à la fréquence
1/Tb dans sa densité spectrale de puissance.

* Il permet de détecter les erreurs. En effet, toute erreur introduit une anomalie dans la
polarité des “1” qui lui sont adjacents : on dit qu’il y a viol de parité.

Chapitre 4 -17-
Utilisation
 ISDN (bus S reliant les périphériques entre eux), en français, RNIS

(Réseau National à Intégration de Services) ;


 Anciennes liaisons téléphoniques numériques ;

Inconvénient : Si le message à transmettre contient une longue suite d’éléments binaires


 k égaux à 0, le signal résultant est nul pendant un long intervalle de temps, d’où perte de
synchronisation. Pour y remédier, on a été conduit à imaginer des codes ayant les avantages du
code bipolaire sans en avoir cet inconvénient. Le code HDBn (Haute Densité Bipolaire d’ordre n)
en est un exemple.

4.7. Le code HDBn

Le code HDBn, code dérivé du code bipolaire, est un code dans lequel on interdit plus de n
symboles  k successifs nuls : le (n+1)è élément binaire  k d’une suite (ou bloc) de n+1 zéros
consécutifs est codé par un symbole  k égal à 1, le signe étant choisi de telle manière que la
règle d’alternance soit violée.
En outre, on impose aux viols (V) de satisfaire entre eux la règle de l’alternance. Mais,
pour éviter que le récepteur ne puisse pas reconnaître un symbole de viol comme tel (s’il est de
signe contraire au “1” précédent), on code le 1er “0” de la suite des n+1 “0” consécutifs avec un
symbole  k = 1, du même signe que le viol qui lui succède : ce symbole est appelé symbole de
bourrage (B).

Pour n = 3 (HDB3), l’algorithme de codage est le suivant :

k 000
 0

+ Polarité du -
dernier viol

Polarité du Polarité du
dernier 1 dernier 1
+ - + -
ak B-00V- 000V- 000V+ B+00V
 +

Chapitre 4 -18-
Exemple de chronogramme du code HDB3

2.2.3. Code xB - yT

Des blocs de x éléments binaires (0, 1) transmis à la cadence 1/T sont codés par des blocs
de y signaux B/NRZ/L (  k  {-1, 0, 1}) transmis à la cadence 1/T’, avec :

2x  3y et x.T  y.T '

En pratique, on utilise le code 4B – 3T avec la table de conversion suivante :

BLOC 4 BITS BLOC 3 SIGNAUX BIPOLAIRES


(mot à coder) (mot codé)
0 0 0 0 -A 0 +A
0 0 0 1 -A +A 0
0 0 1 0 0 -A +A
0 0 1 1 +A -A 0
Moyenne > 0 Moyenne < 0
0 1 0 0 +A +A 0 -A -A 0
0 1 0 1 0 +A +A 0 -A -A
0 1 1 0 +A 0 +A -A 0 -A
0 1 1 1 +A +A +A -A -A -A
1 0 0 0 +A +A -A -A -A +A
1 0 0 1 -A +A +A +A -A -A
1 0 1 0 +A -A +A -A +A -A
1 0 1 1 +A 0 0 -A 0 0
1 1 0 0 0 +A 0 0 -A 0
1 1 0 1 0 0 +A 0 0 -A
1 1 1 0 0 +A -A
1 1 1 1 +A 0 -A

N.B.

1°) On utilise en alternance la double table de conversion des signaux à moyenne non nulle
dans le but de maintenir la composante continue du signal aussi faible que possible.

2°) Pour la démodulation, il est indispensable de repérer le début de chaque bloc : on parle
de synchronisation « trame ».

Chapitre 4 -19-
Remarque : Le code 1B -1T n’est rien d’autre que le code AMI.

Utilisation : Ethernet 100base-T4 : 8B6T

Chapitre 4 -2-

Vous aimerez peut-être aussi