Vous êtes sur la page 1sur 14

Systèmes de Communications Numériques

Philippe Ciuciu † , Christophe Vignat ‡


Laboratoire des Signaux et Systèmes CNRS – SUPÉLEC – UPS
SUPÉLEC, Plateau de Moulon, 91192 Gif-sur-Yvette

ciuciu@lss.supelec.fr


Université de Marne la Vallée, Équipe systÃLmes de communications

vignat@univ-mlv.fr

esiea, 18 janvier 1999

Systèmes de communications numériques 2

Plan du cours

– Chapitre I : Introduction aux communications numériques.


– Chapitre II : Modulations d’Impulsions en Amplitude.
– Chapitre III : Transmission, réception et détection en bande de base.
– Chapitre IV : Modélisation des signaux passe bande.
– Chapitre V : Modulations sur onde porteuse.
– Chapitre VI : Transmission sur onde porteuse (bande transposée).
Chapitre I :
Introduction aux communications
numériques

Introudction 4

Information numérique

• Communications analogiques/numériques
→ communications analogiques : message (Msg) transmis = signal analogique.
→ communications numériques : Msg numérique (données numériques, ex. : fichier
d’ordinateur), ou digitalisation de signaux analogiques (sons, vidéo) par échantillonnage,
quantification et codage binaire.

• Msg numérique m = suite de symboles appartenant à un ensemble fini appelé


alphabet, note A. (Un symbole = 1 v.a. discrète).

|A| = M ⇒ symboles M -aires.


ex : M = 2, symboles binaires ou bits.
• Toujours possible de passer de symboles M -aire à un ensemble de p symboles binaires,
avec :
p = [log2 M ] + 1
où [x] désigne la partie entière de x.
Introudction 5

• hypothèses de transmission : A connu du destinataire, msg transmis inconnu.


• En pratique, transmission des symboles d’information sur le canal par des signaux
analogiques.

• Différence fondamentale entre comm. anal. et comm. num.


Problème du destinataire en comm. anal. : retrouver à partir d’une observation
bruitée et distordue, la forme exacte du signal émis ! !
Problème different en comm. num. : décider à quel symbole ou quelle suite de
symboles correspond le signal reçu.

P. Ciuciu esiea

Introudction 6

Théorie des transmissions numériques

• Transmissions numériques : depuis quand ?


Développement récent d’une théorie satisfaisante pour optimiser les paramètres de la
chaı̂ne de transmission : C. Shannon (1948).

• Idées préconcues sur le bruit tombées à l’eau :


Bruit appartient aux caractéristiques du canal : pas de limitation sur l’exactitude de
l’information reçue mais simplement sur son débit maximum = C = capacité du
canal (cf. th. du codage de canal).

• Optimisation d’un système de transmission numérique (STN)


optimisation performance/coût séparée d’un STN, à qualité fixée :
1 du processus d’obtention de l’info num. d’une part (quantification, compression)
2 de la chaı̂ne de transmission d’autre part (codage de source, codage de canal,...)
Ici, on ne s’intéresse qu’à 2 : on traite des suites de symboles ! !
Introudction 7

Codage de source

Trouve ses fondements dans la théorie de l’information.


Entropie H : mesure d’information.

1er Théorème de Shannon : théorème du codage de source


Une source S d’entropie H peut être codée de façon déchiffrable par un alphabet A
de r lettres avec des mots (messages) dont la longueur moyenne ¯l vérifie :
H H
≤ ¯l < + 1.
log(r) log(r)
But : éliminer la redondance de la source S, et donc réduire le débit, i.e., produire
une suite de symboles binaires iid et donc à entropie maximale :
ex : codage d’Huffman, de Fano-Shannon.

P. Ciuciu esiea

Introudction 8

après le codage de source, caractérisation de la source par son débit binaire :


D = nombre d’éléments binaires émis par unité de temps (bit/s).
ex : D = 1/Tb , si Tb = durée entre l’émission de 2 symboles binaires consécutifs.

Source synchrone = émission de symboles par la source à cadence constante.


Introudction 9

Codage de canal (codes correcteurs d’erreurs)

• Pas d’équivalent en transmission analogique : rajout d’infos pour améliorer la qualité


de la transmission.

But : coder l’information numérique issue du codage de source afin de pouvoir la


transmettre avec une probabilité d’erreur fixée arbitrairement, sur un canal de transmis-
sion (à bande limitée).

• pourquoi ça marche ?


2e Théorème de Shannon : théorème du codage de canal discret (sans mémoire)
Si l’entropie H de la source S est inférieure ou égale à la capacité C du canal bruyant,
il existe un codage redondant (codage de canal) tel que la probabilité d’erreur de trans-
mission puisse être rendue aussi petite que l’on veut.
Remarque : Beau résultat théorique, mais comment trouver ce code : limite de Shannon
pas atteinte en pratique ! !

P. Ciuciu esiea

Introudction 10

• Comment ?
Ajout de la redondance pour détecter et corriger les erreurs.
ex : contrôle de parité, codes linéaires (Hamming, BCH, Reed-Muller), cycliques, convo-
lutionnels.

Effet :
% du débit binaire D si fenêtre temporelle d’emission fixée.

Décodeur de canal

→ Connaı̂t la loi de codage utilisée à l’émission.


→ Vérifie si cette loi est toujours respectée en réception.
Introudction 11

Émetteur

• Msg numérique = suite de symboles binaires : grandeur abstraite ! !


⇒Association d’une représentation physique (signal électrique) à ce message :
« signal véhiculé par le canal ≡ grandeur analogique. »

• fonction de l’émetteur : adaptation du signal au milieu de transmission


À chaque n-uplet issu du message, on associe Si (t), i = 1, . . . , M de durée T = nTb ,
choisi parmi M = 2n signaux, en fonction de la réalisation du n-uplet.
– caractéristique du Msg numérique ←→ D ;
– caractéristiques des signaux Si (t) ←→ R : Rapidité de modulation.

⇒Transmission binaire : R = 1/T (Bauds).


⇒Transmission M -aire : R = D/log2 M .

P. Ciuciu esiea

Introudction 12

Choix des Si (t) en fonction des propriétés physiques du milieu de transmission (largeur
de bande,...).
• Traitements effectués par l’émetteur :
– modulation d’impulsion ou sur porteuse (translation en fréquence),
– filtrage (limitation spectrale) pour multiplexage fréquentiel sans interférence.
Introudction 13

Canal de transmission

• Définition variable selon le point de vue (propagation, th. de l’information, th. des
communications).
Ici : Canal = Milieu de transmission + bruit.

Milieu de transmission
– câble bifilaire : bande passante faible, (D < 2Mbit/s sur RTC).
– câble coaxial : bande passante plus grande. Débit assez élevé jusqu’à plusieurs centaines
de Mbit/s (D = 565Mbit/s sur RTC).
– fibre optique : bande passante très élevée, et faible atténuation ; débit de plusieurs
Gbit/s.
– l’espace libre : propagation d’une onde éléctromagnétique dans l’atmosphère. Milieu
réservé aux transmissions par satellite ou par faisceaux hertziens, et radiocom.

P. Ciuciu esiea

Introudction 14

Modélisation du milieu de transmission


– filtre linéaire de transmittance C(f ),
– filtre linéaire non stationnaire de transmittance C(f, t),
– non linéarités, effet Doppler : canaux dispersifs (pas abordés ci).

Bruit = perturbation aléatoire d’origines :


– milieu de transmission (bruit externe, ex : rayonnements captés par l’antenne, inter-
férences entre utilisateurs,...)
– dispositifs électroniques utilisés dans le récepteur (bruit interne : mouvement brow-
nien des électrons dans composants actifs (semi-conducteurs) et passifs (résistances)
qui constituent les dispositifs de réception).
⇒ bruit interne = blanc gaussien (th. limite centrale).
⇒ Modélisation du bruit : 1 source n(t) en amont du récepteur, n(t) ∼ N (0, N0 I), et
Introudction 15

de DSP γn (f ) uniforme :
γn (f ) = N0 , ∀f

• Transmission en bande de base (chap. II & III) :


B : Bande de fréquence allouée à la transmission du message num :
0 ' f1 ≤ B ≤ f2 .
Utilisation des câbles comme milieu de transmission.

• Transmission en bande transposée (chap. IV, V & VI) :


Bande de fréquence B allouée, centrée autour d’une fréquence porteuse f0 , telle
que f0 >B (transmission dans l’espace libre).
Remarques :
– Modulation d’impulsions en amplitude ou code en ligne (line code) pour transmis-
sion en bande de base.
– Modulation sur onde portesue utilisée pour transmission en bande transposée.

P. Ciuciu esiea

Introudction 16

Théorème de la capacité d’information (canaux continus)

But : définir 1 capacité de transfert sans erreur maximale pour les canaux continus en
fonction de leur caractéristiques.
• Canaux gaussiens (temps discret)
Entrée x réelle, sortie y réelle, telles que la distribution conditionnelle de y sachant x
suit 1 loi normale y ∼ N (x, σ 2 ).
• Intérêt du canal gaussien
– Canal réel (électrique) dont les entrée et sortie sont à temps continu :
– entrée x(t) signal à bande limitée et sortie y(t) = x(t) + n(t), avec n(t) ∼
N (0, N0 I).
– Coût de la transmission = puissance consommée, exprimée par la contrainte :
Z
1 T 2
x (t)dt ≤ P
T 0
Introudction 17

Communication sur un tel canal :


K
Émission de {xk }k=1 via x(t) de durée T :
K
X K
x(t) = xk ϕk (t), où {ϕk (t)}k=1 forment 1 base orthogonale.
k=1

Réception : yk = xk + nk .
nk ∼ N (0, N0 /2) ⇒ n(t) gaussien comme 1 c.l. de canaux scalaires gaussiens.
⇒ Canal continu équivalent à un canal gaussien.
Contrainte de puissance introduit une contrainte sur les xk :
Z T K
X
2 PT
x (t) ≤ P T ⇔ x2k ≤ P T ⇒ x2 ≤
0 K
k=1

P. Ciuciu esiea

Introudction 18

Définition de la bande passante du canal à temps continu


K
W = en Hertz ,
2T
où K = nb max. de fonctions orthogonales pouvant être émises dans [0, T ].
Justification de la définition
Création de x(t) à bande limitée de durée T à partir de sinus et cosinus orthogonaux
de fréquence maximum W . Nombre de fonctions orthogonales alors égal à K = 2W T .

⇒ Lien avec le théorème d’échantillonnage de Shannon – Nyquist d’un signal de fré-


quence maximale W .
donc : l’utilisation d’un canal réel à temps continu, de bande passante W , de DSP
de bruit N0 et de puissance P est équivalente à l’utilisation K/T = 2W fois par
seconde d’un canal gaussien à temps discret avec σ 2 = N0 /2 et soumis à la contrainte
x2 ≤ P/W .
Introudction 19

Capacité d’un canal gaussien

Entrées infinies
S’il était possible de transmettre n’importe quel nombre x à travers un canal gaussien,
alors on écrirait tout le message sur un seul nombre, avec beaucoup de zéros supplé-
mentaires (pour réduire la proba d’erreur) ! !
– Quantité d’information transmise sans erreur serait infinie ! !
– Introduction d’une fonction de coût v(x) pour tout entrée x et fixation d’une contrainte
de coût moyen maximum v sur les codes.
Ex : coût quadratique, v(x) = x2 (canaux électriques), contraignant la puissance
moyenne de l’entrée.

⇒ Généralisation aux canaux continus du th. de codage de canal pour canaux discrets.
⇒ Impossible de transmettre une info. infinie sur un canal gaussien.

P. Ciuciu esiea

Introudction 20

Précision de la transmission

Mesure d’information discrète admettant une limite bien définie pour des variables
réelles : Information mutuelle.
X P (x, y)
Cas discret (rappel) : I(X, Y ) = P (x, y) log
x,y
P (x)P (y)
Z
f (x, y)
Cas continu : I(X, Y ) = f (x, y) log dxdy
f (x)f (y)
(a) Est ce que l’information mutuelle maximale mesure, comme dans le cas d’un canal
discret, le taux d’information maximum transmissible sans erreur de ce canal ?
Réponse : Oui. Pour le démontrer on pourrait définir une suite de canaux discrets, tous
basés sur le canal gaussien (rel y | x ∼ N ) avec un nombre croissant d’entrées et de
sorties, et montrer que l’information mutuelle maximale de ces canaux tend vers C.

⇒ capacité C d’un canal continu = taux critique de transmission sans erreur satisfaisant
Introudction 21

la contrainte de puissance :
£ £ ¤ ¤
C = max I(X, Y ) | E X 2 = P (1)
X,Y

(b) Recherche de la densité de probabilité f (x) qui maximise sous la contrainte x2 = v


l’information mutuelle.
On montre par les multiplicateurs de Lagrange que f (y) est gaussienne au maximum
de I(X, Y ), si bien que f (x) est gaussienne, puisque f (y | x) est gaussienne car le
canal est gaussien.
Si f (x) ∼ N (0, v) et f (y | x) ∼ N (x, σ 2 ), alors f (y) ∼ N (0, v + σ 2 ) et :
1 ³ v ´
C = log 1 + 2 (2)
2 σ
La capacité d’un canal gaussien est fonction du RSB v/σ 2 .

• Capacité d’un canal continu


En reportant le resultat obtenu en (2) pour un canal réel continu de bande passante

P. Ciuciu esiea

Introudction 22

W , de DSP N0 et de puissance P , on trouve que σ 2 = N0 /2, x2 ≤ P/2W , et donc la


capacité du canal continu vaut :
µ ¶
P
C = W log 1 + (3)
N0 W

→ compromis à réaliser en pratique : si contrainte sur P est fixée, quelle est la meilleure
bande passante pour utiliser cette puissance ?
En introduisant W0 = P/N0 la bande passante pour laquelle le RSB, égal à P/W0 B,
vaut 1, on voit donc que :
µ ¶
C W W0
= log 1 +
W0 W0 W
autrement dit, la capacité croit en fonction de W/W0 (l’inverse du RSB) pour atteindre
l’asymptote W0 log e.

Conclusion : Il vaut donc beaucoup mieux (en termes de capacité) trans-


mettre avec un faible RSB dans un canal large bande qu’avec un fort
RSB dans un canal bande étroite.
Introudction 23

Récepteur

• Fonction de reconstitution du Msg émis par la source à partir du signal reçu.


• Organes constitutifs :
– circuits d’amplification
– circuits de changement de fréquence
– démodulation
– échantillonnage
– organe de décision : identifie la valeur des symboles binaires = opération de détection.

P. Ciuciu esiea

Introudction 24

Mesure de la qualité d’une transmission numérique

• Mesure de qualité : Peb = probabilité d’erreur par symbole binaire


(Peb 6 0) 6≡ transmission de mauvaise qualité.
=
αk émis en kTb , d’une source iid sur A = {0, 1}
Peb = Pr(αk = 1)Pr(α̂k = 0 | αk = 1) + Pr(αk = 0)Pr(α̂k = 1 | αk = 0) (4)
où α̂k = décision prise sur symbole αk .
Remarque :
Pour 1 Canal à bruit n(t) additif stationnaire, Peb indep. de k.
• Taux d’erreur par symbole binaire
Apprentissage par 1 séquence binaire connue du destinataire, de longueur N :
N
1 X
τeb : Estimateur de Peb , τeb = Xk
N
k=1
où Xk : v.a. discrète d’« erreur » ∼ loi de Bernouilli de paramètre Peb .
Introudction 25
£ ¤
mτ = E τeb = Peb
£¡ £ ¤¢2 ¤
στ2 = E τeb − E τeb
£ ¤
τeb : : estimateur sans biais ⇔ β(τeb ) = E τeb − Peb = 0.

Erreurs de transmission indépendantes ⇔ V.A. (Xk ) indépendantes


Peb (1 − Peb )
⇒ variance d’estimation : στ2 = N
Estimation de Peb à partir de τeb , entachée d’une erreur fonction de N , quantifiable
à partir de l’erreur quadratique relative ε2 :

2στ2 1 − Peb 1
ε = 2 = ≈ si Peb < 1.
mτ N Peb N Peb
→ permet de déterminer N et donc la durée N/D nécessaire pour mesurer τeb à ε
fixée.
ex : pour estimer Peb = 10−6 , avec ε2 < 10−2 , il faut N = 108 , ce qui nécessiterait 1
sec. pour D = 100 Mbit/s, mais 105 sec. pour D = 1 kbit/s.
Si £n ¤= N τeb : nombre de Xk égaux à 1 sur les N envoyés ∼ v.a. de comptage
⇒ E n = 1/ε2 : pour ε2 < 10−2 , il faut compter n = 100 erreurs en moyenne.
P. Ciuciu esiea

Introudction 26

Avantages des communications numériques

• Obtention d’une qualité déterminée : lutte contre le bruit


possibilité de conserver intégralement une certaine qualité ! !
⇒ Impossible en transmission analogique (distorsion et bruitage du Msg anal.)
garantir une probabilité d’erreur inférieure à une limite fixée quelle que soit la distance
ou les conditions de la transmission.
• répéteurs, régénerateurs 6= amplificateurs anal. : régénération d’un signal propre en
communication digitale.
• faibles coûts de stockage des infos sous forme numérique, circuits numériques stan-
dardisés.
• perspectives de traitements nouveaux techniquement et économiquement accessibles : mul-
tiplexages, compression, cryptage,...
Introudction 27

Inconvénients des communications numériques

• Consommation spectrale
∆B & avec D : plus importante en trans. num.
ex : transmission téléphonique classique
→ trans. anal. : 3100Hz [300 Hz - 3400 Hz]
→ trans. num. de qualité équivalente : numérisation du signal de parole (codage sur
8 bits de chaque échantillon numérisé à une fréquence de 8 kHz (fe ≥ 2fmax )). Débit
numérique = 64 kbit/s nécessite 7 voies téléphoniques pour un modem V32 (9600 bit/s
sur 1 ligne), mais ...
• Multiplexage temporel : transmission de plusieurs infos sur un même canal.
ex (suite) : possibilité de descendre sans perte de qualité (par compression), à 9600 bit/s
puis de transmettre le Msg sur un modem V32ter (19200 bit/s sur 1 ligne).
• Complexité : surtout d’ordre logiciel maintenant, car faibles coûts des échantillonneurs,
quantificateurs, CA/N et CN/A .

P. Ciuciu esiea

Vous aimerez peut-être aussi