Académique Documents
Professionnel Documents
Culture Documents
Ressource 305
Fabrice Morganti
Année universitaire 2022-2023
IUT de Béthune
Pôle de l’université d’Artois
Département R&T
Sommaire
Généralités
Codage de la source
Codage du canal
1/126
Sommaire
Généralités
Codage de la source
Codage du canal
Généralités 2/126
Définitions
Communications numériques
$ Désignent l’ensemble des technologies pour transmettre des informations
à caractères numériques
Généralités 3/126
Hypothèses
Généralités 4/126
Schéma d’une chaîne de transmission numérique
Généralités 5/126
Description de la chaîne d’émission
Source
Ensemble de symbole à transmettre
Codage source
Réduit la redondance de la source pour diminuer le débit binaire à
transmettre
Codage canal
Ajouter une redondance structurée aux symboles transmis pour protéger
l’émission contre les erreurs. Cette opération augmente le débit.
Modulation/Codage ligne
Associer aux symboles logiques un signal physique que l’on pourra
transmettre sur le canal. Selon qu’une porteuse est utilisée ou non, on
parlera de modulation ou de codage en ligne. Ce bloc inclut
généralement un filtre d’émission qui limite le spectre du signal émis.
Généralités 6/126
Description de la chaîne de réception
Démodulation/détection
Démodule le signal et décide quel est le symbole (ou la chaîne de
symboles) reçu en optimisant un critère tel que la minimisation de la
probabilité d’erreurs. Un bloc synchronisation est associé pour
récupérer la fréquence et parfois la phase de la porteuse, ainsi que
l’horloge des symboles, et dans certains cas une synchronisation trame ;
Décodage canal
Détecte la présence d’erreurs et peut demander la retransmission des
données erronées, ou corriger les erreurs si la capacité du code n’est
pas dépassée ;
Décodage source
Décomprime les données pour régénérer les symboles originaux.
Généralités 7/126
Le canal de transmission
Généralités 8/126
Modélisation du canal de transmission
Généralités 9/126
Conséquences des distorsions introduites par le canal
Généralités 10/126
Mesure du BER
Par simulation
$ Envoi d’une séquence de bits connue du récepteur
$ Comparaison entre les bits émis et bits reçus
Calcul théorique
$ Probabilité d’erreur Pb
Ne
$ BER = : Ne : Nombre de bits erronés, N : nombre de bits
N
émis
Généralités 11/126
Autres performances
Efficacité spectrale
elle définit les performances d’une transmission
Dmax
η= bit/s/Hz 0 < η ≦ 8 (1)
B
Efficacité en puissance
Diminuer la puissance émise à BER fixé
Généralités 12/126
Sommaire
Généralités
Codage de la source
Codage du canal
$ le débit binaire
est limité par la
bande
passante du canal
S S
sachant que = 10 log et B la bande passante
N dB N
S
Dmax = B log2 1 + (4)
N
Forme générale
+∞
X
x(t) = ak s(t − kTs ) (5)
k=−∞
Ts = kTb (7)
$ Du point de vue mathématique, x(t) peut être considéré comme la sortie d’un
filtre de réponse impulsionnelle s(t) dont l’entrée est le signal a(t) formé
d’une somme de dirac d’amplitude ak
$ Cette opération est appelée produit de convolution x(t) = a(t) ⊗ s(t)
$ s(t) est la réponse impulsionnelle du filtre.
+∞
X
a(t) = ak δ(t − kTs ) (8)
k=−∞
+∞
X
x(t) = ak s(t − kTs ) (9)
k=−∞
∞
σa2 2σ 2 X
Sx (f ) = |S(f )|2 + a |S(f )|2 Γ′a (k) cos 2πkfTs
Ts Ts
k=1
| {z }
A
∞ 2
m2 X k k
+ a2 S δ f −
Ts Ts Ts
k=−∞
| {z }
B
$ Bit à 0 : a0 = −V
$ Bit à 1 : a1 = +V
$ ±V est une tension électrique
$ Exemple du chronogramme avec la séquence aléatoire
binaire 1001001101
0
0 1 2 3 4
fTb
V
Vi = ± (2i − 1) (12)
M −1
$ La formule de Bennett s’écrit
2
V Ts 2 sin πfTs 2
Sx (f ) = (M − 1) (13)
M −1 3 πfTs
Bits Code
00 −V
01 −V /3
10 +V /3
11 +V
Table 1: Codage NRZ 4-aire
$ La composante
1
continue est plus
0.5 importante en NRZ
4-aire
0
0 1 2 3 4
fTb
1
fréquence permet
Tb
2 · 10−2 de récupérer le
rythme d’émission
0
des bits par un
simple filtrage
0 1 2 3 4
fTb $ La synchronisation
du récepteur est
donc possible.
Modulations numériques : les codes en ligne 33/126
Code biphase (Manchester)
M(f )
$ La bande occupée est de 2/Tb 0.2
$ Code intéressant car il ne possède
0.1
aucune composante continue (f = 0)
$ La transition entre chaque période 0
0.2
0.15
M(f )
0.1
5 · 10−2
0
0 1 2 3 4
fTb
$ Exemple HDB3
$ Le signal reçu r (t) est lié au signal émis x(t) avec la relation
Problème
$ Il faut reconstruire x(t) connaissant r (t)
$ C’est impossible car :
n(t) est un bruit aléatoire inconnu
on ne sait pas "déconvoluer" par h(t), en supposant la
réponse impulsionnelle connue
Premier critère
$ Réponse impulsionnelle
sin π Tts
g (t) = (18)
π Tts
Deuxième critère
$ Réponse impulsionnelle
πt πt
sin T s
cos T s
g (t) = πt 2 (19)
2t
Ts 1 − Ts
avec
1
fc − 2Ts
α= 1
2Ts
$ Réception d’un symbole sur 3Ts $ 8 codes possibles sur une durée 3Ts
$ Superposition sur Ts
$ Diagramme de l’œil sur 3Tm
$ une
ulation deouverture
l’IES :verticale
conditions deau Nyquist
a (immunité bruit),
$ une ouverture horizontale b (immunité au déphasage de l’horloge),
dition $
de une pente c dans
Nyquist (immunité à la gigue 2 temporel
le domaine d’horloge)
$ une fluctuation d (amplitude de la gigue du point de passage par
zéro)
mis a échantillonnage en réception r(t) ne comprend qu’une partie ”signal” , la pa
2. fluctuation temporelle du signal
absent. r(t)
Modulations donc: less’écrit
numériques codes en comme:
ligne 56/126
Égalisation
Codage NRZ
$ Avec u1=+V et u2=-V
$ Le seuil λ = 0
$ La probabilité d’erreur est donné par :
r !
1 Eb
P(e) = erfc (22)
2 N0
avec
N0 : la densité spectrale de puissance de bruit
Eb = V 2 Tb : énergie d’un bit
avec
N0 : la densité spectrale de puissance de bruit
V 2 Tb
Eb = : énergie d’un bit
2
Source : [1]
Généralités
Codage de la source
Codage du canal
Pourquoi transposer ?
$ Adapter le signal informatif au support de transmission ;
$ Une transmission hertzienne nécessite d’avoir fréquence por-
teuse très supérieure à la fréquence du modulant. ;
$ Cette relation permet d’avoir une antenne de taille raison-
nable ;
c
$ Par exemple : fp = 915MHz λ = avec c = 3.108 m/s,
fp
λ = 32, 7cm.
$ Imaginez la taille de l’antenne si on devait transmettre un
signal audio en bande de base !
Modulation
$ Un modulateur permet de transposer une signal sur une fré-
quence porteuse ;
$ la porteuse est un signal sinusoïdal de fréquence élevée ;
$ La modulation va permettre de modifier une caractéristique
de ce signal porteur :
amplitude : modulation en amplitude (AM : amplitude
modulation) ;
fréquence : modulation en fréquence (FM : frequency mo-
dulation) ;
phase : modulation de phase (PM : phase modulation).
p(t) = P cos(2πfp t)
0.5
amplitude
−0.5
−1
temps
Modulations numériques : transmission sur fréquence porteuse 67/126
Spectre unilatéral du signal am(t)
MP
AM(f ) = δ(f − (fp + fm )) + δ(f − (fp − fm )) (24)
2
|AM(f )|
MP
2
fréquence
fp − fm fp + fm
Phase instantanée
$ Posons
p(t) = P cos(Θ(t))
avec
Θ(t) = 2πfp t + φ(t)
Fréquence instantanée
$ La fréquence instantanée de p(t) est donnée par
1 dΘ 1 dφ
f (t) = = fp + (25)
2π dt 2π dt
$ β : indice de modulation
∆f
$ Avec β = et ∆f = kM
fm
Signal FM
2 modulant
Signal FM
1
amplitude
−1
−2
temps
Modulations numériques : transmission sur fréquence porteuse 71/126
Modulation de fréquence : Allure du spectre
|FM(f )|
M = 1V P = 2V fp − fm = 19kHz
J0 (β) = 0, 99 J1 (β) = 0, 099 fp + fm = 21kHz
PJ0 (β)
PJ1 (β)
fréquence
fp − fm fp fp + fm
Modulant sinusoïdal
$ A partir de l’équation précédente, il faut relier le modulant à la phase de la
porteuse φ(t) = kmp m(t) avec m(t) = M cos(2πfm t)
$ La phase instantanée s’écrit
Modulant sinusoïdal
$ Le spectre d’un signal PM se détermine de la même manière
que pour le signal FM et fait intervenir les fonctions de Bessel
$ L’évolution temporelle doit être réalisée en fixant une réfé-
rence des phases afin d’observer la variation de phase
(OOK) :
$ Cette une représentation est appelée constellation
NRZ bipolaire
$ modulant m(t) : signal NRZ aléatoire bipolaire d’amplitude
+1, −1
$ période du bit Tb
1
$ fréquence fb =
Tb
$ énergie par bit est notée Eb
$ le bruit sera considéré comme blanc de DSP N0
1 1
0.5 0.5
amplitude
0 amplitude 0
−0.5 −0.5
−1 −1
temps temps
Modulations numériques : transmission sur fréquence porteuse 81/126
Spectre d’un signal ASK (2-aire)
0.8
|ASK (f )|
0.6
0.4
0.2
0
0 2 4 6 8
fTb
2
$ encombrement spectral
Tb
Bits Code
00 −1
01 −3
11 +3
10 +1
Table 2: Codage NRZ 4-aire
3. Source https://fr.wikipedia.org/wiki/Code_de_Gray
Modulations numériques : transmission sur fréquence porteuse 85/126
Schéma d’un modulateur/démodulateur ASK
ask(t) cos(2πfp t + φ0 ) =
X
= cos2 (2πfp t + φ0 ) ak s(t − kTs )
k
P
k ak s(t − kTs )
=
| 2
{z }
A
1 X
+ cos(2πfp t + φ0 ) ak s(t − kTs )
2
k
| {z }
B
π
φk = k si M > 2
M
φk = 0 ou φk = π si M = 2
k ∈ [0, M − 1]
$ Pour transmettre M symboles, l’ensemble des phases est :
$ Tous les points de la constellation possède la même amplitude : ils se
trouvent donc sur un cercle de rayon Ap
0.5
amplitude
−0.5
−1
temps
1 Eb
Pe = exp(− )
2 N0
$ I (t) = ak cos φk
$ Q(t) = ak sin φk
Exemple de signaux
I(t) Q(t) QAM(t) $ Constellation associée
√ 3π
0(-1) 0(-1) 2 cos(2πfp t − )
4
√ 3π
0(-1) 1(1) 2 cos(2πfp t + )
√ 4
π
1(+1) 0(-1) 2 cos(2πfp t − )
√ 4
π
1(+1) 1(+1) 2 cos(2πfp t + )
4
Table 3: Codage QAM
$ Si l’on reprend les équations développés pour une modulation analogique sur
le slide (70) :
Posons
p(t) = P cos(Θ(t))
avec
Θ(t) = 2πfp t + φ(t)
1 dΘ 1 dφ
f (t) = = fp + (36)
2π dt 2π
| {zdt}
±∆f
$ L’idée est d’associer une fréquence pour chaque symbole en faisant varier la
∆f
fréquence de la porteuse entre deux valeurs fp ±
2
1 dφ ∆f X
= ak s(t − kTs )
2π dt 2
k
amplitude
considérer la DSP FSK comme 0
Généralités
Codage de la source
Codage du canal
H(X )
η= (40)
L
$ L’entropie d’une source satisfait à la relation :
Exemple de codage
$ H(X)=2,36 b/symbole
$ L=2,38 b/symbole
$ η = H(X)/L=0,99
Exemple de codage
Généralités
Codage de la source
Codage du canal
Eb
$ La probabilité d’erreur est fonction du rapport quelque
N0
soit le codage choisi
$ Pour diminuer les erreurs on pourrait augmenter Eb et
diminuer N0 . Cette solution est trop onéreuse
$ L’ajout d’information redondante permet de réduire les
erreurs de transmission
$ L’opération du codage du canal implique une augmentation
du débit et donc une augmentation de la bande occupée
pour une modulation donnée
$ Deux grandes familles de code :
Codage en blocs
Codage convolutif ou récurrent
Historique
$ Codes algébriques structurés (1948-1993)
Codes en blocs : Hamming, Golay, Reed-Solomon, . . .
codes convolutifs
$ Codes pseudo-aléatoires (1993-2003)
Turbo-codes (1993)
LDPC (Low-Density Parity-Check Codes)
$ Codes [n, m, d]
n : mots code composés de n bits
m : bits associés à l ’information utile
k=n-m : bits utilisés pour la détection/correction
symboles différents entre 2 mots quelconques du code
d : distance de Hamming du code = nombre de
symboles différents entre deux mots quelconque du
code
$ avec d=2e+1 correction de e erreurs
$ avec d=2e, détection de e erreurs, correction de e-1
Définitions
$ Un code C est cyclique si pour tout mot code (c0 ,c1 , . . .,cn−1 ), le mot code
permuté (cn−1 ,c1 , . . .,cn−2 ) appartient également au code.
$ Exemple : 000,011,101,110 est cyclique
$ En général, on utilise une écriture polynomiale du code
[1] Hikmet Sari. « Transmission des signaux numériques ». In : base documentaire : TIB293DUO.ref. article : e7100
(1995). doi : 10.51257/a-v3-e7100.
[2] Yvon Mori. Théorie de l’information et du codage. Sous la dir. d’Hermès-Lavoisier. T. 5. 2006. isbn :
2-7462-1343-5.
[3] Geneviève Baudoin. Radiocommunications numériques. Sous la dir. de Dunod. T. 1. 2013, p. 672. isbn :
978-2-10-059513-6.