Académique Documents
Professionnel Documents
Culture Documents
Nous poursuivons ici l’étude des systèmes de transmission sur porteuse que nous avons
commencés au chapitre 2. Nous donnons la structure du récepteur et évaluons la performance
de chaque système en calculant la probabilité d’erreur.
1. MODELISATION
Figure 3.1.
34
L’observation faite par le récepteur s’écrit :
Où n(t) est une réalisation d’un bruit quasi-blanc gaussien, centré, de DSP N0/2, et où le
signal S(t) est passe bande ; i.e. de la forme :
j 2 πf 0 t
S(t) = Ré(Sb(t) e )
j 2 πf 0 t
n(t) = Ré(nb(t) e )
j 2 πf 0 t
Z(t) = Ré(Zb(t) e )
Notons pourtant que cette représentation suppose que la largeur de bande des signaux
en bande de base est inférieure à la fréquence porteuse. En pratique, cette condition est
toujours satisfaite. Par exemple, lorsque l’impulsion de base h(t) est de durée T (cas de la
MDP), il faut s’assurer que f0T >> 1. Les résultats obtenus sont évidemment valides pour les
signaux transmis en bande de base.
Le filtre passe bas hcb(t), équivalent en bande de base du filtre passe bande hc(t), a
comme fonction de transfert :
+
Hcb(f) = H c(f + f0)
+
H c(f + f0) est égal, rappelons le, à la partie droite (fréquences positives) de la fonction de
transfert du filtre passe-bande ramenée en bande de base par une translation. Cette fonction n’a
aucune raison, dans le cas général, d’avoir une symétrie hermitienne autour de l’axe f = 0.
La réponse impulsionnelle correspondante est donc complexe. Nous allons voir que cette
caractéristique va être à l’origine d’une diaphonie entre les deux composantes en quadrature du
signal numérique ce qui peut être très regrettable, comme on peut s’en douter.
35
Figure 3.2.
Avec : xb(t) = ∑ n
dnhm(t – nT)
et Sb(t) = ∑ n
dn h(t – nT)
où : h(t) = hm(t) * hcb(t) est un filtre qui est en général complexe. L’observation équivalente en
bande de base est donnée par :
Zb(t) = ∑ n
dn h(t – nT) + nb(t) (3.2)
où y(t) représente le signal qui véhicule les symboles d’information dk et w(t) est un terme de
bruit qui résulte du passage du bruit nb(t) dans le filtre de réception. Il est gaussien stationnaire
centrée et de DSP.
Sw(f) = 2N0G(f)
2
(3.4)
y(t) = ∑
n
dn p(t – nT) (3.5)
36
Ce filtre modélise l’impulsion de base à la sortie du filtre de réception g(t). Il représente
l’ensemble des contributions sous forme de filtrages linéaires, entre la source et l’entrée de
l’échantillonneur.
Le canal de transmission a été modélisé à l'aide d'un filtre linéaire hc(t) et d'un bruit additif.
Ce faisant, nous n’intéressons pas ici aux effets des non linéarités sur le signal numérique.
L'étude des effets du bruit sera effectuée dans une autre réaction.
Nous allons donc nous contenter d'examiner ici les effets sur le signal numérique de
l'action d'un filtre passe-bande hc(t).
Figure 3.3.
2.1. Diaphonie
Le filtre équivalent en bande de base, hcb(t) du filtre passe-bande hc(t) peut être
complexe.
C'est le cas où hc(t) ne représente pas une symétrie hermitienne autour de f0.
37
⇒ r(t) = ∑ (a
n
n + jb n ) (Ré (p(t- nT)) + j Im (p(t - nT)))
⇒ Re(r(t)) =
n
∑a n Ré (p(t - nT)) - ∑ b n I m (p(t - nT))
n
(3.8a)
On constate dans ces deux expressions l'effet d'une distorsion linéaire sur le signal MAQ :
La partie imaginaire de hcb(t) crée des interfaces mutuelles (diaphonie) entre les symboles en
phase et en quadrature. On trouvera au paragraphe 4. que le filtre de réception g(t) sera réel
respectivement complexe si hcb(t) est réel respectivement complexe.
Structure du démodulateur
a - g(t) complexe
et
Im(r(t)) = ré(g(t)) * Im(Zb(t)) + Im(g(t)) * ré(Zb(t)) (3.11)
Figure 3.4.
où le filtre passe-bas idéal a été supprimé puisque le filtre g(t) se comporte comme un filtre
passe-bas.
38
b - g(t) réel
Figure 3.5.
En se plaçant dans l'intervalle [kT, kT+T[ le signal y(t) peut être mis sous la forme de la
somme de deux termes, l'un correspondant au symbole dk, le second étant un terme
perturbateur qui serait nul si dk avait été émis seul :
y(t) = dk p(t-kT) + ∑d
n,n ≠ k
n p( t − nT) (3.14)
La contribution des symboles postérieurs à kT ne signifie pas que le système est non
causal ; elle est due à notre modèle qui, par souci de simplification dans l'écriture des équations,
ne tient pas compte du retard τ du système de transmission. L'introduction de ce retard
reviendrait à translater l'origine du temps pour le destinataire et à échantillonner aux instants τ +
kT, ce qui rétablirait la causalité.
Cette condition impose un débit 1/T < 1/T0. C'est un débit trop faible, et par conséquent, le
chevauchement des impulsions est inévitable si l'on veut augmenter l'efficacité spectrale (en
bit/sec/Hz) en diminuant T.
Par exemple, dans un canal téléphonique, la durée des impulsions est typiquement
T0 = 10 msec (voir figure 3.6). Prendre T > T0 reviendrait à se contenter d'un débit de 1/T < 100
symboles/sec. Ceci signifie qu'à un instant donné, au moins T0/T = 24 symboles se
chevauchent!.
39
Figure 3.6.
y(kT) = dk p(0) + ∑d
n,n ≠ k
n p(kT − nT) (3.15)
où le symbole attendu est représenté par le terme dkp(0) et l'IES par le reste.
L'échantillon délivré à l'organe de décision peut être représenté comme la sortie d'un filtre
numérique qui modélise le canal échantillonné, depuis la sortie de la source de symboles
jusqu'à la sortie de l'échantillonneur (fig. 3.7)
Figure 3.7.
Nous verrons dans la suite que l'IES peut être atténuée, voire annulée, et ceci sans
modifier le débit des symboles. Autrement dit, on peut annuler les effets du chevauchement
entre les symboles.
Nous avons introduit l'IES par des considérations théoriques. La question qui se pose est
de savoir s'il existe un moyen de mesurer pratiquement la gravité de l'interférence entre
symboles. La réponse est fournie par la section suivante.
40
Figure 3.8.
Dans la partie gauche de la figure 3.8, on a tracé la forme d'onde y(t) qui véhicule des
symboles binaires 1 ou -1. La partie droite montre ce que l'on obtient sur un écran d'oscilloscope
dont la base de temps est synchronisée avec le rythme des symboles 1/T.
La figure fait penser à un oeil, d'où le nom de diagramme de l'oeil. La fermeture plus ou
moins grande de l'oeil mesure la gravité de l'IES.
où on a supposé que le lobe principal de l'impulsion p(t) était positif. C'est la conjonction de cette
courbe et de sa symétrique qui détermine l'ouverture de l'oeil.
L'ouverture horizontale donne une indication sur la marge dont on dispose pour tolérer
un écart entre l'instant d'échantillonnage réel et l'instant d'échantillonnage idéal qui correspond à
l'ouverture verticale maximum.
L'exemple de la figure 3.8 correspond au cas binaire. Dans le cas M-aire, le diagramme
ne contiendra non pas un oeil, mais plusieurs yeux ! ; cf. figure 3.9.
41
Figure 3.9.
Dans la pratique, le diagramme de l'oeil est utile pour mesurer une distorsion linéaire
légère des signaux NRZ ou MDP. Dans le cas des signaux MAQ à bonne efficacité spectrale, on
tolère une IES importante et l'oeil est complètement fermé.
Exemple :
Calculons la valeur maximale Dmax de la distorsion due à l’IES dans le cas d’une
modulation MAQ-M. Pour cela, nous exprimons la partie réelle (ou la partie imaginaire) de yn en
fonction de la partie réelle et imaginaire des pk,
Cette dernière opération revient à regarder le diagramme de l’œil sur la voie en phase de
la porteuse. L’œil reste ouvert tant que
∑ Ré(p k ) + ∑ Im( p k )
k ,k ≠0
Dmax = ( M - 1)
k
< 1
Ré ( p 0 )
La quantité Dmax est appelée distorsion maximale. Sa valeur par rapport à l’unité permet
de juger si l’œil est ouvert ou fermé à l’instant d’échantillonnage. Si l’œil est fermé (Dmax > 1),
des erreurs peuvent se produire même en l’absence de bruit. On a alors recours à la technique
d'égalisation pour pouvoir discriminer les symboles.
Dans l'expression de l'IES, la forme de l'impulsion filtrée joue un rôle prépondérant. peut-
être y a-t-il un moyen, en jouant sur p(t), de diminuer les effets de l'IES en augmentant
l'ouverture de l'oeil à l'instant d'échantillonnage. C'est ce que réalise le canal de Nyquist.
Dans ce cas, les deux suites de symboles réels contenues dans le signal modulé sont
récupérées sans IES.
yk = p(0) dk
Re{yk} = p(0) ak
Im{yk} = p(0) bk
Le filtre p(t) qui représente le canal équivalent en bande de base (tout ce qui est compris
entre la sortie de la source de symboles et l'entrée de l'échantillonneur) est appelée canal de
Nyquist lorsqu'elle vérifie la condition de Nyquist.
Figure 3.10.
La figure 3.10 montre quelques exemples de canaux de Nyquist dont certains sont non-
causaux (rappelons que ceci n'est pas gênant dans notre modèle).
Il faut souligner que la fonction p(t) tient compte du support de transmission lui-même
dont les paramètres sont donnés au départ. Pour amener p(t) à vérifier la condition de Nyquist,
43
l'ingénieur devra jouer sur les organes d'émission et de réception de manière à ce que la
réponse impulsionnelle totale vérifie la condition de Nyquist.
Cherchons dans le domaine fréquentiel une équivalence à la condition de Nyquist.
j2πfT
Désignons par P(f) la fonction de transfert du canal p(t) et par P(e ) celle du canal
échantillonné p(kT). On a :
P(e
j2πfT)
= ∑ p(kT) e
k
-j2πfkT
1 m
=
T
∑ P(f - T )
m
1 m
T
∑ P(f - T ) = p(0)
m
(3.17)
La figure 3.11 donne une interprétation graphique de cette relation, en représentant, pour
différentes formes de canaux P(f), la somme des différents spèctres décalés qui est pour
chaque canal égale à la constante p(0)T. Il convient de noter que P(f) est complexe et que par
simplification on a supposé dans la figure que P(f) est réel.
Figure 3.11.
44
Un cas fréquent dans la pratique est celui où P(f) = 0 pour |f| > 1/T. On a alors :
La condition de Nyquist est alors vérifiée si le point (T p(0)/2, 1/2T) est un point de
symétrie hermitienne.
On constate sur cette figure que si la bande passante de P(f) est inférieure à 1/2T, la
j2πfT
condition de Nyquist ne pourra en aucun cas être vérifiée, car P(e ) ne pourra être constant.
Ce constat est très important pour notre étude de l'IES :
La largeur 1/2T (en bande base) est la bande minimale nécessaire pour la
transmission SANS I.E.S. des symboles à un débit de 1/T symbole/sec.
Il n'est donc pas étonnant de constater que les exemples de la figure 3.11 sont tous
réalisés à partir d'un canal de fonction de transfert P(f) de bande supérieure à 1/2T.
La famille des courbes de la figure 3.11d sont des fonctions de transfert de canal de
Nyquist qui présentent un intérêt pratique Elles ont une forme dite en cosinus surélevé. Leur
équation générale est la suivante :
1− α
P(f) = p(0)T ; 0 < |f| <
2T
p (0)T πT 1 1− α 1+ α
=
2 1 - sin α (f - 2T ) ; 2T < |f| < 2T
1+ α
= 0 ; |f| >
2T
45
Figure 3.12.
Nous avons donc vu, sur le plan théorique, que dès que la bande passante du canal était
supérieure (en bande de base) à 1/2T, il était possible de s'affranchir totalement de l'IES à
condition que l'impulsion qui parvient à l'échantillonneur du récepteur vérifie la condition de
Nyquist.
rk = p(0)dk + W k (3.18)
+∞ +∞
σ = ∫ ∫
2
G(f) df
2
w Sw(f)df = 2N0 (3.19)
−∞ −∞
46
3.1. Modulations monodimensionnelles
Im(rk) = Im(W k)
+∞
1 2
σ = σ w = N0 ∫ G(f) df
2 2
2 −∞
Rappelons que ak est un symbole M-aire. Soit {αi ; i = 1, 2, …, M} l’alphabet des symboles
(l’ensemble des M valeurs possibles prises par le symbole). L’organe de décision observe ré(rk) et
délivre au destinataire une décision optimale â k concernant le symbole émis par la source à l’instant
kT. L’optimalité est définie au sens d’un critère qui satisfait le destinataire et qui, en même temps,
nous permet de mener nos calculs vers une conclusion réalisable. Le critère que nous adoptons ici
est le minimum de probabilité d’erreur P[ε],ε étant l’événement erreur.
Le problème posé est connu en statistique sous le nom de test d’hypothèses. La règle
suivante est établie pour le cas de M hypothèses.
où P[i] est la probabilité d’émettre le symbole αi et p(./.) est une densité de probabilité conditionnelle.
Nous supposons ici que les symboles sont équiprobables. La règle de décision se simplifie alors à
la recherche de αj qui maximise la fonction p(rk/ak = αi). Cette fonction considérée comme fonction
de l’hypothèse i est appelée fonction de vraisemblance. La règle de décision s'appelle règle du
maximum de vraisemblance.
1 1
p(ré(rk)/ak = αj) = (ré(rk) – p(0) αj) ]
2
exp[-
2π σ 2σ 2
Il est claire que le symbole qui maximise le membre de gauche est celui qui minimise la
différence (ré(rk) – p(0) αj). Ainsi l’organe de décision décide en faveur du symbole αj le plus proche
de rk/p(0). L’organe de décision qui fonctionne suivant cette règle est appelé détecteur à seuils.
La probabilité d’erreur pour l’organe de décision ainsi obtenu se calcule de la façon suivante.
La probabilité d’erreur se décompose sur les probabilités conditionnelles.
M M
P[ε] = ∑i =1
P[ε, ak = αi] = ∑
i =1
P[ε/ak = αi] P[i]
M
1
=
M
∑
i =1
P[ε/ak = αi] (3.20)
Nous allons effectuer le calcul complet dans les deux cas particuliers suivants :
47
1 - Cas de symboles binaire antipodaux (ou polaire).
On suppose que le symbole prend sa valeur dans l’ensemble {1 , -1}. La règle de décision
consiste à comparer ré(rk) au seuil 0. On décide que le symbole 1 est émis si ré(rk) > 0 et le
symbole –1 est émis si ré(rk) < 0. L’éventualité que ré(rk) = 0 est de probabilité nulle.
p(0)
P[ε/ak = -1] = Q
σ
où Q(.) est le complément à 1 de la fonction de répartition de la loi normale.
∞
1
∫ (2π) e −ξ
2
/2
Q(x) = 1/ 2
dξ (3.21)
x
p(0)
P[ε/ak = 1] = Q
σ
Au total, la probabilité d’erreur est :
p(0)
P[ε] = Q (3.22)
σ
48
2 - Cas de symboles M-aires.
On considère le cas le cas de l’alphabet {-(M-1),… -3, -1, 1, 3, …, (M-1)} (voir figure 3.14). Les
seuils de décision à partir de la variable de décision rk sont 0 , ± 2p(0) , ± 4p(0) , … , . La
probabilité d’erreur s’écrit :
M
1
P[ε] =
M
∑
i =1
P[ε/ak = αj]
1
= [(M – 2) Pr{ré(W k) > p(0)} + Pr{ré(W k) < -p(0)} + Pr{ré(W k) > p(0)}]
M
Figure 3.14
ème
où le 3 terme correspond à la probabilité d’erreur conditionnellement à l’émission du
ème
symbole du bord –(M-1), le 2 correspond à la probabilité d’erreur conditionnellement à
er
l’émission du symbole du bord +(M-1) et le 1 terme correspond à la probabilité d’erreur
conditionnellement à l’émission des autres symboles, où l’erreur peut être provoquée par un
bruit positif ou négatif. Le calcul de chaque terme donne :
p ( 0)
) Q
1
= 2(1 - (3.23)
M σ
Nous déduisons des expressions (3.22) et (3.23) de la probabilité d’erreur que cette
quantité dépend du rapport p(0)/σ qui dépend à son tour du choix du filtre de réception G(f).
Nous cherchons dans le paragraphe suivant le meilleur filtre.
ak et bk ∈ {± 1 ; ± 3 ; … ; ± ( M -1)} ; M = 2L ; L = 1,2,3,…
Comme les deux décisions, correspondants aux deux axes sont indépendantes, la
probabilité d’erreur relative à chaque axe, Pa[ε] ou Pb[ε] se tire du cas monodimensionnelle
M - aire :
49
1 P(0)
Pa[ε] = Pb[ε] = 2(1 – ) Q
M σ
La probabilité d’erreur est finalement approximativement double :
= 1 – {1 - Pa[ε]} {1 – Pb[ε]}
# Pa[ε] + Pb[ε]
# 2Pa[ε]
1 P(0)
P[ε] = 4(1 – ) Q (3.24)
M σ
2L
M = 2 . L = 1,2,3, …
+∞
p(0) = ∫
−∞
H(f) G(f) df
+∞
σ = N0 ∫ G(f) df
2 2
−∞
+∞ +∞
[p(0)] ≤ ∫ H(f) df ∫ G*(f) df
2 2 2
−∞ −∞
2 +∞
p(0) 1
≤ ∫ H(f) df
2
σ N0 −∞
50
Ce filtre est appelé filtre adapté à l’impulsion h(t). En transmission sur porteuse le filtre
h(t) est le filtre équivalent en bande de base (ou enveloppe complexe) associé à un filtre passe-
bande. La fonction h(t) peut dans ce cas être complexe. En transmission en bande de base, h(t)
est réel et le filtre adapté est h(-t).
Figure 3.15. Réception par filtrage adapté, cas où h(t) est une impulsion NRZ
Le concepteur peut choisir délibérément sa forme d'impulsion de base h(t) = hm(t), dite
filtre d'émission, telle que
51
C étant une constante. Autrement dit, dans ce cas et comme le montre la figure 4.17, le
filtre global p(t) est "équitablement réparti" entre l'émission et la réception, puisque le filtre
adapté du récepteur, dit filtre de réception, a pour gain
1
H(f ) * = P(f ) (3.27)
C
Ce partage est effectivement fait dans les réalisations pratiques des modems. La variable
de décision est dégagée de l’IES si le canal n’introduit pas de distorsions. Pour compenser une
éventuelle distorsion le modem est équipé d’un filtre correcteur auto-adaptatif appelé égaliseur.
+∞
σ 2w ∫ G(f) df
2
= 2N0
−∞
+∞
= 2N0 ∫ −∞
P(f)df
Pour rendre la formule de la probabilité d’erreur plus significative nous allons l’exprimer
en fonction des paramètres du système, à savoir la DSP du bruit et l’énergie moyenne reçue par
bit, notée Eb.
Es = log2 M Eb
et
[ ]
2
Es = E Re dk h( t − kT ) e j2 πf0 t
1 2
= E dk h( t − kT)
2
=
1
2
p(0) E dk { } 2
1
{ }
d'où p(0) = 2 Eb log2 M (3.28)
2
E dk
Nous allons pouvoir apprécier l'utilité du modèle en bande de base, puisque nous allons
calculer en une fois les performances de tout un groupe de modulations, les modulations
binaires monodimensionnelles.
52
6.1. Performance des modulations binaires monodimensionnelles
p(0)
P[ε] = Q
σ
Or :
σ 2 = p(0) N0
⇒
p(0)
P[ε] = Q
N0
2E b
P[ε ] = Q (3.29)
N 0
1 2 1 − x2 / 2 1 1 -x 2 / 2
(a) : Q(x) ; (b) : e -x / 2 ; (c) : e ; (d) : 1 - 2 e
2π x 2 2π x x
Figure 3.16
53
La fonction Q( ) est une fonction à décroissance rapide, et la figure 3.16; indique sa forme
comparée à celle d’autres fonctions exponentielles. Ceci met en évidence que la probabilité d’erreur
décroît très rapidement lorsque le rapport Eb/N0 (l’énergie par bit sur la DSP (Watt/Hz) du bit)
augmente.
1
Eb
Eb T = Ps
=
N0 1 Pb
N0
T
où Ps est la puissance moyenne du signal, et Pb la puissance du bruit dans une bande de largeur
1/T (ce n’est pas la puissance du bruit reçu !). Il est important de noter que, grâce au filtre adapté,
les performances ne dépendent ni de la largeur de bande du bruit ni de celle du signal.
+∞
2 1 x
∫ e − t dt
2
erfc(x) = ou Q(x) = erfc( )
π x
2 2
On peut exprimer la probabilité d'erreur sur les symboles en fonction du paramètre p(0)
par :
1 p(0) 1/ 2
P[ε] = 2 1 − Q
M N0
Il nous reste à exprimer ce résultat à l'aide de l'énergie par bit, à l'aide de 3.28. On trouve :
M2 −1
{ }
E a 2k =
1 M/2
2 ∑ (2m - 1) 2 =
M m =1 3
d'où
3
p(0) = 2Eb log2 M
M −1
2
1 2E b 3
1/ 2
P[ε] = 21 − Q log 2 M 2
M − 1
(3.30)
M N 0
54
Figure 3.17.
Dans le cas où :
ak et bk { }
∈ ±1, ± 3, ..., ± ( M − 1) ; M= 22L ; L=1, 2, 3, ...
1 2E 3
1/ 2
P[ε] = 4 1 − Q b log2 M (3.31)
M N 0 M − 1
2L
M = 2 ; L = 1, 2, 3, ...
55
Figure 3.18.
Nous supposons que le signal n'a pas subit de distorsion linéaire lors de son passage à
travers le canal et qu'il est uniquement perturbé par le bruit N(t). Le signal en bande de base
s'obtient par un schéma similaire à celui de la figure 4.1. L'observation en bande de base s'écrit
à l'aide de (4.5) sous la forme de :
Re zb(t) = ∑ak
k h m ( t − 2kT ) + Re n b ( t )
Im Z (t) = ∑ b
b k h m ( t − T − 2kT ) + Im n b ( t )
k
Figure 3.19.
56
Ces deux observations réelles sont indépendantes à cause de l'indépendance des bruits
et de l'hypothèse habituelle de l'indépendance des symboles ak et bk. Leur réception optimale
revient donc à les traiter séparément. Ainsi, comme le montre la figure 4.19, les deux
ensembles de résumés exhaustifs sont obtenus par deux filtres adaptés identiques hm(-t)
échantillonnés respectivement aux instants 2kT et 2kT + T. Les décisions sur les symboles
binaires ak et bk sont effectuées symbole par symbole au moyen de détecteurs à seuils. Comme
dans le cas de la MAQ, le filtre passe-bas qui fournit l'observation en bande de base est à
supprimer car sa tâche est assurée par le filtre adapté ; voir fig.3.19.
La probabilité d'erreur sur les bits est celle de deux signaux antipodaux ;
2E b
Pbit [ε ] = Q (3.32)
N 0
Toutes les considérations qui précèdent reposent sur l'hypothèse que la porteuse du
récepteur est exactement en phase avec celle du signal reçu. C'est cette hypothèse de
cohérence qui permet d'effectuer l'opération de corrélation (par filtrage adapté échantillonné)
entre l'observation et les signaux possibles. Il est intéressant de voir ce que l'on peut faire
lorsque les deux porteuses sont déphasées d'une valeur aléatoire.
Le calcul de la probabilité d’erreur sur les bits peut s’avérer fort délicat, ne serait-ce que
parce qu’il dépend du codage bits → symboles. Cependant moyennant deux hypothèses, il est facile
d’obtenir un résultat.
1. Nous négligeons tout d’abord la probabilité d’erreur entre deux symboles non voisins.
2. La correspondance entre symboles et bits est réalisée selon le code de Gray, c’est-à-dire que
deux symboles voisins diffèrent en un seul bit.
1
Pbit(ε) = P(ε) (3.33)
log 2 M
car avec un symbole erroné, seulement un bit sur log2M est erroné.
L’efficacité d’une modulation est déterminée par le calcul de deux paramètres antagonistes :
- Les performances, c’est-à-dire le rapport Eb/N0 nécessaire pour obtenir une probabilité d’erreur
acceptable.
Db
η= bit/sec/Hz
B
où B désigne la bande occupée par le signal modulé et Db le débit en bit/sec.
Pour une modulation donnée, on peut bien-sûr augmenter η en augmentant M. Mais cela
nécessite, pour garder la même probabilité d’erreur, d’augmenter le rapport Eb/N0 .
57
La figure 3.20. montre où se situent certains types de modulations dans le plan (η, Eb/N0)
-5
pour une probabilité d’erreur sur les bits de 10 . Nous avons fait figurer dans ce même plan la
limite théorique de Shannon (cf. le cours de Théorie de l’information).
Ps
C = B log2(1 + ) (3.34)
N0B
où C désigne la capacité du canal, et Ps est la puissance du signal. Pour un débit binaire égal à C,
on a :
Ps = EbDb
Eb 1 η
= (2 - 1)
N0 η
Cette relation donne la frontière entre la zone de communication possible et la zone “interdite”
où le débit dépasse la capacité. L’axe vertical est gradué logarithmiquement, et l’axe horizontal en
dB, avec un changement d’échelle en 0 pour les dB négatifs. Dans la région hachurée, il est
impossible de transmettre avec une probabilité d’erreur arbitrairement petite.
Figure 3.20.
Les points correspondant aux modulations indiquées sont calculés pour une probabilité
-5
d’erreur de 10 , valeur que l’on considère comme pratiquement négligeable afin d’effectuer une
comparaison avec la limite de Shannon qui, elle, est calculée pour une probabilité d’erreur infiniment
-5
petite. Pour obtenir P[ε] = 10 , il faut avoir Eb/N0 = 9,6 dB, aussi bien pour MDP-2 que pour MDP-4.
Comme par ailleurs, la bande utilisée est la même dans les deux modulations, on peut affirmer que
l’efficacité spectrale de la MDP-4 est le double de celle de la MDP-2. Ceci explique la position des
points correspondants sur la figure.
58
La figure met en évidence la valeur théorique minimum qu’il faut donner au rapport Eb/N0 pour
qu’il soit possible de transmettre avec une probabilité d’erreur proche de zéro. Cette valeur est de
-1,6 dB.
A cette limite inférieure, l’efficacité spectrale est quasiment nulle. Autrement dit, la bande
utilisée pour acheminer un débit non nul est infinie. Un développement au premier ordre de la
formule de Shannon donne :
Db E D 1
= b b
B N 0 B 1n 2
Cette figure constitue un excellent référentiel, qui permet de relativiser la valeur de certains
types de raisonnements. Par exemple certains auteurs aiment dire qu’une méthode de modulation
est située à telle distance de la limite théorique de Shannon.
Ils diraient par exemple que la MDP2 est à (9,6 + 1,6) = 11,2 dB de la valeur minimale de
Eb/N0 que permet la capacité de Shannon. Il faut cependant être conscient des deux approximations
suivantes :
-5
- Les points ont été placés dans le plan pour une probabilité d’erreur donnée égale à 10 . Mais la
courbe de Shannon est tracée pour P[ε] voisin de 0. Pour une probabilité d’erreur inférieure à
-5
10 , les points représentatifs des modulations se déplacent loin de la limite de Shannon.
- Pour la MDP ou MDF, la bande utilisée pour les calculs est arbitrairement prise comme la moitié
de la largeur du lobe principal de la DSP (puisque la bande théorique est infinie).
La figure ne saurait donc servir à des estimations quantitatives absolue de la qualité d’un
système de modulation. Elle doit être comprise comme une illustration commode qui permet de
comparer les modulations entre elles en fonction de l’ensemble des paramètres pertinents. La
présence de la courbe de Shannon doit simplement servir comme motivation pour la recherche de
système de “codage-modulation” encore plus performants.
________________________
59