Vous êtes sur la page 1sur 125

INSTITUT NATIONAL DES SCIENCES APPLIQUEES DE

TOULOUSE
4ème Année IR

_________

CANAUX DE TRANSMISSIONS
BRUITES

SUPPORT DE COURS
ENONCE DE TRAVAUX DIRIGES

Alexandre Boyer
alexandre.boyer@insa-toulouse.fr
http://lesia.insa-toulouse.fr/~a_boyer
Canaux de transmissions bruités Septembre 2011

TABLE DES MATIERES

Introduction..................................................................................................................... 3
A. Caractéristiques des canaux de transmission ............................................................. 6
B. Le bruit et son effet sur les communications numériques........................................ 16
C. Effet du canal sur le débit d’une transmission numérique ....................................... 39
D. Impact du bruit sur un signal modulé ...................................................................... 54
E. Techniques de fiabilisation d’un canal de transmission par codage de canal .......... 68
F. Techniques de fiabilisation d’un canal de transmission sur la couche physique ..... 77
G. Régénération d’un signal ......................................................................................... 88
Conclusion - Planification d’une transmission numérique ........................................... 98
Références................................................................................................................... 100
Annexe A – Rappel sur les unités ............................................................................... 101
Annexe B – Produits d’intermodulation pour une non-linéarité d’ordre 3................. 103
Annexe C – Spectre d’un signal numérique ............................................................... 106
Annexe D – Démonstration du premier critère de Nyquist et Bande passante de
Nyquist ........................................................................................................................ 112
Annexe E – Filtre en cosinus surélevé........................................................................ 114
Annexe F – Fonction d’erreur de Gauss complémentaire ERFC ............................... 117
Annexe G – Glossaire ................................................................................................. 119
Travaux Dirigés .......................................................................................................... 120

A. Boyer 2
Canaux de transmissions bruités Septembre 2011

Introduction

Le rôle d’un système de télécommunications est de transmettre à distance des informations


d’un émetteur à un ou plusieurs récepteurs au travers d’un canal de manière fiable et à coût réduit.
Dans un système de transmission numérique, une suite finie de symboles représente l’information.
Celle-ci est transmise sur le canal de transmission par un signal « réel » ou analogique. Ce signal peut
prendre une infinité de valeurs différentes et est ainsi soumis à différentes formes de perturbations et
d’interférences, pouvant conduire à des erreurs d’interprétations du signal recueilli par le récepteur. Le
rôle de l’ingénieur en télécommunications est donc de s’assurer que le récepteur pourra recevoir le
message émis par l’émetteur sans aucune erreur, par un dimensionnement judicieux du canal de
transmission et par la mise en place de techniques le rendant plus robuste.

Rappel historique :
La figure 1 présente un historique de l’évolution des techniques de télécommunications.
Contrairement à ce que l’on pourrait croire, les premiers systèmes de télécommunications à être
apparus étaient numériques. Il s’agissait des télégraphes optiques de Chappe (1794) et électriques de
Morse (1832), dans lesquels l’information était représentée par des impulsions lumineuses ou
électriques. C’est ensuite le téléphone de Bell (1876) et les transmissions radio de Marconi (1896) qui
ont ouvert l’ère des communications analogiques. Ainsi, les premiers systèmes radio mobiles étaient
analogiques. Les premières bases théoriques des communications numériques datent de 1948
(Shannon), mais le numérique est finalement apparu à la fin des années 70 avec des applications telles
que le CD audio, les ordinateurs personnels, les GSM… Ces dernières années ont vu une véritable
explosion des systèmes et des normes de communication, principalement sans fils. Bien que les
premières transmissions radio datent de plus d’un siècle, les systèmes de communication sont restés
principalement filaires. Une des principales difficultés était liée aux propriétés non stationnaires du
canal radio. Un signal peut suivre plusieurs chemins pour arriver à un récepteur donné, ce qui peut
conduire à distordre très fortement le signal reçu. Ainsi, le canal de transmission radio a un impact
néfaste sur la qualité du signal transmis. Il est donc essentiel de mettre en place des circuits et des
algorithmes permettant de fiabiliser la transmission. Néanmoins, même si des ingénieurs et des
chercheurs avaient déjà imaginé des solutions, leur mise en œuvre était difficile voire impossible faute
de technologies suffisamment performantes sur lesquels elles pouvaient être implantées. Le « boom »
de l’industrie de la microélectronique à partir des années 70 et à l’évolution constante des
performances des circuits intégrés a rendu possible le développement récent des systèmes de
télécommunications.

1832 - invention 1950 – 1st service de 1987 - standard


du télégraphe radiotéléphonie 2008 – DVB-H
GSM
en France
1978 - Advanced
1876 - invention 1948 – Travaux de Mobile Phone 2002 - déploiement 2010 – Déploiement
du téléphone C. Shannon Service du 1e réseau UMTS 3.9G LTE

1860 - 1e liaison 1956 - 1e liaison


1896 - 1e liaison téléphonique 1983 - protocole 2005 -standard
télégraphique
transatlantique radio transatlantique TCP-IP Wimax

Fig. 1 - Historique des techniques de télécommunications

A. Boyer 3
Canaux de transmissions bruités Septembre 2011

Analogique vs numérique :
Les signaux
numériques présentent
certains avantages par
rapport aux signaux
analogiques. Le principal
avantage est la vulnérabilité
moindre du signal
numérique aux
perturbations extérieures par
rapport à un signal Fig. 2 – Télégraphe de Morse Fig. 3 - Téléphone de Bell
analogique. En effet, il est
plus difficile d’entraîner la
modification d’un bit dans
un signal numérique que de
perturber sérieusement un
signal analogique de
quelques dizaines de
millivolts. Le deuxième Fig. 4 – Radio de Marconi Fig. 5 – Claude Shannon
avantage est qu’il est
possible de manipuler un signal numérique et de le soumettre à différents traitements (image, son,
vidéo….). Celui-ci peut être compressé pour améliorer le débit d’informations, des codes détecteurs ou
correcteurs d’erreur peuvent lui être ajoutés, le rendant plus robuste aux perturbations extérieures.
Néanmoins, la mise au point d’un système numérique est plus complexe que celle d’un système
analogique au point de vue systèmes électroniques mais aussi au niveau des algorithmes à développer.
La complexité se traduit aussi en terme de coût. L’avènement des systèmes numériques s’est ainsi fait
en parallèle de celle de l’évolution des circuits intégrés.

Problématique du cours de canaux de transmission bruités


Le rôle de tout système de communication est d’assurer que le récepteur comprenne
l’intégralité des messages transmis par l’émetteur, quel que soit la compression, le format ou le type
des données, mais aussi les perturbations induites sur le canal de transmission et son effet parasite. La
figure 6 présente un schéma général un canal de transmission.

Filtre Support de Filtre Décision


source transmission
émetteur récepteur 0 ou 1 ?
10011… E(t) R(t)
échantillonneur
BRUIT
Canal de transmission
Fig. 6 - Schéma d’un canal de transmission numérique
Le transfert de l’information nécessite une source de données, traduites dans un système
compréhensible par l’émetteur et le récepteur (codage, format, compression préalablement définis). Le
canal proprement dit représente le lien ou le support de transport de l’information entre les 2 entités
communicantes, mais il comprend aussi les dispositifs en entrée et en sortie du support de transmission
qui vont aider à l‘émission, à la réception et à l’extraction correcte des données numériques. Pour
envoyer le signal à travers le canal, la source a besoin d’un système d’adaptation (physique pour
mettre en forme le signal, logiciel pour le protocole de dialogue). Le signal peut être directement

A. Boyer 4
Canaux de transmissions bruités Septembre 2011

transmis à travers le canal, la transmission se fait alors sur la même bande de fréquence que le signal à
transmettre. On parle alors de transmission en bande de base. Néanmoins, ce type de transmission
est rarement réalisé en pratique, notamment pour les transmissions radio. Le signal est alors transmis
hors de la bande de base, une modulation permet de transposer le signal en bande de base à des
bandes de fréquence bien plus hautes présentant des caractéristiques bien meilleures et permettant un
partage du canal radiofréquence entre tous les systèmes de télécommunications.
Une fois le signal transmis, le récepteur récupère à l’autre bout du canal un signal perturbé,
déformé et affaibli. De ce signal, il doit extraire l’information numérique originale sans erreur. Un
filtrage permet de compenser les effets néfastes du support de transmission. Puisqu’il s’agit
d’information numérique et synchrone, le récepteur doit être capable de récupérer l’horloge sur
laquelle les bits émis étaient initialement synchronisés. Une fois que le récepteur a reconstruit un
signal numérique « propre », il doit l’interpréter et décider de la valeur prise par signal à chaque
période.
Néanmoins, le signal transmis est soumis à de nombreuses perturbations externes et internes
au canal de transmission. Dans un premier temps, le bruit ambiant peut perturber les communications
numériques, en dégradant l’amplitude des symboles reçus ce qui augmente le risque d’erreur
d’identification de ces symboles. Des techniques de traitement du signal, de codage et de modulation
ont été développées ces dernières années pour améliorer la robustesse des liaisons vis-à-vis du bruit.
Néanmoins, le bruit n’est pas la seule source de perturbations, la fonction de transfert du canal
introduit une distorsion au signal lors de sa propagation. De plus, dans le cas de communications
numériques, l’aspect multi utilisateur doit être pris en compte car le canal de transmission est partagé
et des interférences sont à craindre. Par conséquent, les performances des systèmes de communication
dépendent des caractéristiques du canal de propagation. En outre, les caractéristiques temporelles du
canal tendent à étaler le temps de transmission d’un symbole, augmentant le risque de chevauchement
de plusieurs symboles adjacents et limitant le débit de transmission admissible sur ce canal. La tache
délicate de l’ingénieur en télécommunication est de trouver des solutions en terme de format de
modulation et codage de l’information, pour optimiser ces performances, et donc pour diminuer à la
réception la probabilité d’erreur lors de la décision sur les symboles reçus.
Le but de ce cours est de présenter l’origine de toutes les perturbations pouvant affecter la
transmission d’un signal entre un émetteur et un récepteur, de déterminer dans quelles conditions un
canal va assurer correctement la transmission, et de proposer différentes techniques qui vont permettre
de réduire la probabilité d’apparition d’erreurs. Dans ce cours, nous nous intéresserons principalement
aux transmissions numériques puisque celles-ci sont majoritairement employées dans les standards
de communication. Les objectifs de ce cours sont les suivants :

 Présenter l’architecture générale d’un canal de transmission ainsi que les différents types de
canaux et leurs caractéristiques.
 Présenter l’origine du bruit et son effet sur l’identification des symboles transmis (établir
pour un signal binaire le lien entre le rapport signal à bruit et le taux d’erreur binaire).
 Présenter les caractéristiques temporelles d’un canal et les limitations posées en terme de
débit de données transférées sur le canal.
 Définir la capacité d’un canal de transmission, qui caractérise le débit binaire maximum
théorique sans erreur.
 Déterminer la robustesse au bruit de signaux numériques modulés.
 Décrire des techniques de fiabilisation de la transmission d’un signal par codage de canal,
filtrage, mise en forme …
 Décrire des techniques de régénération du signal.

A. Boyer 5
Canaux de transmissions bruités Septembre 2011

A. Caractéristiques des canaux de


transmission

Dans ce chapitre, nous allons dans un premier temps présenter l’architecture générale d’un
canal de transmission numérique et décrire brièvement les différents blocs le constituant. Dans un
deuxième temps, nous décrirons les principaux supports de transmissions numériques employés de nos
jours ainsi que leurs principales caractéristiques.

I. Architecture général d’un canal de transmission


Les systèmes de télécommunication numérique sont basés sur l’architecture présentée à la
figure 7. La source primaire d’information peut être soit de type analogique qu’on numérise ensuite
(ex. de la voix pour un téléphone mobile) soit directement de type numérique. L’information
analogique est ensuite échantillonnée et numérisée à travers un étage de conversion analogique
numérique. La taille du message binaire original ainsi produit est en général très importante et contient
en outre un grand nombre de redondance. Il subit alors un codage de source, qui a pour but de le
mettre dans un format standard d’échange et de réduire sa taille (compression). Le codage source peut
aussi comporter une étape de cryptage dans le cas où l’on souhaite sécuriser le transfert des données et
leur archivage.
Préparation à la transmission Reconstitution de la source
Source Source Destinataire Destinataire
analogique numérique numérique analogique

Numérisation source Conversion N/A

Codage source Décompression source

Cryptage Décryptage
Transmission Réception
Codage de canal Décodage de canal
BRUIT Réception =
Modulation Reconstruction Démodulation
du signal

Accès multiple. Mise Filtrage. Mise en bande


sur porteuse. canal de base. Amplification
Amplification faible bruit

Fig. 7 – Architecture général d’un canal de transmission


Un canal de transmission ne se limite pas seulement au support physique du transfert de
l’information. Il comprend aussi les dispositifs qui permettent d’adapter le signal à transmettre au
canal et de minimiser les erreurs de réception. Ces étapes peuvent être réalisées bien en amont de la
transmission proprement dite. La première étape est le codage de canal, qui consiste à ajouter

A. Boyer 6
Canaux de transmissions bruités Septembre 2011

volontairement de la redondance au signal afin de le protéger contre les différentes perturbations. On


retrouve par exemple l’ajout de codes détecteurs ou correcteurs d’erreurs. Le codage de canal est
réalisé uniquement en bande de base.
Une fois que ces symboles ont été ajoutés au signal numérique, celui-ci est modulé afin de
transformer le signal informatif en un signal physique capable de transiter sur le canal de transmission
utilisé. Le signal est alors transposé de sa bande de base à une bande de fréquence bien plus haute. La
technique de modulation est choisie en fonction de la nature du canal, de son utilisation et du débit.
Des techniques d’accès multiples ou de multiplexage peuvent être employées afin de partager un
même canal entre différents utilisateurs et d’optimiser son utilisation, mais aussi de réduire l’influence
des parasites. Suivant la technique employée, le multiplexage peut être effectué dans ou hors bande de
base.
Une fois le signal à émettre mis en forme (modulé, filtré, amplifié), il peut être transmis à
travers le canal de transmission. A travers ce cours, on supposera que le signal émis est vierge de tout
parasite puisque toutes les précautions ont été prises afin d’assurer la qualité du signal émis. Le
passage de l’information à travers le canal est critique. Le signal subit l’atténuation et les déformations
inhérentes au canal ainsi que les différentes perturbations extérieures qui se couplent sur le canal. Le
canal n’est pas le seul responsable de l’ajout de bruit au signal utile puisque l’ensemble des circuits de
réception et de régénération du signal ajoute une part non négligeable de bruit. En outre, le bruit n’est
pas le seul problème. Le canal présente certains défauts intrinsèques (inertie aux changements
temporels, atténuation, …) qui limite la quantité d’information qu’on peut faire passer à travers le
canal. A partir de la théorie de l’information (chapitre C), il est possible de prédire les performances
limites théoriques d’un canal de transmission.
Le récepteur reçoit le plus souvent un signal faible, bruité et distordu qu’il va falloir
reconstruire avant de l’interpréter. La première étape de la réception consiste à filtrer le signal et à
l’amplifier afin de l’extraire du bruit ambiant et des interférences. Une étape de démodulation suit afin
d’extraire le signal utile et de le ramener en bande de base. Différentes étapes de régénération
permettent ensuite de reformer un signal numérique d’une qualité suffisante pour être traité par un
circuit électronique. L’opération de décodage de canal suit, afin de vérifier que le signal reçu n’est pas
erroné et enlever l’ensemble des symboles rajoutés lors du codage du canal. En cas de détection
d’erreur, des demandes de retransmission peuvent être prévues suivant le protocole employé. Le signal
numérique qu’on cherchait à transmettre peut enfin être envoyé au destinataire. Si la qualité du canal
et les techniques de fiabilisation de la transmission étaient suffisants, le destinataire ne devrait faire
aucune erreur d’interprétation et retrouver le signal original.

Exercice - Etat de l’art technologique : la figure ci-dessous présente l’intérieur d’un téléphone
portable et un schéma bloc simplifié. Déterminer dans quels blocs sont réalisées les opérations
décrites à la figure 7.

Réponse :

A. Boyer 7
Canaux de transmissions bruités Septembre 2011

Mémoires

Microprocesseur

BaseBand Analog
CNA
I
Codage Codage Transmetteur
Filtre CAN Mod. PA
voix canal
CNA
Q RF

BaseBand RF & IF
DSP Transceiver Analog Antenne

I
♪ ♪ Décodage Décodage
CAN
Récepteur
♪ Filtre CNA Egal.
voix canal Q RF
CAN

Fig. 8 - Téléphone cellulaire éclaté et schéma bloc

A. Boyer 8
Canaux de transmissions bruités Septembre 2011

II. Les différents types de canaux de transmission


Une transmission d’information se fait toujours à distance, un support physique assure le lien
entre la source et le destinataire. Dans cette partie, nous allons présenter les principaux supports
couramment utilisés comme média de transmission.

1. Communication électrique filaire


L’information est véhiculée par un « signal électrique », c’est à dire une onde
électromagnétique se propageant à travers un câble métallique. On trouve deux catégories de lignes de
transmission utilisées en télécommunications :

 câble bifilaire, de bande passante faible et réservé pour les


transmissions à bas débit (inférieur à 2 Mbits/s pour le réseau
téléphonique). Il s’agit le plus souvent de paires bifilaires torsadées
afin de réduire la surface de couplage aux perturbations extérieures.
 câble coaxial, de bande passante plus importante et qui permet de réaliser des transmissions
avec un débit relativement élevé (jusqu'à 565 Mbits/s sur le réseau
téléphonique). Le câble coaxial est notamment utilisé pour
connecter les centraux téléphoniques entre lesquels transite un
grand nombre de communications. Son avantage par rapport au
câble bifilaire est d’être blindé, réduisant ainsi le couplage des perturbations
électromagnétiques, et de présenter un milieu de propagation quasi uniforme le long de la
ligne.
La principale caractéristique d’un câble est son impédance caractéristique. Celle-ci est définie
par les dimensions géométriques de la ligne et le milieu de propagation de l’onde électromagnétique le
long de la ligne (constante diélectrique de l’isolant). Cette impédance ne représente pas une impédance
au sens classique électrique du terme, il s’agit en fait du rapport du champ électrique sur le champ
magnétique de l’onde se propageant dans le câble (équation 1). La valeur de l’impédance
caractéristique d’un câble dépend de ses caractéristiques géométriques et du milieu de propagation
(permittivité diélectrique de l’isolant séparant les deux conducteurs du câble).
E
Z c (Ω ) =
(V / m )
(Équation 1)
H (A / m)

La connaissance de l’impédance caractéristique est fondamentale car elle va permettre de


déterminer la valeur optimale à donner à la charge terminale Zload de la ligne pour assurer la meilleure
transmission du signal. Une ligne est dite adaptée si on vérifie l’égalité suivante : Z c = Z load . Dans le
cas d’une ligne adaptée, toute l’énergie de l’onde incidente est fournie à la charge terminale. Par
contre, toute rupture d’impédance conduit à la réflexion d’une partie de l’onde incidente, à la manière
d’un changement de milieu pour une onde lumineuse. L’amplitude de cette onde réfléchie est d’autant
plus grande que la désadaptation est importante, comme le montre l’équation 2:
Vrefl Z load − Z C
Γ= = (Équation 2)
Vinc Z load + Z C
Où Γ est le coefficient de réflexion, Vinc et Vrefl l’amplitude en tension des ondes incidentes et
réfléchies. L’onde présente le long de la ligne de transmission est la combinaison des ondes incidentes
et réfléchies.
Que se passe t-il alors si la condition d’adaptation n’est pas respectée ? Pour répondre à cette
question, il faut considérer les effets liés à la propagation de l’onde électromagnétique le long du
câble, qui vont dépendre du rapport entre la longueur du câble et la longueur d’onde du signal
transmis. La longueur d’onde dans le vide d’une onde est liée à sa fréquence par l’équation suivante,
où c est la vitesse de la lumière (3.108 m/s) :

A. Boyer 9
Canaux de transmissions bruités Septembre 2011

c
λ= (Équation 3)
f
Pour de faibles fréquences, la longueur d’onde est largement plus grande que la longueur de la
ligne de transmission, l’onde est quasiment constante en tout point de la ligne, quel que soit
l’impédance de charge (fig. 9). Par contre, si la longueur d’onde devient inférieure à la longueur de la
ligne, l’amplitude de l’onde n’est plus constante le long de la ligne, et présente des minima et maxima
régulièrement espacés.
L << λ L >> λ
onde onde
câble câble

Vinc Vinc

0 L x 0 L x

L’amplitude de l’onde L’amplitude de l’onde


est quasi constante sur n’est pas constante le
toute la ligne long de la ligne

Fig. 9 – Propagation d’une onde le long d’une ligne de transmission en fonction de sa longueur d’onde
Si l’adaptation de la ligne n’est pas assurée à chacun de ses terminaux, l’onde va être réfléchie
plusieurs fois sur chacun des terminaux, faisant osciller la tension aux bornes de la charge (ringing)
comme le montre la figure 10. Les effets sur le signal peuvent être :
 Un retard à l’établissement du signal
 Des surtensions, sous-tensions et des oscillations pouvant conduire à des erreurs
d’interprétation des signaux reçus.
Câble d’impédance
caractéristique Zc Vincident

Iin
x

x=0
Vin Vréfléchi Vload

Vin Vload

Si Zload ≠ Zc

temps temps

Fig. 10 - Effet de la désadaptation d’impédance sur le signal transmis

Exercice – Problème d’adaptation de ligne : soit un câble téléphonique de 1 mètre utilisé pour
transmettre un signal binaire de fréquence F. A partir de quelle fréquence F faut-il prendre en compte
les effets de propagation de l’onde électromagnétique.
Réponse :

A. Boyer 10
Canaux de transmissions bruités Septembre 2011

Un autre paramètre essentiel est l’atténuation du câble liée aux différentes pertes (ex : les
pertes dans le diélectrique). Cette atténuation augmente en général avec la fréquence. Un câble coaxial
standard présente des pertes typiques de 0.3 dB/m à 100 MHz et 1 dB/m à 1 GHz. Cette atténuation
limite l’utilisation de communications filaires pour de longues distances.

2. Communication optique filaire


Les fibres optiques sont des guides pour les ondes électromagnétiques dont les fréquences sont
de l’ordre du spectre visible. La lumière est guidée le long d’une fibre par réflexions multiples. La
figure 11 décrit la structure d’une fibre optique ainsi que le principe de la propagation de la lumière le
long de la fibre. Les 2 principaux avantages des fibres optiques sont leurs bandes passantes très
élevées (plusieurs dizaines de Gbits/s, voire quelques térabits/s) ainsi que leurs faibles atténuations
(0.2 dB/km pour une longueur d’onde de 1550 nm). Théoriquement, les débits dans les fibres optiques
devraient être infinis, mais ils sont principalement limités par les composants électroniques des étages
de transmission et de réception. En outre, contrairement aux communications filaires et
radioélectriques, les fibres optiques sont insensibles aux perturbations électromagnétiques externes
puisque ces dernières ne peuvent s’y coupler. Inversement, le signal guidé le long de la ligne ne peut
sortir que par l’autre bout de la ligne, interdisant toute fuite du signal et assurant une sûreté de
transmission très élevée. Elles introduisent très peu de distorsions sur le signal et permettent de réaliser
des multiplexages fréquentiels très efficaces. Enfin, elles subissent peu d’échauffement par rapport aux
liaisons filaires électriques ce qui améliorent leur fiabilité. Malgré tous ces avantages, les principaux
points négatifs concernent la fragilité de fibres et de leurs connecteurs, ainsi que le coût d’installation
et d’entretien des réseaux en fibres optiques. Aujourd’hui, la plupart des liaisons transocéaniques sont
réalisées par des fibres optiques puisque 80 % des communications longues distances sont effectuées à
l’aide des 25 millions de kilomètres de fibres optiques enterrées ou submergées.

Propagation du
signal
Cœur (silice, plastique) n1 > n2
Indice de réfraction n2
Indice de réfraction n1
Faisceau de 10 – 200 µm
lumière incidente

Gaine « réfléchissante »

Fig. 11 – Guidage d’un faisceau lumineux par une fibre optique


Le débit record d’une fibre optique a été obtenu par l’opérateur japonais NTT Docomo, avec
1800 Go/s sur une de distance de 160 km.

Question : Soit une fibre optique de 100 km de long présentant une atténuation de 0.2 dB/km. Quelle
est la puissance restante du signal reçu ?

Réponse :

A. Boyer 11
Canaux de transmissions bruités Septembre 2011

3. Radio communication
Les radiocommunications utilisent la propagation d'une onde
électromagnétique dans l'atmosphère. Ce milieu est généralement réservé aux
transmissions par satellite ou par faisceaux hertziens ainsi qu'aux communications
mobiles. Le dispositif de base pour transmettre ou recevoir un signal à travers le
canal radioélectrique ou hertzien est une antenne. Les lois de propagation à travers
ce canal sont déterminées par les équations de Maxwell. Les radiocommunications
s’étendent sur un spectre très large (de plusieurs KHz à plusieurs GHz). La figure
12 présente l’occupation du spectre radiofréquence.

MF HF VHF UHF SHF EHF


0.3 -3MHz 3- 30MHz 30-300MHz 300 -3000MHz 3-30GHz 30-300GHz

IEEE IEEE
ILS 802.11b 802.11c
RFID GPS
Radio AM Radio FM GSM WiMAX Radar
Radio OC DCS auto
TV VHF TV UHF UMTS
CB
Fréquence (Hz)

100K 1M 10M 100M 1G 10G 100G

Fig. 12 – Occupation du spectre radiofréquence


RFID : 13.56MHz, 27.1MHz
Radio FM : 88-108MHz
TV : 54-72MHz, 76-88MHz, 174-216MHz, Type Bande passante Applications
470-806MHz Paire torsadée >100KHz Téléphonie, LAN
Applications commerciales : 434.3MHz Câble coaxial >100MHz Télévision, LAN
GSM : 890-915MHz (montant), 935-960MHz
Fibre optique >1GHz LAN, WAN
(descendant)
Faisceaux Dépend de la Télévision, téléphonie
DCS : 1800MHz
hertziens fréquence de la mobile, LAN
GPS : 1217.6-1237.6MHz, 1565.4-
porteuse
1585.4MHz
UMTS : 1920-1980MHz, 2110-2170MHz Satellites >10MHz GPS, WAN
Wifi - IEEE 802.11b : 2460MHz Tableau 1 - Les différents supports de transmission et
Wifi - IEEE 802.11c : 60 GHz applications
Bluetooth : 2400MHz
WIMAX (IEEE 802.16) : 2-11 GHz

L’avantage des radiocommunications par rapport aux autres supports de communication


(fialire, fibre optique) est le faible coût d’installation d’un réseau à grande échelle, puisqu’il ne
nécessite pas d’installer des supports physiques entre chaque nœud et terminaux du réseau, il suffit
d’installer une antenne. Néanmoins, il présente de nombreux inconvénients. D’abord, il s’agit du mode
de transmission le plus soumis aux perturbations extérieures et aux effets néfastes du support de
transmission. Par nature, le canal radioélectrique est variable dans le temps, imprédictible et
multichemin. Ensuite, les transmissions de données à travers le canal radioélectrique ne peuvent pas
être sécurisées et n’importe quelle antenne adaptée à la fréquence de transmission est susceptible de
capter le signal. Enfin, le canal radioélectrique subit de très fortes atténuations avec l’éloignement. En

A. Boyer 12
Canaux de transmissions bruités Septembre 2011

espace libre (sans obstacles), le modèle de propagation d’une onde ne dépend que de la distance
séparant les 2 antennes et de la fréquence. L’équation 4 donne l’expression théorique de l’atténuation
de la puissance transportée en espace libre en fonction de la distance et de la fréquence. Néanmoins,
dans un environnement réel, le cas idéal de l’espace libre ne peut s’appliquer et on doit utiliser des
modèles de propagation plus complexes prenant en compte des réflexions, des diffractions, des
diffusions, des atténuations ainsi que la vitesse de déplacement relatif du récepteur par rapport à
l’émetteur. De plus, le déplacement du récepteur ou de l’émetteur modifie à chaque instant les
caractéristiques du canal de transmission. Enfin, d’autres propriétés peuvent caractériser une antenne,
comme sa polarisation. En pratique, des modèles statistiques permettent d’estimer simplement les
atténuations en prenant en compte les obstacles dans différents types d’environnement (ville, milieu
rural, …). La figure 13 présente les atténuations radio calculées à partir de modèles plus complexes,
prenant en compte la nature de l’environnement de propagation (modèle Okumara-Hata ou COST
231).

f ×d 
2 2
 d 
Atténuation =  4π  =  4π  (Équation 4)
 λ  c 
d : distance en m séparant l’émetteur du récepteur. Cette équation suppose une propagation sans obstacles.
f : fréquence du signal en Hz
λ : longueur d’onde en m.

Fig. 13 – Atténuation d’un signal radiofréquence à 950 MHz pour différents environnements

Question : Un téléphone mobilé GSM émet à pleine puissance (2 W) à une fréquence de 950 MHz. Le
seuil de réception de la station de base du réseau téléphonique est de -102 dBmW. Quelle est
l’atténuation maximale que peut subir le signal émis par le téléphone. Quelle est la portée théorique
de cet émetteur dans l’hypothèse d’un espace libre ? Dans un milieu rural ? Dans un milieu urbain ?

Réponse :

A. Boyer 13
Canaux de transmissions bruités Septembre 2011

Comme dans une liaison filaire les problèmes d’adaptation d’impédance se posent aussi pour
les liaisons radiofréquences, en entrée et en sortie des antennes d’émission et de réception. Pour
optimiser le transfert, les liaisons entre l’émetteur-récepteur et l’antenne doivent être adaptées autour
de leurs fréquences de résonance. L’impédance caractéristique et la fréquence de résonance d’une
antenne sont principalement liées à la géométrie et à la disposition de l’antenne dans son
environnement.
Cependant, une antenne diffère d’un câble puisque l’onde ne se propage pas le long d’un
circuit bien défini mais dans plusieurs directions dans l’espace. Certaines antennes peuvent émettre de
manière quasi uniforme dans toutes les directions (on parle d’antenne omnidirectionnelle, comme les
antennes fouet), alors que d’autres dans une direction bien précise (antenne directionnelle comme une
antenne parabolique). On caractérise cette faculté à concentrer plus ou moins l’émission sur une zone
de l’espace par la directivité, ou bien par le gain de l’antenne pour comparer la puissance rayonnée
par une antenne donnée dans une direction par rapport à une antenne de référence, le plus souvent
omnidirectionnelle. La figure 14 présente un exemple de diagramme de rayonnement d’une antenne.
Le choix d’une antenne directive dépend de la couverture désirée de l’espace environnant.

Fig. 14 – Diagramme de rayonnement d’une antenne log périodique

4. Comparaison des portées


Les liaisons filaires, optiques et radio subissent des atténuations très différentes. La figure 15
présente une comparaison des atténuations en fonction de la distance séparant l’émetteur du récepteur
pour ces 3 types de canaux de transmission. Le canal radio est celui qui présente l’atténuation la plus
importante, alors que les fibres optiques constituent le support qui introduit le moins d’atténuation.
Néanmoins, les liaisons radiofréquences permettent de construire des réseaux de communication
économique et sont les seuls à autoriser la mobilité des émetteurs-récepteurs.

Fig. 15 - Comparaison de l’atténuation du signal pour différents supports de communication

A. Boyer 14
Canaux de transmissions bruités Septembre 2011

5. Autres supports de transmission d’information


D’autres supports de transmission existent comme les supports de stockage que sont les CD,
les DVD ou les disques durs. Ils représentent eux aussi des moyens de transfert d’information et sont
aussi soumis à des contraintes spécifiques en terme de taux d’erreur. Il est important de connaître les
caractéristiques d’un support de transmission ainsi que leurs limitations pour le dimensionnement d’un
canal de transmission (capacité max. d’information transmise, bande passante), techniques à adopter
pour assurer la qualité de service. Enfin, il faut s’assurer des réglementations associées à l’utilisation
d’un support.

III. Ce qu’il faut retenir

⇒ Un canal de transmission n’est pas simplement composé du support de transmission,


mais aussi de l’ensemble des dispositifs qui permettent d’adapter le signal à
transmettre au canal et de minimiser les erreurs de réception.
⇒ Afin de résister aux perturbations induites par le support de transmission, un signal à
transmettre subit en général des opérations de codage de source, de codage de canal,
de modulation, de mise en forme …. Il subit les opérations inverses en réception.
⇒ Lors de la transmission à travers le canal, le signal subit les atténuations et les
déformations propres au canal, ainsi que le bruit provenant de perturbateurs externes.
En outre, les émetteurs et récepteurs du canal contribue à générer des perturbations qui
dégradent le signal.
⇒ Les défauts du canal de transmission et les perturbations externes vont limiter la
quantité d’information qui peut passer à travers le canal et affecter la qualité du signal.
⇒ Un récepteur reçoit en général un signal faible, bruité et distordu. Il doit être en
mesure de le reconstruire puis de l’interpréter afin de retrouver le signal d’origine.
⇒ Les transmissions d’informations se font en général par liaison filaire (câble électrique
ou fibre optique) ou par liaison hertzienne (ou sans fils). Cette dernière est la plus
sensible aux perturbations externes et dont l’environnement de propagation est le plus
difficile à modéliser.

A. Boyer 15
Canaux de transmissions bruités Septembre 2011

B. Le bruit et son effet sur les


communications numériques

Par définition, le bruit est un signal aléatoire superposé au signal utile. Selon l’amplitude du
bruit par rapport à celle du signal, le bruit sera à l’origine d’une fluctuation aléatoire de l’amplitude du
signal. En outre, le canal introduit une atténuation du signal transmis qui va limiter sa portée.
Dans lors, « l’information » transportée par le signal est dégradée, voire perdue, en présence
de bruit. Le but de ce chapitre est de présenter les différentes sources de bruit dans un canal de
transmission, de présenter les grandeurs permettant de le caractériser (rapport signal à bruit) et de lier
la quantité de bruit à la dégradation d’un signal numérique (relation entre le rapport signal à bruit et le
taux d’erreur binaire). A partir de ces critères sur l’amplitude minimale que doit posséder le signal
pour éviter une transmission erronée, il sera possible de dimensionner la puissance à émettre dans le
canal, les caractéristiques du signal, les gains et les pertes des différents éléments du canal. Un outil
nous le permettra : le bilan de liaison.

I. Bruit lié aux équipements électroniques


1. Définition du bruit
Les signaux utiles sont souvent mélangés à du bruit. Le bruit est par définition un signal
parasite aléatoire, le plus souvent d’origine thermique. Tout signal de fréquence F dont l’amplitude est
inférieure ou égale à celle du bruit, ou sous le seuil de bruit, à la fréquence F ne pourra être
différencié du bruit par un dispositif électronique de réception (fig. 16). Le bruit définit donc la limite
basse en amplitude permettant la détection d’un signal. Au cours du dimensionnement d’un canal de
transmission, il faudra tenir compte du niveau de bruit afin de définir la sensibilité du récepteur. Le
bruit peut être caractérisé de plusieurs manières :
 par sa densité spectrale de puissance (DSP) (Fig. 16), c'est-à-dire la répartition énergétique
en fonction de la fréquence (puissance par hertz). Les télécommunications étant basées sur
des transmissions et des réceptions effectuées sur des bandes de spectre étroites, il est
nécessaire de déterminer la quantité totale de bruit occupant la bande spectrale du signal
utile. La quantité totale de bruit sur une bande de fréquence donnée (par exemple la
puissance) est égale à l’intégrale de la DSP sur cette bande de fréquence
 par sa fonction de répartition ou densité de probabilité en amplitude (Fig. 17), et aussi par
différentes valeurs statistiques comme sa valeur moyenne et sa variance. En effet, comme le
bruit est généralement aléatoire (il peut être dans certains cas déterministes mais ses
caractéristiques ne sont pas connues), celui est vu comme un signal aléatoire. En appliquant
un modèle de distribution du bruit (distribution normale, log normale …), il est possible
d’estimer l’amplitude maximale prise par le bruit. Les caractéristiques statistiques du bruit
sont généralement données par la valeur moyenne et par l’écart type.

A. Boyer 16
Canaux de transmissions bruités Septembre 2011

Densité spectrale de puissance


(W/Hz ou dBW/Hz)
Signal non Signal
détectable détectable Puissance du bruit : N 0 = ∫ n0 df
df f

Seuil de bruit
n0

Fréquence

Fig. 16 – Représentation de la densité spectrale de puissance du bruit et d’un signal, et détection d’un
signal au dessus du seuil de bruit

Amplitude Amplitude
du bruit (x) du bruit (x)
σ = écart-type


Moyenne

Temps Densité de
probabilité p(x)

Fig. 17 –Caractérisation statistique du bruit

2. Bruit Johnson
Toute résistance, même si elle n’est pas parcourue par un courant, produit à ses bornes une
tension de bruit appelée bruit Johnson. Ce bruit est produit par l’agitation thermique aléatoire des
électrons. Ce bruit possède un spectre plat, c’est à dire que la puissance du bruit est constante avec la
fréquence. On parle alors de bruit blanc. Son amplitude dépend de la valeur de la résistance et de la
température ambiante. La tension efficace de bruit aux bornes d’une résistance R peut se calculer à
l’aide de l’équation 5, la densité spectrale de bruit à l’aide de l’équation 6.
Vbruit = 4k TR B (Équation 5)

DSPbruit = 4k TR (V 2 / Hz ) (Équation 6)

R = résistance du conducteur (Ohm)


k=1.38x10-23 Joule/°K, constante de Boltzmann
T= température du matériau (°K)
B=largeur de bande (Hz)

Comme le bruit est un phénomène aléatoire, l’amplitude du bruit Johnson est imprévisible
mais suit une loi gaussienne.

3. Bruit de grenaille
Un courant électrique peut être comparé à un flux de charges discrètes de charges constantes.
Contrairement à l’écoulement d’un fluide, un courant est composé d’éléments finis qui connaissent des
fluctuations statistiques. La fluctuation du courant est donnée par l’équation 7 :

I bruit = 2qIB (Équation 7)

A. Boyer 17
Canaux de transmissions bruités Septembre 2011

q=1.6x10-19 C charge d’un électron


I= amplitude du courant continu (A)
B=largeur de bande (Hz)

Les fluctuations relatives du courant sont d’autant plus importantes que le courant est faible.
Comme le bruit Johnson, il s’agit d’un bruit blanc gaussien. Cette formule est particulièrement valable
dans une jonction PN, mais surestime le bruit de grenaille dans un conducteur métallique.

4. Bruit en 1/f ou bruit de scintillement


Alors que les bruits Johnson et de grenaille sont des phénomènes irréductibles liés à des
phénomènes physiques, les composants réels ont une source de bruit supplémentaire ayant plusieurs
origines liées à leur fabrication (nature du matériau, résistif par exemple). Ainsi, les résistances sont
affectées de variations de résistance proportionnelles au courant qui les traversent produisant des
fluctuations de tension à leurs bornes. Le spectre de ce bruit suit à peu près une loi en 1/f, sa densité de
puissance est donc divisée par 10 à chaque décade de fréquence. On appelle aussi ce bruit le bruit rose.

5. Bruit thermique
Comme nous venons de le voir, le bruit est essentiellement d’origine thermique et son
amplitude dépend de la fréquence. Il est beaucoup plus important en basse fréquence qu’en haute
fréquence à cause du bruit de scintillement, mais il a tendance à se stabiliser en haute fréquence. En
considérant que le bruit est constant sur la bande de fréquence visée (ce qui est généralement le cas
puisque les bandes de fréquence allouées aux transmissions sont limitées), la formule suivante est
proposée afin de déterminer de manière simple l’amplitude du bruit d’origine thermique aux bornes
d’un dispositif de réception.
N (dBW ) = 10 log (kTB) (Équation 8)
N : amplitude du bruit
k : constante de Boltzmann (k=1.38e-23 J/K)
T : température (K)
B : bande de fréquence (Hz)

La formule précédente permet d’évaluer le seuil ou plancher de bruit dû à l’agitation


thermique ambiante.

Question : calculer la densité spectrale du bruit à température ambiante (27°c) à l’aide de la formule
précédente.

Réponse :

6. Bruit d’un circuit actif et facteur de bruit


Les circuits actifs sont constitués de nombreux éléments capables de générer du bruit
(transistors, diodes…). Ainsi, les amplificateurs introduisent une part non négligeable de bruit dans les
récepteurs. Un modèle équivalent de bruit ramené en entrée est donné pour représenter le bruit d’un
amplificateur. Il contient :
Une manière courante de caractériser le bruit interne par un système électronique est le facteur
de bruit ou Noise Figure. Celui-ci est égal au rapport entre la puissance de bruit mesuré en sortie sur la

A. Boyer 18
Canaux de transmissions bruités Septembre 2011

puissance de bruit mesuré en entrée d’un système électronique (équation 9). Il indique donc la quantité
de bruit ajouté par le système électronique.
N out
NF = ⇒ NF (dB ) = N out (dBm ) − N in (dB ) (Équation 9)
N in
Lorsque plusieurs systèmes électroniques sont cascadés, le facteur de bruit du système complet
va dépendre des facteurs de bruit NFi de tous les éléments et de leurs gains Gi. Il peut se calculer à
partir de la relation de Friis (équation 10).

1e élément 2e élément Ne élément

Nin Nout
G1 G2 GN
NF1 NF2 NFN

N out NF2 − 1 NF3 − 1 NFN − 1


NF = = NF1 + + + ... + (Équation 10)
N in G1 G1G2 G1G2 ...G N −1
Remarque : les circuits passifs génèrent aussi du bruit. En effet, une résistance génère du bruit
Johnson. Le facteur de bruit d’un dispositif passif est lié à son atténuation L par la formule ci-dessous.
1
NF passif = (Équation 11)
L

7. Bruit d’une antenne


Dans un système de transmission radio, les performances en termes de sensibilité du récepteur
dépendent non seulement de celles des circuits électroniques, mais aussi de l’antenne qui contribue à
ajouter du bruit au signal. L’antenne possède une résistance de perte et présente donc une source de
tension de bruit de Johnson, qui dépend fortement de la température de l’antenne. Une antenne est
aussi une source de bruit à cause de sa fonction première : capturer des ondes électromagnétiques. En
effet, une antenne est susceptible de capter l’ensemble des signaux parasites produits par son
environnement (interférences électromagnétiques, bruit thermique).

8. Autres sources de bruit


Les sources de bruit sont très nombreuses. On peut trouver par exemple les rayonnements
cosmiques qui sont des événements localisés et de haute énergie. Certains circuits peuvent être
sensibles aux vibrations et aux sons comme les détecteurs. Plusieurs techniques existent pour rejeter
le bruit :
 moyenne du signal puisque le bruit est de nature aléatoire
 réduction de la bande passante
 filtrage
 techniques de conception de circuits dits faible bruit
La figure 18 présente un exemple de mesure à l’analyseur de spectre du bruit aux bornes d’une
résistance.

A. Boyer 19
Canaux de transmissions bruités Septembre 2011

Fig. 18 – Mesure du bruit aux bornes d’une résistance

Question : Commenter la mesure de la figure 18.

Réponse :

II. Distorsions non linéaires des circuits électroniques


Les circuits électroniques actifs sont souvent modélisés par des lois linéaires, alors que leur
comportement est purement non linéaire. Celui-ci est négligé afin de faciliter la prédiction de leur
comportement (par ex, en utilisant des fonctions de transfert). Ces effets liés au comportement
intrinsèque des composants et à leurs imperfections vont dégrader les performances du système en
modifiant certains paramètres tels que le gain des étages d’amplification ou en créant des signaux
parasites. Les effets non linéaires sont difficiles à modéliser et, en général, ils sont modélisés à l’aide
de série de développement limité à l’ordre 2 ou 3. Les lois non linéaires apparaissent alors comme des
polynômes d’ordre 2 ou 3 (ces calculs sont présentés à l’annexe B), enrichissant le spectre du signal de
sortie de nouvelles composantes spectrales. On dit alors que les signaux d’entrée et de sortie de
dispositifs non linéaires ne sont plus isomorphes. On distingue plus particulièrement deux types de
distorsions :
 La distorsion harmonique
 La distorsion d’intermodulation

A. Boyer 20
Canaux de transmissions bruités Septembre 2011

1. Distorsions harmoniques
La distorsion harmonique est due, en cas d’excitation par une sinusoïdale pure de fréquence
fo, à la création de composantes aux fréquences harmoniques k×fo, où k est un entier. Le spectre en
sortie du dispositif non linéaire est enrichi en nouvelles composantes spectrales. Pour caractériser la
distorsion spectrale, on utilise les notions de taux de distorsion. Le taux de distorsion de
l’harmonique k, notée dk, prend en compte l’apparition de nouvelles composantes spectrales :
amplitude harmonique k A
dk ( % ) = = k (Équation 12)
amplitude du fondamental A1

Le taux de distorsion harmonique global d caractérise la distorsion totale du signal. Il s’agit


du rapport des valeurs efficaces du signal de sortie sans la composante fondamentale sur celui avec
fondamentales :
+∞

∑A
2
k 2
A1
d= k =2
+∞
= 1− +∞
(Équation 13)

∑A ∑A
2 2
k k
k =1 k =1

La distorsion apparaît dès que les signaux ont des amplitudes importantes et que les
approximations linéaires ne sont plus valables. Les distorsions harmoniques apparaissent
principalement dans les étages d’amplification des émetteurs-récepteurs. Le gain de tout amplificateur
est considéré comme constant tant que l’amplitude du signal d’entrée reste faible. L’entrée et la sortie
de l’amplificateur sont alors reliées par une loi linéaire et les signaux d’entrée et de sortie sont
isomorphes. Cependant, dès que l’amplitude du signal d’entrée est suffisamment élevée pour sortir du
domaine linéaire, le gain n’est plus constant et diminue. On parle de compression de gain. Dès lors, le
signal de sortie subit une distorsion d’amplitude.
Pour caractériser la plage d’amplitude du signal d’entrée sur laquelle le gain peut être
considéré comme constant, on définit le point de compression à 1 dB; il s’agit de la plage
d’amplitude du signal d’entrée pour laquelle la relation suivante est vérifiée :
G1dB = G0 − 1dB (Équation 14)

où Go est le gain en zone linéaire. Le point à 1dB correspond à la puissance à fournir en entrée
pour que le gain réel de l’amplificateur s’écarte de 1dB du gain linéaire. L’annexe B présente un calcul
qui fait apparaître cette compression de gain dans un système non linéaire d’ordre 3. La figure 19
illustre la notion de point de compression à 1dB. La seule façon de limiter la distorsion du signal de
sortie est de limiter l’amplitude du signal en entrée pour s’assurer que le circuit reste dans la zone de
fonctionnement linéaire. On peut aussi filtrer le signal distordu afin de ne conserver que la composante
de fréquence fondamentale.
Puissance Caractéristique Ps
Zone de
sortie idéale fonctionnement
1dBm Distorsion non linéaire

Pe
Point de
compression à 1dB
Puissance
entrée
Fig. 19 - Illustration de la distorsion d’un signal provoqué par le comportement non linéaire d’un
amplificateur

A. Boyer 21
Canaux de transmissions bruités Septembre 2011

2. Distorsions d’intermodulation
La distorsion d’intermodulation est liée à l’existence de produits d’intermodulation. Ceux-ci
apparaissent lorsqu’un signal d’entrée constituée d’une combinaison linéaire de termes sinusoïdaux de
fréquences différentes fi, fj, … passe à travers un dispositif non linéaire. Le signal de sortie est alors
composé, en plus des composantes harmoniques initiales, de termes d’intermodulation dont les
fréquences sont égales à des combinaisons linéaires des fréquences initiales F = m × f i ± n × f j .
Ces distorsions sont très gênantes car elles génèrent des signaux parasites dans la bande utile.
Néanmoins, cette propriété est mise à profit dans les circuits mélangeurs des
modulateurs/démodulateurs pour la transposition de fréquences. L’annexe B présente le calcul du
signal de sortie pour un système non linéaire d’ordre 3. La figure 20 présente le spectre du signal de
sortie d’un amplificateur. Le signal d’entrée correspond à la somme de 2 sinusoïdes de fréquences 200
et 250MHz. On remarque que le signal présente de nombreux produits d’intermodulation.

F1 F2
∆f=50MHz

2F1-F2 2F2-F1
2F1+F2 2F2+F1

∆f ∆f

Fig. 20 - Signal de sortie d’un amplificateur non idéal et produits d’intermodulation


On peut remarquer que les produits les plus gênants sont ceux d’ordre 3 (2F1-F2 et 2F2-F1).
En effet, si les fréquences F1 et F2 sont très proches, les produits d’ordre 3 peuvent parasiter le signal
utile si ils apparaissent dans la bande passante du récepteur. Pour caractériser les dégradations
apportées par les produits d’intermodulation, on utilise la distorsion d’intermodulation IM3, qui est
égale au rapport de l’amplitude des signaux de produit d’ordre sur celle des signaux initiaux. Ce
rapport est exprimé en dBc, c pour carrier, c'est-à-dire « par rapport à la porteuse ». Des valeurs
comprises entre 20 et 40 dB peuvent être considérées comme acceptables.
 V 
IM 3 = 20 × log  F 1  (dBc) (Équation 15)
 V2 F 1− F 2 

Question : D’après l’exemple de la figure 20, calculer la valeur IM3 ?

Réponse :,

A. Boyer 22
Canaux de transmissions bruités Septembre 2011

3. Bruit de phase des oscillateurs locaux des récepteurs


Bien que ses effets soient moindres, une autre source de bruit liée aux défauts des circuits
électroniques du récepteur est le bruit de phase. Celui-ci est lié à l’instabilité des oscillateurs locaux
(OL) du récepteur. Ceux-ci sont souvent des oscillateurs contrôlés en tension montés à l’intérieur
d’une boucle à verrouillage de phase (PLL) et subissent en permanence une variation aléatoire de leur
fréquence de fonctionnement. Au niveau du spectre, le bruit de phase se traduit par une large bande de
bruit situé au pied de la porteuse, comme le montre la figure 21.
signal signal
oscillateur peu bruyant oscillateur bruyant

bruit de
seuil de phase
bruit

fréquence fréquence
Fig. 21 - Bruit de phase

Ces oscillateurs locaux sont utilisés dans les


circuits de réception pour ramener le signal modulé
en bande de base. Si l’OL est bruyant, son bruit va se
superposer au signal utile des canaux adjacents et
être ramené dans la bande passante du récepteur. Le
bruit de phase est très perturbateur car ses effets sont
cumulatifs. Il n’existe pas de contre mesures
permettant de réduire son effet, le seul moyen est
d’améliorer la pureté spectrale de l’OL à sa
conception. Voila pourquoi des gabarits très stricts
sont imposés aux oscillateurs locaux dans les
applications radio, comme celui de la norme GSM
présenté figure 22. Fig. 22 - Gabarit fréquentiel imposé par la
norme GSM
Le bruit de phase est le plus souvent exprimé en dBc/Hz. Il s’agit du rapport de la puissance
du bruit sur une bande passante de 1Hz sur la puissance de la porteuse. Cette bande est choisie en
s’écartant de 10KHz de la porteuse. Une valeur typique de bruit de phase est de -120dBc/Hz.
puissance

10KHz

Bruit de 1Hz
phase

Porteuse Fp fréquence

Fig. 23 - Calcul du bruit de phase

A. Boyer 23
Canaux de transmissions bruités Septembre 2011

4. Autres sources de perturbations


D’autres sources de perturbations liées à l’électronique du récepteur existent et ont déjà été
étudiées les années précédentes : on trouve par exemple les résidus de spectres non supprimés par les
filtres anti-repliement. Ceux-ci sont utilisés pour limiter la largeur de bande d’un signal à
échantillonner. Si celle-ci ne respecte pas le théorème d’échantillonnage de Shannon, un phénomène
de repliement de spectre peut avoir lieu et entraîner une distorsion du signal transmis. Les erreurs de
quantification sont une source de dégradation du signal inévitable dans toute chaîne de conversion
analogique numérique et qui réduisent les performances du système en terme de rapport signal sur
bruit.

III. Atténuation du canal de transmission


1. Affaiblissement
Par définition, l’affaiblissement ou l’atténuation est le rapport de la puissance à la sortie du
système Ps sur la puissance à son entrée Pe. On le calcule de la manière suivante :
P 
A = 10 × log  s  (dB) (Équation 16)
 Pe 

1 P 
A = ln  s  ( Np) (Équation 17)
2  Pe 
Suivant la base choisie pour le logarithme, le gain ou l’affaiblissement sont exprimés en
décibel (dB) ou en néper (Np). Même si le néper est mathématiquement plus naturel que le décibel
(dans la théorie des lignes, l’atténuation suit une loi exponentielle), l’usage du décibel est plus
répandu. On passe d’une unité à l’autre à l’aide des 2 formules suivantes :
1 Np = 20 × log(e) dB = 8.68 dB (Équation 18)
1
1 dB = × ln(10) Np = 0.115 Np (Équation 19)
20
Pour la conversion en dB, reportez vous à l’annexe A.

2. Communications filaires
Les câbles, s’ils ne sont pas blindés, peuvent coupler un grand nombre de perturbations
électromagnétiques qui se superposent au signal utile et réduisent le rapport signal à bruit. De plus, les
ruptures d’adaptation existant le long d’un câble ont tendance à ralentir et déformer le signal.
L’atténuation d’un câble réduit non seulement l’amplitude du signal et mais contribue aussi à l’étaler
dans le temps. Un autre problème se pose dans le cas de câbles placés à proximité les uns des autres :
la diaphonie. Elle est due à la proximité de chacun des câbles qui fait se coupler mutuellement les 2
signaux présents sur chacun des 2 câbles (création de couplages inductifs et capacitifs entre les
câbles). Si une ligne sensible est placée trop près d’une ligne sur laquelle un signal rapide est véhiculé,
le signal rapide se couplera sur la ligne sensible par diaphonie et parasitera le signal sensible.

3. Affaiblissement de parcours en propagation hertzienne


Un canal radio représente le médium le plus soumis aux perturbations. Dans la réalité, un
espace libre dégagé de tout obstacle et aux propriétés uniformes est un cas purement idéal.
Considérons d’abord une propagation en espace libre. Lorsqu’une onde électromagnétique se propage
et s’éloigne de la source, la puissance qu’elle transporte par unité de surface décroît avec la distance.
L’atténuation en fonction de la distance d et de la fréquence f est donnée par :

A. Boyer 24
Canaux de transmissions bruités Septembre 2011

2 2
 d  f ×d 
Atténuation =  4π  =  4π  (Équation 20)
 λ  c 
Supposons qu’on est une liaison radiofréquence entre un émetteur E et un récepteur R. La
puissance rayonnée par l’antenne de l’émetteur dépend de la puissance électrique Pe et du gain de
l’antenne Ge. La puissance électrique reçue Pr dépend de la puissance transportée par l’onde
électromagnétique et le gain de l’antenne réceptrice Gr. Le rapport entre la puissance électrique reçue
et la puissance électrique émise est donnée par la formule de Friis :
Pr Ge G r Ge G r
= = (Équation 21)
f ×d 
2 2
Pe  d  
 4π   4π 
 λ  c 

Dans le prochain chapitre, nous détaillerons les différents phénomènes physiques qui affectent
la propagation et altèrent les caractéristiques temporelles du signal.

4. Brouillage ou interférences
Le terme brouillage ou interférences signifie qu’un signal parasite de puissance non
négligeable émis à la même fréquence que le signal utile peut perturber la transmission sur le canal, en
dégradant le rapport signal à bruit ou en introduisant des distorsions. On trouve 2 types
d’interférences :
 L’interférence due à la présence simultanée d’autres utilisateurs soit sur le même canal de
transmission (mauvais duplex, interférences entre utilisateurs), soit sur des canaux adjacents
(la largeur de bande du canal adjacent ne respecte pas les contraintes fixées).
 Le brouillage intentionnel (activité militaire, volonté de perturber une communication
gênante). La technique revient à placer à proximité de l’utilisateur une source haute
puissance et de la faire émettre à la fréquence du canal. Seules les communications radio
peuvent être brouillées, les communications par fibre optique restent inviolables.

Dans les réseaux cellulaires, le brouillage entre cellules adjacentes émettant sur une même
sous bande est inévitable. On parle d’interférence co-canal. Celui-ci est dû à la réutilisation des
fréquences allouées par un opérateur dans des cellules voisines, comme le montre la figure 24. Des
règles de réutilisation de fréquence sont dès lors requises ainsi qu’un dimensionnement judicieux des
puissances des émetteurs.
Les canaux émettant sur des bandes de fréquences voisines ou adjacentes peuvent aussi se
perturber. En effet, les signaux sont rarement bornés en fréquence, alors que les bandes de fréquence
allouées le sont. Un filtrage efficace est nécessaire pour couper toute émission hors bande et éviter des
phénomènes de blocage de canaux adjacents. Cependant, les défauts des circuits et des filtres (bruit de
phase, distorsions non linéaires, produits d’intermodulation) limitent l’efficacité du filtrage en
produisant un grand nombre d’harmoniques hors bande.
f1
Bande allouée à f1 Signal
un opérateur
Interférences
f1 f2 fk
Interférences Interférences
f1
Fréquence f1
Sous bande

Fig. 24 - Interférence co-canal dans un réseau cellulaire

A. Boyer 25
Canaux de transmissions bruités Septembre 2011

IV. Modélisation du bruit dans un canal de transmission


Un modèle de canal reste une vision simplifiée de la réalité, sa modélisation complète pourrait
atteindre une très grande complexité (par exemple un réseau cellulaire dans un milieu urbain). Dans ce
cours, on prend la notion de canal au sens large du terme, c'est-à-dire qu’on y inclut le médium de
transmission mais aussi les équipements de transmission et de réception. Voici quelques définitions :

 Canal discret : l’ensemble des symboles reçus après le passage dans le canal est fini.
L’information est donc numérique.
 Canal à temps discret : l’échelle des temps est discrète.
 Canal sans mémoire : le symbole reçu à un instant donné dépend uniquement du symbole
émis au même instant t (en considérant le retard de transmission nul). Si le canal a une
mémoire, la sortie dépend aussi des symboles présents en t’, t’<t.
 Canal stationnaire : ses caractéristiques sont fixes au cours du temps. Une fibre optique est
un canal stationnaire, ses caractéristiques étant quasi invariantes au cours du temps, alors
qu’une liaison radio correspond à un canal non stationnaire puisque ses caractéristiques
dépendent de nombreux facteurs tels que les objets environnants, les conditions
atmosphériques ou les perturbations électromagnétiques.
 Canal sélectif : le signal à transmettre a des composantes fréquentielles qui sont atténuées
différemment par le canal de propagation. Il introduit donc une distorsion dans le signal
transmis.

Nous allons maintenant présenter quelques modèles simples de canaux de transmission


prenant en compte l’ajout de bruit par le canal. Dans le chapitre suivant, nous verrons comment inclure
les effets temporels induit par le canal. Des modèles bien plus complexes existent (par exemple pour le
canal radioélectrique), mais ils ne sont pas traités dans ce cours.

1. Canal binaire symétrique ou BSC


Il s’agit d’un canal discret binaire sans mémoire. Ce canal est qualifié de symétrique car la
probabilité qu’un 1 devienne un 0 en sortie est égale à celle qu’un 0 devienne un 1. p est la probabilité
d’erreur. La figure 25 illustre le modèle de ce canal.
Densité de
probabilité

entrée sortie
1-p
0 0 Probabilité que le Probabilité que le
p symbole émis soit ‘1’
symbole émis soit ‘0’

p Interférences Valeur pris


entre symboles par le signal
1 1-p 1
-V +V

On décide que la valeur On décide que la valeur


reçue est un ‘0’ reçue est un ‘1’

Fig. 25 - Canal binaire symétrique


Même si ce modèle de canal reste simpliste, il permet d’évaluer rapidement les performances
d’un système numérique en termes de taux d’erreur binaire.

A. Boyer 26
Canaux de transmissions bruités Septembre 2011

2. Bruit blanc gaussien et canal à bruit blanc gaussien additif


(Additive White Gaussian Noise AWGN)
Le bruit blanc gaussien est un modèle de bruit largement utilisé dans de nombreux domaines.
En effet, lorsqu’un phénomène correspond à la somme d’un grand nombre de variables aléatoires, il
est possible de démontrer par le théorème de la limite centrale que la distribution statistique de ce
phénomène suit une distribution gaussienne. Dans le domaine fréquentiel, un bruit blanc présente une
DSP constante en fonction de la fréquence. Un bruit gaussien suit une distribution gaussienne,
caractérisée par une moyenne µ et une variance σ². La densité de probabilité est donnée par l’équation
22. La figure 26 illustre la représentation temporelle d’un bruit gaussien et la distribution statistique
qui peut en être extrait, dont la densité de probabilité suit une distribution gaussienne. La
représentation temporelle ne permet pas d’extraire d’informations sur le signal en raison de sa nature
aléatoire (pas de période par exemple), mais la distribution permet d’extraire des éléments statistiques
sur la nature du bruit.
 ( x − µ )2 
p( x ) =
1
exp −  (Équation 22)

σ 2π  2σ 2 
Amplitude Amplitude
du bruit (x) du bruit (x)

Moyenne

Temps Densité de
probabilité p(x)

Fig. 26 – Représentation temporelle d’un bruit gaussien et distribution statistique de son amplitude

Un canal AWGN est non discret et sans mémoire qui représente parfaitement une liaison radio
en vue directe dont le bruit est principalement d’origine thermique. Le bruit additif est dans ce cas un
bruit gaussien de moyenne nulle et de variance σ². Comme il s’agit d’un bruit blanc, la densité
spectrale de bruit est constante avec la fréquence, ce qui représente une hypothèse simplificatrice des
calculs et mais qui reste valide si on considère des bandes de fréquence étroites. La figure 27 illustre le
modèle général d’un canal AWGN. Le canal est caractérisé par une fonction de transfert ou une
réponse impulsionnelle, qui décrivent le comportement soit fréquentiel soit temporel du canal (voir
chapitre suivant). Les perturbations externes et le bruit se couplent au canal et sont ajoutés au signal
transmis.
Bruit et
1001 perturbations
Filtre linéaire
+
+
Signal numérique
émis Signal numérique
reçu

Canal de transmission
Fig. 27 - Modèle général d’un canal de transmission à bruit additif

A. Boyer 27
Canaux de transmissions bruités Septembre 2011

3. Canal de Rayleigh
Dans les liaisons radiomobiles, les canaux de transmission évoluent en fonction du temps à
cause des déplacements aléatoires des entités communicantes et l’existence d’obstacles entre
l’émetteur et le récepteur. Il peut en résulter que le signal émis suit plusieurs trajets avant d’arriver au
récepteur, conduisant à une variabilité importante du signal reçu due à l’addition de plusieurs signaux
déphasés. Lorsque le débit de transmission est suffisamment faible, chaque symbole ne se superpose
qu’avec lui-même, au moins sur une portion significative de sa durée. Un canal de Rayleigh permet de
prendre en compte ces effets : réflexions multiples, évanouissements, fluctuations à grande et petite
échelle et effet Doppler. L’amplitude et la phase du signal reçu apparaissent comme des variables
aléatoires qui suivent une loi de Rayleigh (équation 23). Ce modèle est particulièrement adapté à une
représentation statistique d’un canal radiomobile.
x2  − x2 
p( x) = 2 exp  (Équation 23)
σ  2σ
2

V. Rapport signal sur bruit


1. Définition

Connaître la puissance du bruit N n’a un intérêt que si on peut la comparer à celle du signal Ps
et en déduire son impact sur la dégradation du signal. C’est pourquoi on utilise généralement un
rapport de puissance appelé rapport signal sur bruit (Signal Noise Ratio) :
PS nom
SNR = (Équation 24)
N
Le rapport signal sur bruit se rapporte toujours au niveau nominal du signal. Le plus souvent,
celui-ci est exprimé en dB (équation 25). Voir Annexe A pour les conversions entre les échelles
linéaires et les échelles logarithmiques (dB).
 PS nom 
SNR(dB ) = 10 × log  (Équation 25)
 N 
Celui-ci va donc permettre d’apprécier la qualité d’un signal et déterminer la sensibilité d’un
dispositif pour une densité spectrale du bruit donnée. Le rapport signal à bruit est une donnée surtout
intéressante pour des signaux analogiques, puisqu’il va permettre d’estimer la dégradation subit par ce
dernier. En effet, plus le rapport signal à bruit est faible, plus le signal est dégradé par le bruit et plus il
sera difficile de supprimer l’influence du bruit sur le signal. Il est nécessaire de garantir un rapport
signal à bruit important pour s’assurer que le signal reçu reste une « copie fidèle » du signal transmis.
Ci-dessous, voici 4 exemples de contraintes en terme de SNR, les 3 premières correspondent à des
transmissions analogiques, la dernière à une transmission numérique.

Exemple de SNR :

 Téléphonie classique : SNR ≥ 50dB (B=3.1 KHz), bruit à peine perceptible, bruit à 30dB
très gênant.
 Transmission de musique : SNR ≥ 47dB (B=15 KHz), plus sévère que les exigences en
téléphonie puisque largeur de bande plus grande.
 Transmission de télévision : SNR ≥ 52dB (B=5 MHz)
 Système GSM : SNR ≥ 8dB (B=200KHz), le bruit thermique étant de -120dBm à 290°K, le
premier étage d’amplification ajoutant un bruit de 10dB, la sensibilité du récepteur est de -

A. Boyer 28
Canaux de transmissions bruités Septembre 2011

102dBm (63pW) ! Cette sensibilité permet de garantir un taux d’erreur binaire d’au plus 1
pour 100 bits.

Remarque : dans le cas de signaux modulés, on parle aussi de rapport carrier on noise C/N, où C
représente la puissance de la porteuse.

2. Cas d’un signal numérique - Rapport signal à bruit par bit


Les signaux numériques sont sensibles au bruit, mais ne sont pas aussi sensibles que les
signaux analogiques. Contrairement à un signal analogique, la qualité d’un signal numérique ne se
mesure pas à la distorsion du signal, mais à la possibilité pour un circuit digital de détecter
correctement l’état binaire transmis. Alors que la principale contrainte d’une communication
analogique est le rapport signal à bruit qui est directement relié à la distorsion du signal, celle d’une
communication numérique est le taux d’erreur binaire.
Alors que les exigences en termes de rapport signal à bruit pour les transmissions analogiques
sont très élevées (plusieurs dizaines de dB !), celles-ci sont beaucoup plus faibles pour des
communications numériques. Les niveaux de bruit nécessaires pour induire une erreur binaire doivent
être très grand et du même ordre que l’amplitude du signal. En général, il est possible de recevoir un
signal numérique avec une qualité acceptable avec un rapport signal à bruit légèrement négatif (nous le
verrons par la suite) !
Ainsi, le rapport signal sur bruit n’est pas la meilleure métrique pour qualifier la qualité d’un
signal numérique. On préfère employer un rapport signal à bruit normalisé appelé rapport signal à
bruit par bit noté Eb/No. Il s’agit du rapport entre l’énergie véhiculée par un bit Eb et la densité
spectrale en puissance du bruit No. Comme nous le verrons plus tard, cette grandeur est directement
reliée au taux d’erreur binaire, et fixer une contrainte en termes de taux d’erreur binaire revient à fixer
une contrainte sur le rapport Eb/No. Intuitivement, on sent que la dégradation d’un signal numérique,
en l’occurrence une erreur d’interprétation de bits, va dépendre du rapport entre l’énergie transportée
par un bit et celle du bruit.

Décortiquons maintenant les deux termes de ce rapport. Eb représente l’énergie transportée par
un bit. L’énergie par unité de temps s’appelle la puissance. Dans le cas d’un signal binaire, l’énergie
par bit (en J/bit) est donc reliée à la puissance moyenne du signal S (en W) par le débit binaire Fb (en
bit/s) comme le montre l’équation 26. On remarque que l’énergie par bit est inversement
proportionnelle du débit binaire.
S
Eb = (Équation 26)
Fb
N0 représente la densité spectrale de bruit, c'est-à-dire la puissance N transportée par le bruit
sur une bande de fréquence de largeur B. Son unité est W/Hz, ce qui est équivalent à une énergie.
N
N0 = (Équation 27)
B
En combinant les 2 équations précédentes, on peut relier le rapport signal à bruit et le rapport
Eb/No par l’équation suivante :
S Eb Fb E S B
= × ⇔ b = × (Équation 28)
N No B N o N Fb
S : puissance du signal (W)
N : puissance du bruit (W)
Eb : énergie par bit (W.s/bit)
No : densité spectrale de bruit (W/Hz)
Fb : débit binaire (bits/s)
B : bande passante du canal de transmission (Hz)

A. Boyer 29
Canaux de transmissions bruités Septembre 2011

Remarque : le rapport Eb/No dépend non seulement des puissances du signal et du bruit, mais
aussi des propriétés du signal telles que le débit binaire, la modulation (comme nous le verrons, la
bande passante nécessaire pour transporter un signal dépend du type de modulation employée). Le
rapport Eb/No prend donc en compte l’effet de d’autres paramètres influents sur la robustesse d’une
communication numérique. Ce rapport est donc un paramètre plus intéressant pour comparer des
systèmes de communication différents.

3. Résolution en amplitude
Le bruit qui se superpose au signal transmis sur un canal vient dégrader sa qualité. Dans le cas
d’un signal numérique où les différents symboles sont représentés par des amplitudes différentes, plus
le nombre de symboles possible est grand, plus il devient difficile de les différencier en présence de
bruit. Ainsi, comme la puissance du signal est limitée, pour un niveau de bruit donné, il existera une
limite en nombre de symboles pour assurer une transmission numérique. Dans l’hypothèse d’un bruit
additif blanc gaussien et pour un rapport signal sur bruit S/N donné, Shannon a pu montrer que pour
conserver une probabilité d’erreur d’interprétation des symboles quasi nulle, le nombre maximal
d’états Nmax est donné par l’équation 29.
S
N max = 1 + (Équation 29)
N
Néanmoins, il est impossible d’assurer une probabilité d’erreur nulle puisque cela signifierait
qu’une erreur est un événement impossible. En présence de bruit aléatoire et pour un dispositif de
transmission donné, une erreur est un événement toujours possible. On peut donc en déduire une
quantité maximale de décision par moments, c’est-à-dire un nombre maximal de bits pour représenter
les symboles à transmettre :
1  S
Dm (bits ) ≤ Dmax = log 2 1 +  (Équation 30)
2  N

VI. Taux d’erreur binaire d’un signal bruité


1. Définition
Alors que la qualité d’un signal analogique est dégradée par toute distorsion ou atténuation
non linéaire créé par le canal de transmission, la qualité d’un signal numérique ne sera réduite que si
les effets négatifs du canal conduisent le récepteur à confondre plusieurs symboles ou bits dans le cas
d’un signal binaire. Afin de quantifier la dégradation subie par un signal numérique ou de spécifier la
qualité que doit atteindre une transmission numérique, on utilise la notion de taux d’erreur binaire
ou Bit Error Rate (BER). Il s’agit du taux d’erreur mesuré à la réception d’une transmission
numérique, et se calcule à l’aide de l’équation 31.
BER (% ) =
nombre de bits erronés
(Équation 31)
nombre total de bits reçus
Plus la contrainte sur la qualité de service d’une transmission est élevée, plus le BER est
faible. Par exemple, la norme GSM spécifie un BER < 1 % pour une puissance reçue > -102 dBm.

Remarque : le BER n’est pas la seule métrique utilisée pour qualifier la qualité d’un signal
numérique. On retrouve aussi le Frame Error Rate (FER) ainsi que le Block Error Rate (BLER) qui
indique respectivement la probabilité d’erreur par trame et la probabilité d’erreur par blocs de
données.

A. Boyer 30
Canaux de transmissions bruités Septembre 2011

2. Taux d’erreur binaire théorique d’un signal binaire sur un canal


AWGN
Nous allons maintenant relier la probabilité d’apparition d’erreur binaire en fonction du
rapport signal à bruit. Plaçons-nous dans le cas d’un signal binaire et d’un canal AWGN. On appelle
f(x) la densité de probabilité du bruit, qui suit une distribution gaussienne, de moyenne nulle et d’écart
type σ. Supposons que les 2 états binaires sont représentés par deux niveaux de tension notés a0 et a1.
On appelle A l’amplitude du signal. L’émission des états ‘0’ et ‘1’ sont équiprobables. Ce signal bruité
est appliqué en entrée d’un récepteur binaire, présentant un seuil de décision notée λ0. Supposons de
a 0 + a1
plus que ce seuil de décision est tel que λ0 = . Une erreur binaire apparaît si le récepteur
2
interprète mal un bit incident. Deux cas peuvent se présenter :
 un état ‘0’ est transmis, mais le bruit est suffisant pour que l’amplitude du signal appliquée
en entrée du récepteur dépasse le seuil de décision.
 un état ‘1’ est transmis, mais le bruit est suffisant pour que l’amplitude du signal appliquée
en entrée du récepteur soit inférieure au seuil de décision.
Amplitude Vin du
signal binaire reçu

a1 Etat de sortie d :
Récepteur
d = ‘0’ si Vin < λ0
λ0 (seuil de
A
décision λ0 ) d= ‘1’ si Vin > λ0
a0
Etat binaire temps
0 1 0
transmis a :

Fig. 28 – Modèle de la décision d’un récepteur binaire


Connaissant les probabilités d’apparition des symboles 0 et 1 et sachant que le bruit suit une
distribution gaussienne, on peut déterminer la distribution de l’amplitude du signal d’entrée. Celle-ci
est la somme des distributions de l’amplitude dans le cas où un état ‘0’ est transmis (noté f(x/a0)) et
dans le cas où un état ‘1’ est transmis (noté f(x/a1)) (Fig. 29).
 ( x − a 0 )2 
f (x / a0 ) =
1
exp −  (Équation 32)

σ 2π  2σ 2 
 ( x − a1 )2 
f ( x / a1 ) =
1
exp −  (Équation 33)

σ 2π  2σ 2 
Densité de
probabilité f(x/a0) f(x/a1)
2σ 2σ

a0 λ0 a1 Vin
Fig. 29 - Densité de probabilité de l’amplitude du signal en entrée du récepteur binaire

Calculons la probabilité d’apparition d’une erreur :

A. Boyer 31
Canaux de transmissions bruités Septembre 2011

Perr = P(d = 1).P(d = 1 / a = a 0 ) + P(d = 0 ).P(d = 0 / a = a1 )


+∞ λ
1 0
f ( x / a 0 )dx + f ( x / a1 )dx
1
Perr =
2 ∫
λ0 2 −∫∞
En analysant l’équation précédente et en exploitant les propriétés de symétrie d’une fonction
gaussienne, on peut écrire :
− A0 +∞
f ( x )dx + ∫ f (x / a )dx
1 1
Perr =
2 ∫
−∞
2 A0
1

1  
+ A0

Perr = 1 − ∫ f ( x )dx 
2  − A0 

+ A0
1  1  x2  
Perr = 1− ∫ exp − dx 
2  0 2π σ  2σ
2
 

Comme le seuil est placé de manière symétrique par rapport à a0 et a1, on peut faire intervenir
A, qui correspond à l’amplitude du signal.
Densité de Densité de
probabilité probabilité
2σ 2σ
+

a0 a1 Vin a0 a1 Vin
λ0 λ0

Densité de
probabilité
Perr 2σ
a1 − a0
A=
2

λ0-A/2 λ0 λ0-A0/2 Vin


Fig. 30 - Calcul du taux d’erreur binaire dans le cas d’un signal binaire traversant un canal AWGN
x
En effectuant le changement de variable suivant : u = , on peut écrire l’équation

suivante :
 +
A0

1 2σ 
Perr = 1 −
2
∫0 exp (
− u 2
du  )
2
 π 
 
En se reportant à l’annexe E, on remarque que la fonction erfc apparaît dans l’équation
précédente, qui peut s’écrire sous la forme ci-dessous :
1  A 
Perr = erfc  (Équation 34)
2  2σ 
Modifions cette équation pour faire apparaître le rapport signal à bruit par bit Eb/No :

A. Boyer 32
Canaux de transmissions bruités Septembre 2011

A2
 Energie du signal : E = Tb , où Tb est la période binaire. L’énergie par bit est donc de :
2
A2
Eb =
2
 Energie du bruit : N = σ 2Tb . Pour chaque période binaire, l’énergie du bruit est donc de :
N0 = σ 2
L’équation 34 peut donc s’écrire sous la forme suivante :
1  Eb 
Perr = erfc 
 (Équation 35)
2  N 0 
Le taux d’erreur binaire BER est similaire à la probabilité d’apparition d’erreur binaire, donc
le BER est relié au rapport signal à bruit par bit par l’équation 36 pour un signal binaire. Cette relation
est particulièrement importante pour le dimensionnement d’un canal de transmission car il permet de
définir une limite en terme de rapport signal à bruit à partir d’une contrainte donnée sur le taux
d’erreur binaire maximale. Cette formule reste cependant théorique mais donne une bonne estimation
du taux d’erreur binaire pour un rapport signal à bruit donné. Comme nous le verrons par la suite, cette
relation n’est valable que pour un signal binaire et évolue avec le type de modulation, le codage canal
le filtrage …
1  Eb 
BER = × erfc 
2  N  (Équation 36)
 o 

La figure 31 présente le taux d’erreur binaire en fonction du rapport signal à bruit dans le cas
d’un signal binaire. On remarque que plus le rapport signal à bruit augmente, plus le taux d’erreur
binaire diminue. Un fait surprenant est que même si le rapport signal sur bruit est négatif, le taux
d’erreur binaire n’est pas égal à 1. Dans cet exemple, pour Eb/No = 0 dB, le taux d’erreur binaire est de
8 %. Même si ce taux d’erreur est supérieur aux spécifications usuelles des systèmes de
communications numériques, moins de 1 bit sur 10 risque d’être altéré alors que le signal a un niveau
plus faible que le bruit. Il faut cependant rappeler que l’information dans un signal numérique n’est
pas portée par la forme du signal. Il peut être distordu et l’information sera conservée intacte tant qu’il
est possible de reconnaître le bon état binaire transporté.

Fig. 31 – Taux d’erreur binaire en fonction du rapport signal à bruit dans le cas d’un canal AWNG et
d’un signal binaire

A. Boyer 33
Canaux de transmissions bruités Septembre 2011

Question : Soit un signal binaire de débit = 12 Kbits/s. Le signal en bande de base présente une bande
passante de 25 KHz. Calculer le rapport signal à bruit nécessaire pour garantir un BER < 0.1 %.
Réponse :

VII. Bilan de liaison


Nous venons d’établir une relation entre le rapport signal à bruit (l’amplitude du signal reçu) et
la probabilité d’apparition d’erreur binaire. La quantité d’erreurs induites dans un signal binaire est
donc dépendante de la puissance du signal reçu et du seuil de bruit du récepteur (nous avons pour
l’instant ignoré les effets temporels du canal qui sont une autre source d’erreurs. Nous les aborderons
dans le prochain chapitre). Si nous cherchons à réaliser un canal de transmission numérique et assurer
une transmission avec un minimum d’erreur, nous pouvons déterminer la puissance minimale à
transmettre au récepteur, à condition de connaître le seuil de bruit et la nature du bruit présent. Pour
cela, nous allons introduire un outil adapté au dimensionnement en puissance du canal : le bilan de
liaison.

1. Définition
Le bilan de liaison (ou link budget en anglais) est un outil fondamental pour dimensionner les
puissances à mettre en jeu dans un canal de transmission. Le bilan de liaison fait la somme de la
puissance émise et de tous les gains et les pertes rencontrés jusqu'au récepteur, ainsi que les marges
ajoutées par le concepteur, fournissant la puissance reçue par le récepteur. Celle-ci doit être supérieure
au seuil de réception, lié au niveau de bruit du récepteur et du rapport signal à bruit minimal pour
assurer une détection du signal et une qualité de service suffisante (donnée par exemple sous la forme
d’une contrainte en terme de BER).
La figure ci-dessous présente un schéma général d’un canal de transmission. Une puissance
électrique Pe est mise en entrée de l’émetteur, qui va se charger de mettre en forme le signal et de
l’adapter au medium de propagation. Les différents éléments constituant l’émetteur vont soit amplifier
le signal avec un gain Ge au signal (apporté par exemple par des amplificateurs ou par les dispositifs
de conversion du signal électrique comme les antennes, qui peuvent focaliser l’onde
électromagnétique produite dans une direction privilégiée), soit apporter une perte notée Le (L pour
Loss) (par exemple, les pertes liées aux câbles). La puissance en sortie de l’émetteur tient donc compte
du gain Ge et des pertes Le. Cette puissance traverse le medium de propagation (câbles, fibre optique,
espace libre pour une communication hertzienne) qui va introduire une perte de propagation Lp. Celle-
ci dépend des caractéristiques du milieu et dans la distance séparant l’émetteur du récepteur. La
puissance du signal en entrée du récepteur sera donc égale à la puissance en sortie de l’émetteur moins
la perte de propagation liée au medium de propagation. Enfin, les différents éléments constituant le
récepteur introduisent soit un gain Gr soit une perte Lr. La puissance en sortie du récepteur est donc
égale à la puissance reçue amplifiée par le gain Gr et diminuée par la perte Lr. La probabilité
d’apparition d’erreur dépendra donc du rapport entre la puissance Pr et le bruit superposé au signal
reçu.

A. Boyer 34
Canaux de transmissions bruités Septembre 2011

Bruit

Puissance en Puissance en
Medium de Erreur
entrée de Emetteur
propagation
Récepteur sortie du ≤ binaire ?
l’émetteur Pe récepteur Pr
Gain Ge Perte de Gain Gr
propagation Lp
Perte Le Perte Lr

Fig. 32 – Schéma général d’un canal de transmission et bilan de puissance


En exprimant les différentes puissances, gains et pertes en dB, il est possible de déterminer la
puissance reçue à l’aide de l’équation suivante et donc d’établir un bilan de liaison.
Pr = Pe − Le + G e − L p + G r − Lr (Équation 37)

Le bilan de liaison se présente généralement sous la forme d’un tableau où on va calculer


introduit la puissance mise en entrée du canal par l’émetteur (à partir de la puissance d’entrée, des
gains et des pertes de l’émetteur), le seuil de réception du récepteur (à partir du seuil de bruit, du bruit
ajouté par le récepteur, des gains et des pertes du récepteur), et déterminer la perte de propagation
maximale. De cette perte et à partir d’un modèle de propagation, il est possible d’estimer la séparation
maximale entre l’émetteur et le récepteur. Le bilan va aussi permettre aussi d’ajuster certains éléments
du canal de transmission, telle que la puissance d’émission, les gains à ajouter, les pertes maximales
autorisées sur l’émetteur ou le récepteur … Cet outil simple va aider le concepteur à dimensionner les
différents éléments du canal.

2. Sensibilité d’un récepteur


Une des principales contraintes d’un récepteur concerne sa sensibilité ou seuil de réception,
c'est-à-dire le niveau de puissance minimal du signal d’entrée pour que celui-ci soit détecté. La
sensibilité d’un récepteur dépend non seulement du niveau de bruit en entrée du signal, mais aussi du
rapport signal à bruit minimal à respecter pour une application donnée et des marges que le concepteur
juge nécessaire pour compenser un certain nombre de pertes additionnelles probables et d’incertitudes.
La sensibilité d’un récepteur peut se calculer à l’aide de la formule suivante :
sensibilité (dBW ) = seuil de bruit + SNRmin + pertes + m arg es (Équation 38)

Niveau de
puissance
Seuil de
sensibilité
Marges
supplémentaires
signal

SNRmin
Seuil de bruit

Fig. 33 - Seuil de sensibilité d’un signal

Dans le cas d’une transmission numérique, le rapport signal à bruit est exprimé en terme de
rapport signal à bruit par bit, qui est directement relié au taux d’erreur binaire. Dans le cas d’un bruit
thermique et d’un signal binaire, la sensibilité d’un récepteur peut s’écrire :
sensibilité (dBW ) = 10 log(kT ) + Eb / N o + 10 log(Fb ) + pertes (Équation 39)

k : constante de Boltzmann (1.38e-23 J.K-1)


T : température (K)
Eb/No : rapport signal à bruit par bit (dB)

A. Boyer 35
Canaux de transmissions bruités Septembre 2011

Fb : débit binaire (Bits/s)

Question : La norme de télécommunication mobile 2G appelée DCS 1800 impose les caractéristiques
suivantes au récepteur :

 un taux d’erreur binaire < 2 %, ce qui impose un Eb/No > 4.9 dB

 la bande allouée à un canal est de 200 KHz

 le débit binaire est de 270.83 Kbits/s

 le bruit ajouté par le récepteur sur le signal reçu doit être inférieur à 9 dB

 l’atténuation du récepteur sur le signal doit être inférieure à 3 dB

En se plaçant à température ambiante (27°c) et en considérant un signal binaire, calculer la


sensibilité en dBm d’un téléphoné mobile DCS 1800.

Réponse :

3. Exemple de bilan de liaison


Appliquons un bilan de liaison à une application de téléphonie mobile, sur la liaison
descendante entre une station mobile et GSM et un téléphone portable. On donne les contraintes
suivantes :
 La station de base est composée par des antennes directives de gain = 14 dB. La puissance
maximale de l’émetteur est d’abord fixée à 42 dBm. Les coupleurs et les câbles induisent
des pertes respectives de 3 et 3.5 dB.
 On suppose qu’on transmet un signal binaire, dont le débit binaire est égal à 270 Kbits/s.
Une bande passante de 200 KHz est utilisée.
 La station mobile est composée d’une seule antenne omnidirectionnelle (gain 0 dB). Les
pertes sont principalement dues à la proximité d’un corps humain et sont évaluées à 3 dB.
 On suppose que le bruit est uniquement d’origine thermique (T°c = 25°c). Le récepteur
présente un noise figure de 5 dB.
 Le cahier des charges indiquent que des marges de bruit et d’environnement respectivement
de 3 et 8 dB doivent être ajoutées.
 On souhaite déterminer la perte de propagation maximale autorisée pour garantir un taux
d’erreur binaire inférieur à 1 %. Pour cela, le rapport Eb/No minimal est égal à 5 dB.

A. Boyer 36
Canaux de transmissions bruités Septembre 2011

Lp
GBTS
PeBTS Lc L f BTS
Tx Coupleur Alimentation GMS

L f MS
Rx Pr
MS

Station de base Station mobile

La puissance reçue par la station mobile peut se calculer à partir de la puissance de l’émetteur
en cumulant les gains et les pertes présents dans le canal :
PrMS = PeBTS − Lc − L f BTS + G BTS − L p + GMS − L f MS (Équation 40)

Le tableau ci-dessous présente le bilan de liaison de ce lien radio.


Bilan de la liaison descendante
Puissance entrée de PE BTS 42 dBm
l’émetteur
Emetteur (station Pertes coupleur Lc 3 dB
de base) Pertes câbles Lf BTS 3.5 dB
Gain antenne GBTS 14 dB
Puissance émise PE = PE BTS- Lc - Lf BTS +GBTS 49.5 dBm
Eb/No Eb/No 5 dB
Débit binaire Fb 270 Kbits/s
Bande passante B 200 KHz
Rapport signal à bruit
SNR = Eb/No + 10log(Fb)- 6.3 dB
10log(B)
Récepteur (station Densité de bruit No = 10log(kT) -174 dBm/Hz
mobile) Noise figure NF 5 dB
Seuil de bruit N = No + 10log(B)+NF -116 dBm
Gain antenne GMS 0 dB
Pertes Lf MS 3 dB
Puissance minimum reçue PR = N+SNR+Lf MS-GMS -106.7 dBm
en entrée du récepteur
Marge de bruit Mb 3 dB
Marges
Marge d’environnement Me 8 dB
Pertes de propagation maximale LP max = PE - PR – Mb - Me 145.2 dB

La perte de propagation hertzienne maximale est de 145.2 dB. Connaissant le modèle de


propagation adapté à l’environnement, il est possible de déterminer la distance de séparation maximale
entre la station de base et la station mobile (en d’autres termes, la portée de la cellule). Par exemple, en
supposant une propagation en espace libre, la séparation maximale est de 478 km ! Cependant, ce
modèle est irréaliste dans le cas d’une propagation typique dans un réseau cellulaire, où de nombreux
obstacles induisent de fortes atténuations. Dans un milieu urbain, la séparation maximale serait
environ égale à 4 km.
Supposons qu’on cherche à accroître la couverture de cette cellule en conservant une qualité
de service constante (Eb/No constant) et une puissance d’émission constante. Il est nécessaire
d’augmenter la perte de propagation maximale. D’après le bilan de liaison, on peut identifier les
paramètres qui permettraient d’accroître la perte de propagation maximale. Par exemple, en
augmentant l’ensemble des gains ou réduisant les différentes pertes.

A. Boyer 37
Canaux de transmissions bruités Septembre 2011

VIII.Ce qu’il faut retenir

⇒ Le bruit est un signal aléatoire souvent d’origine thermique, qui fixe le seuil minimum
de réception des systèmes électroniques. Le bruit couplé à un signal dépend de la
bande passante du signal.
⇒ Tout système électronique présente des défauts qui dégradent le signal en lui ajoutant
du bruit et en le distordant par des effets non linéaires.
⇒ On caractérise l’ajout de bruit par un système électronique par le facteur de bruit ou
noise figure.
⇒ Le rapport signal à bruit définit le rapport minimum à respecter entre la puissance du
signal sur la puissance du bruit afin de garantir une réception de qualité du signal.
⇒ Le signal est aussi affecté par les défauts du support de transmission et les
interférences provenant des autres canaux de transmission.
⇒ Les perturbations affectant le canal conduisent à affaiblir le signal et à le distordre.
⇒ Les signaux numériques sont plus robustes au bruit que les signaux analogiques, on
préfère employer le rapport signal à bruit par bit noté Eb/No.
⇒ On mesure la qualité d’un signal analogique par le rapport signal sur bruit, celle d’un
signal numérique par le taux d’erreur binaire (Bit Error Rate BER).
⇒ Dans le cas d’un système de réception d’un signal numérique, le taux d’erreur binaire
est lié au rapport signal à bruit par bit.
⇒ Un bilan de liaison est un bilan de puissance dans un canal de transmission, faisant
apparaître les puissances mises en jeu, les contraintes en terme de seuil de réception,
les gains et les pertes sur l’ensemble du canal. C’est un outil indispensable pour
dimensionner un canal de transmission.

A. Boyer 38
Canaux de transmissions bruités Septembre 2011

C. Effet du canal sur le débit d’une


transmission numérique

Dans le chapitre précédent, nous nous sommes concentrés sur la dégradation du rapport signal
de l’amplitude du signal transmis, lié à l’atténuation et au bruit apportée par le canal. Cependant, nous
avons ignoré les caractéristiques temporelles du canal. Celles-ci sont liées à un grand nombre d’effets
et leur modélisation reste complexe. Le canal de transmission va modifier la forme temporelle du
signal, qui va s’étaler dans le temps. Dans le cas d’un signal numérique, les symboles transmis sont
émis périodiquement. Si cette période est du même ordre que la constante de temps de la réponse du
canal, des symboles adjacents risquent de se superposer et d’induire des erreurs d’interprétation des
symboles. Cet effet est appelé interférence intersymboles. Les caractéristiques temporelles du canal
vont donc limiter le débit de transmission.
Le but de chapitre est de présenter le phénomène d’interférence intersymboles et de déterminer
la limite de débit de transmission de symboles électriques sur un canal. Les conditions permettant
d’annuler théoriquement le risque d’interférences intersymboles seront aussi présentées. Enfin, la
notion de capacité d’un canal de transmission sera introduite, qui fixera une limite théorique du débit
binaire.

I. Caractéristiques temporelles d’un canal de


transmission
1. Retard de transmission
Le temps mis par une information pour parvenir de la source au destinataire peut être un
élément d’appréciation de la qualité de transmission. Il est dû essentiellement au temps de propagation
des ondes électromagnétiques sur un fil ou dans l’espace libre, mais dans certains cas de transmission
de données, il peut aussi être dû à des retards de commutation (commutation par blocs). L’équation 41
donne l’expression de la vitesse de propagation d’une onde électromagnétique dans un milieu
homogène et sans pertes, l’équation 42 permet de calculer le retard dans une ligne.
c0
v= (Équation 41)
ε r × µr
co = vitesse de la lumière dans le vide = 3e8 m/s
εr = constante diélectrique relative (par exemple 1 dans l’air, 11.6 dans le silicium)
µr = perméabilité magnétique relative (= 1 dans les matériaux non magnétiques)
v = vitesse de propagation du signal
L
Td = (Équation 42)
v
Td = retard
L = longueur de la ligne

Le retard n’est pas critique dans une communication unilatérale (ex : télévision, fax, …), mais
le devient dès qu’une réponse est attendue dans l’autre sens (ex : conversation téléphonique). Pour des
raisons physiologiques, le retard dans une conversation téléphonique devient sensible dès qu’il atteint
150ms et très pénible dès qu’il dépasse 400ms.

A. Boyer 39
Canaux de transmissions bruités Septembre 2011

Question : Quel est le retard introduit par une ligne téléphonique entre 2 personnes situées à 1000
km ? Celui dans le cas d’une liaison par satellite géostationnaire ?

Réponse :

2. Transmission conforme – Distorsions linéaires


Même si la transmission conforme ne concerne que les transmissions analogiques, nous allons
quand même aborder ce point. Dans le cas d’une transmission analogique, l’information est contenue
dans la forme du signal qui doit être sauvegardée à tout prix. Pour une transmission conforme, le
signal reçu ne doit différer du signal émis que :
 Par un facteur d’affaiblissement constant
 Par un retard constant

Il en résulte que l’affaiblissement de la transmission est une constante indépendante de la


fréquence et que le déphasage doit être une fonction linéaire de la fréquence. Si les 2 conditions
précédentes ne peuvent pas être satisfaites, des distorsions linéaires pourront apparaître. On parle en
particulier de :
 Distorsion d’affaiblissement si l’affaiblissement varie avec la fréquence
 Distorsion de phase si le déphasage ne varie pas linéairement avec la fréquence, c'est-à-dire
si le temps de propagation n’est pas constant.
Ainsi, l’effet de distorsions linéaires sur un signal sinusoïdal émis n’a pas de conséquence
puisqu’en réception on récupère un signal sinusoïdal. Cependant tout autre signal voit sa forme et son
spectre modifiés. Toutefois, aucune nouvelle composante fréquentielle n’apparaît, contrairement aux
cas de distorsions non linéaires.

Remarque : distorsion de phase


Soit un signal dont le spectre est composé de 2 harmoniques de fréquences F1 et F2.
Supposons que ce signal passe à travers un filtre qui ajoute un déphasage à chacune des harmoniques
et par conséquent un retard ou temps de propagation au signal. Pour ne pas déformer le signal, il faut
que le retard des 2 harmoniques soit identique. Pour un signal de période T et de fréquence f,
déphasage Ф et temps de propagation τ sont liés par la relation suivante :
Φ Φ Φ
τ= ×T = = (Équation 43)
2π 2π f ω
Si on veut que le retard soit indépendant de la fréquence, il faut que le déphasage soit une
fonction linéaire de la fréquence, autrement dit un déphasage linéaire.
k× f k
si Φ = k × f , τ = = = cons tan te
2π f 2π

A. Boyer 40
Canaux de transmissions bruités Septembre 2011

Cependant, pour une transmission numérique, la conformité n’est pas nécessaire ! En effet, le
signal reçu étant échantillonné et régénéré avant que l’information numérique en soit extraite, la seule
condition est que l’interférence entre symboles ou moments soit nulle.

3. Propagation multi-trajet dans un canal hertzien


Un canal hertzien est le médium le plus soumis aux perturbations. En pratique, un espace libre
dégagé de tout obstacle et aux propriétés uniformes est un cas purement idéal. Dans un canal hertzien
réel, l’onde incidente peut subir les effets suivants :
 Des réflexions multiples qui deviennent complexes aux fréquences radio UHF car les
irrégularités des obstacles sont à l’origine de différences de phase entre les différents rayons
réfléchies. Ces réflexions multiples créent différents trajets, de longueurs variées, entre
l’émetteur et le récepteur entraînant un étalement temporel. On parle de propagation multi
trajet.
 Des diffusions, c'est-à-dire des réflexions pour lesquelles il n’existe aucune direction
privilégiée. Elles sont provoquées par exemple par des gouttelettes d’eau en suspension
 Des diffractions qui interviennent dès que les dimensions des obstacles deviennent
comparables à la longueur d’onde. Ce problème est majeur pour les ondes UHF.
 Des absorptions par l’eau et les gaz de l’atmosphère, l’atténuation variant avec la fréquence

En raison des réflexions, réfractions et diffusions des ondes électromagnétiques dans des
environnements contenant de nombreux obstacles (milieu indoor par exemple), le signal transmis
atteint souvent le récepteur par plusieurs chemins, créant le phénomène d’atténuation multitrajet (ou
multipath fading). Les différentes composantes du signal provenant des chemins directs et indirects se
recombinent avec des amplitudes, des phases et des instants d’arrivée différents, et produisent une
version distordue du signal original. Lorsque la transmission se fait sur un canal à bande étroite,
l’enveloppe du signal reçu subit de fortes fluctuations d’amplitude. On parle d’évanouissement
rapide ou sélectif, décrit par la figure 34. Dans le cas d’un canal à bande large, une série d’impulsions
atténuées et retardées apparaissent pour chaque impulsion transmise, à la manière d’un écho.
Signal reçu

Impulsion transmission Diffusion /


diffraction
seuil
Trajets multiples fade
temps
Fonction de
transfert
réflexion seuil

fade
fréquence
Fig. 34 - Phénomène de trajets multiples et évanouissement rapide d’un signal radio

Leurs causes sont multiples, elles sont liées aux trajets multiples empruntés par les ondes, mais
aussi à l’effet Doppler résultant du déplacement du mobile par rapport à l’émetteur. Ces 2 phénomènes
créent des interférences entre les signaux incidents qui peuvent devenir constructives ou destructives.
Dans ce cas, une perte très importante voire totale du signal est à craindre pendant des durées qui vont
de quelques µs à quelques secondes. Parallèlement, cela se traduit par un évanouissement affectant
quelques bandes de fréquence étroites. De plus, contrairement aux liaisons filaires et par fibre optique,
une liaison radio est un canal dont les caractéristiques ne sont pas stationnaires dans le temps. Par

A. Boyer 41
Canaux de transmissions bruités Septembre 2011

conséquent, ce phénomène est un des problèmes les plus sérieux en télécommunications car les
atténuations sont importantes, difficile à modéliser et à combattre efficacement.
Les figures ci-dessous présentent plusieurs exemples de réponses impulsionnelles mesurées en
milieu indoor ou en environnement urbain. On voit clairement l’étalement temporel de la réponse, qui
peut atteindre plusieurs centaines de ns en milieu indoor, plus dizaines de µs en milieu urbain, et
l’apparition de nombreux échos de l’impulsion initial.

Fig. 35 – Exemples de réponses impulsionnelles mesurées en milieu indoor (H. Hashemi, « The Indoor
Radio Propagation channel », Proceedings IEEE, vol. 81, no 3, July 1993)

Fig. 36 – Exemple de réponses impulsionnelles mesurées en milieu urbain (J. B. Andersen, T. S.


Rappaport, S. Yoshida, « Propagation Measurements and Models for Wireless Communications
Channels», IEEE Communications Magazine, January 1995)

4. Modélisation de la réponse temporel d’un canal de transmission


La réponse temporelle d’un canal réelle reste complexe, souvent aléatoire et non stationnaire.
Il est possible de les modéliser en un point donné de l’espace par un filtre linéaire variable dans le
temps, caractérisé par une réponse impulsionnelle h(t) dont les coefficients varient dans le temps (Fig.
37). Le canal peut aussi être modélisé par sa fonction de transfert H(f).

y (t ) = h(t ) ∗ x(t )
N −1
h(t ) = ∑ ak (t )δ (t − tk ) exp( jθ k (t ))
Bruit et
1001 perturbations n(t) k =0

+
+
Signal numérique
Signal numérique
émis x(t) Réponse reçu y(t)
impulsionnelle h(t)
Canal de transmission

Fig. 37 – Modèle mathématique d’un canal de transmission

A. Boyer 42
Canaux de transmissions bruités Septembre 2011

II. Interférences inter symbole – diagramme de l’oeil


1. Définition
Le phénomène d’interférence intersymbole (ISI ou IES) consiste en un chevauchement
partiel entre les symboles adjacents, comme le montre la figure 38. La valeur du symbole reçu à
l’instant T est perturbée par les symboles reçus précédemment. Le symbole reçu peut alors être
confondu avec un autre et introduire des erreurs d’interprétation par le récepteur. L’interférence inter
symbole est la principale source d’erreur binaire dans les communications numériques.
Signal à émettre transmission

Signal reçu
temps temps

Fig. 38 - Etalement d’un signal numérique après transmission

Pour améliorer la fiabilité d’une communication numérique, il convient de minimiser le risque


d’apparition d’IES. Comme nous le verrons dans les chapitre C et F, la théorie de l’information prévoit
que ces interférences apparaissent si les conditions de Nyquist ne sont pas respectées. Si ces
conditions sont respectées, la probabilité qu’il existe de l’interférence inter-symbole tend vers 0.

2. Condition d’apparition d’interférences intersymboles

Il est possible de savoir si un canal pourra présenter un risque important d’apparition


d’interférence inter symbole en étudiant sa réponse impulsionnelle discrète. Soit le canal de
transmission décrit à la figure 39, présentant un filtre émetteur, un support de transmission puis un
filtre récepteur.
n(t)
Support de
transmission
Filtre x(t) z(t) Filtre y(t)
émetteur
+ récepteur

Fig. 39 – Modèle de canal de transmission

Supposons qu’un émetteur transmette une séquence binaire ai sous la forme d’un signal x(t),
où s(t) représente la réponse impulsionnelle du filtre émetteur et Ts la période des symboles binaires :
x(t ) = ∑ ai s (t − iTS ) (Équation 44)
i

Le signal est ensuite transmis à travers le canal de transmission, caractérisé par une réponse
impulsionnelle c(t) et qui ajoute un bruit n(t). Le signal en entrée du récepteur z(t) peut s’écrire sous la
forme :
z (t ) = x(t ) * c(t ) + n(t ) (Équation 45)
Ce signal passe ensuite à travers un filtre de réception, dont la réponse impulsionnelle est
notée r(t). Le signal en sortie du filtre de réception peut s’écrire :
y (t ) = r (t ) * z (t ) (Équation 46)
y (t ) = ∑ a i p (t − iTS ) + w(t ) (Équation 47)
i

A. Boyer 43
Canaux de transmissions bruités Septembre 2011

où w(t) représente le bruit en sortie du filtre et p(t) la réponse impulsionnelle du système


composé du canal et des filtres d’émission et de réception. Finalement, le signal de sortie est
échantillonné de manière synchrone avec l’émetteur tous les ti = i.Ts et peut s’écrire :

y (ti ) = ai p (0 ) + ∑ a k p ((i − k )TS ) + w(ti ) (Équation 48)
k ≠i

Le premier terme représente la contribution du ieme symbole transmis, c'est-à-dire celui qu’on
cherche à recevoir sans erreurs. Le second terme représente l’effet résiduel des symboles
précédemment transmis sur le décodage du ieme symbole. Cet effet est appelé interférence inter
symboles. En l’absence de bruit et d’IES, on ne récupèrerait que le premier terme et aucune erreur
d’interprétation ne serait possible.
Plaçons nous dans le cas où le rapport signal à bruit est important, le terme w(ti) peut être
négligé. Intéressons nous aux conditions sur la réponse impulsionnelle p(t) qui permettent d’annuler
l’IES.

Remarque :
Pour qu’il n’y ait pas d’IES, il faut que les symboles ne chevauchent pas. Une première
condition simple pour annuler l’IES est d’avoir un support de transmission dont la durée de
transmission (c’est à dire la durée de la réponse impulsionnelle) est inférieure à la période binaire.
Cependant, cette condition est rarement rencontrée dans les systèmes de transmission. Ainsi, en raison
des longueurs des câbles téléphoniques et des désadaptations, l’IES s’étale sur plusieurs millisecondes.
Dans le cas d’un débit de symboles de 2400 Bauds, l’IES s’étale sur plusieurs dizaines de symboles.

A partir de l’équation 48, il est possible d’énoncer la condition sur p(t) pour laquelle l’IES
s’annule. Cette condition est appelée critère de Nyquist en temps :

 p (0 ) pour i = k
p ((i − k )TS ) =  ⇔ p (t ) = 0 pour t = TS , 2TS , 3TS ... (Équation 49)
 0 pour i ≠ k
Si cette condition est vérifiée, le signal en sortie du filtre de réception
( ) ()
s’écrit : y t i = ai p 0 . Cette condition indique que tous les symboles doivent s’annuler aux instants
d’échantillonnage des autres symboles. Le filtre p(t), qui représente le canal en entier (filtre
d’émission, support de transmission, filtre de réception) est dit canal de Nyquist s’il vérifie cette
condition.
La figure 40 illustre la condition de Nyquist d’apparition d’interférences intersymbole. A
l’instant d’échantillonnage suivant le retour à ‘0’ de l’impulsion, le signal reçu qui a traversé le canal 2
est bien revenu à l’état 0, le risque de confondre ce symbole avec un autre est quasi nul. Cependant,
dans le cas du canal 1, le signal n’est pas encore revenu à 0 et son état se situe sur une zone
indéterminée. En présence de bruit supplémentaire, cet état pourra être interprété par la récepteur
comme un ‘1’ logique, provoquant une erreur binaire.

A. Boyer 44
Canaux de transmissions bruités Septembre 2011

‘1’
Transmission à ≠0 Indéterminé
travers canal 1 ‘0’
Impulsion
élémentaire Tm Tm
Risque d’ISE

temps
Tm ‘1’
Transmission à Indéterminé
travers canal 2 =0
‘0’
Tm Tm
Pas d’ISE

Fig. 40 - Condition d’apparition d’IES – Annulation du signal reçu aux instants d’échantillonnage

3. Diagramme de l’oeil
Cette condition d’annulation de l’IES est facilement vérifiable à l’aide d’un diagramme de
l’œil. Le diagramme de l’œil est un outil graphique permettant de visualiser la présence d’IES
affectant une communication et de qualifier la qualité du signal numérique reçu. Le principe consiste à
envoyer à travers un canal de transmission une série de symbole (binaire) connu, de mesurer la
réponse à la sortie de canal et de superposer les tracés du signal reçu sur un multiple de la durée du
symbole. On réalise donc la superposition des intervalles [i×Ts; (i+1)×Ts]. Ce type de diagramme peut
être généré à l’aide d’un oscilloscope synchronisé sur le débit du signal. La ressemblance du résultat
graphique avec un œil a donné le nom à ce diagramme. La figure 41 donne un exemple de signal
binaire et le diagramme de l’œil en résultant.

Fig. 41 - Tracé d’un diagramme de l’œil

Le diagramme est un outil graphique très intéressant car sa lecture fournit des informations sur
les performances du canal de transmission :
 L’ouverture verticale ou la hauteur de l’œil donne la marge en terme de bruit sur les
niveaux. Plus l’ouverture est faible, plus la présence de bruit pourra causer une erreur de
décision sur le niveau.
 L’ouverture horizontale ou la largeur de l’œil donne la marge en terme d’écart temporel
entre l’instant d’échantillonnage idéal et tout autre temps d’échantillonnage. L’instant
d’échantillonnage idéal, c'est-à-dire le moment où la probabilité d’erreur est minimisée, se
situe à l’instant où l’œil présente sa plus grande ouverture.

A. Boyer 45
Canaux de transmissions bruités Septembre 2011

 La pente de fermeture ou d’ouverture donne la sensibilité aux erreurs temporelles.

De manière générale, plus l’œil est fermé, plus l’effet de l’IES est grave. En pratique, le
diagramme de l’œil permet :
 D’ajuster un égaliseur afin d’annuler l’IES
 D’ajuster l’horloge locale du régénérateur afin d’échantillonner le signal reçu au moment où
l’IES s’annule
 De contrôler la qualité du signal reçu durant la réception

La figure 42 présente un exemple de diagramme de l’œil pour un signal binaire faiblement


bruité. La figure 43 présente le digramme de l’œil obtenu pour un signal bruité et trop rapide par
rapport à la bande passante du canal.

Fig. 42 - Diagramme de l’œil d’un signal peu bruité

Fig. 43 - Diagramme de l’œil d’un signal bruité et rapide

Question : À partir des figures 42 et 43, dire dans quel cas on a un fort risque d’IES et indiquer quel
est l’instant idéal pour échantillonner le signal.

Réponse :

A. Boyer 46
Canaux de transmissions bruités Septembre 2011

III. Limite théorique du débit de transmission de symboles


électriques
Si il est en principe possible de transmettre n’importe quel type et n’importe quelle quantité
d’information à travers un canal quelconque, à condition d’y mettre le temps, et de mettre en œuvre
des méthodes de traitement de signal (modulation, codage), le débit d’information transmissible en
« temps réel » à travers un canal donné est strictement limité par ses caractéristiques propres. Dans le
cas d’une transmission numérique, le récepteur doit pouvoir distinguer deux symboles électriques
successifs pour interpréter correctement le contenu du signal. Le canal doit donc disposer d’une
certaine résolution en amplitude afin de distinguer deux états adjacents. Le bruit de fond va fixer la
limite à la résolution en amplitude. Le récepteur dispose aussi d’une certaine résolution temporelle.
Celles-ci sont prévues dans le cadre de la théorie de l’information définie par Shannon.
Avant d’établir la limite théorique de débit de transmission de symboles électriques, il est
nécessaire de présenter quelques éléments de théorie de l’information.

1. Quelques éléments de la théorie de l’information


Le but de ce cours n’est pas de présenter de manière exhaustive la théorie de l’information,
mais de comprendre ce qu’elle apporte comme contraintes pour celui qui cherche à dimensionner un
canal. La théorie de l’information a été proposée par Claude Shannon en 1948, qui cherchait à évaluer
les performances optimales des systèmes de télécommunications en présence de perturbations de
nature aléatoire. Ses travaux ont mis en évidence plusieurs résultats fondamentaux que nous pouvons
résumer ainsi :
 Shannon montre qu’il est possible de transmettre une information sans erreur quel que soit
les perturbations ou le bruit de fond existants, à condition d’employer une représentation
appropriée de l’information, c'est-à-dire en utilisant un codage approprié. Même si Shannon
ne propose pas de codage permettant d’atteindre cette condition, il démontre que de tels
codes existent et permettent de se rapprocher des conditions de transmission sans erreur.
 Shannon fournit ensuite un ensemble de grandeurs permettant de quantifier l’information
contenue dans un message.
 Shannon donne une contrainte sur le débit d’informations transmises en fonction des
caractéristiques du canal, et donne ainsi des limitations sur la bande passante du canal
 Enfin, il donne une contrainte sur le nombre de valeurs différentes prise par un signal en
fonction du rapport signal sur bruit.

2. Calcul de la quantité d’information d’un message binaire


Quantifier l’information contenue dans un message n’est pas trivial car l’information est une
notion abstraite. L’information peut se définir ainsi : elle représente « l’effet de surprise » que possède
un message. Il convient maintenant de mettre en équations cette définition.
Nous nous intéressons ici à l’information véhiculée par une source discrète ou numérique. Soit
un message de k caractères appartenant à un alphabet composé de n caractères. L’information que
contient un caractère dépend de sa probabilité d’apparition P. On peut calculer la quantité
d’information I (exprimée en Shannon) contenu dans un caractère par la formule suivante :

A. Boyer 47
Canaux de transmissions bruités Septembre 2011

ln ( P )
I ( sh ) = − log n ( P ) = − (Équation 50)
ln ( n )
Nous allons nous placer dans le cas particulier de messages binaires. La quantité précédente
devient :
ln ( P )
I ( sh ) = − log 2 ( P ) = − (Équation 51)
ln 2
Ainsi, si P=1, la quantité d’information est nulle puisqu’on annule l’effet de surprise de
l’apparition de ce caractère. Plus la probabilité d’apparition d’un caractère est faible, plus la quantité
d’information est grande. Pour calculer la quantité d’information totale d’un message binaire, on
utilise la notion de quantité d’information moyenne d’une source Itot :
n
I tot = ∑ − kPi log 2 ( Pi ) (Équation 52)
i =1

La quantité d’information moyenne par caractère émis par la source est définie par l’entropie
de la source notée H :
n
H ( sh / caractère) = −∑ Pi log 2 ( Pi ) (Équation 53)
i =1

L’entropie sera maximum si le message est purement aléatoire, c'est-à-dire quand l’effet de
surprise sera maximal. Pour traduire l’écart entre l’entropie d’une source et l’entropie maximale
possible, on définit la redondance d’une source à l’aide de l’équation 54. Il s’agit d’une notion
fondamentale pour le codage de source, nous y reviendrons.
H
R (%) = 1 − (Équation 54)
H max

3. Cadence de transmission de l’information dans un canal


Rappel : notion de symbole ou de moment
On appelle moment l’intervalle de temps pendant lequel le symbole électrique codant
l’information est physiquement transmis sur le canal. Le symbole peut être un potentiel électrique (par
exemple les niveaux électriques haut ou bas représentant 2 états binaires), un état de phase ou de
fréquence pour un signal modulé … Lorsqu’un signal binaire est transmis, le symbole transmis est un
bit et le moment correspond à la période binaire. Un symbole peut aussi être codé par plusieurs bits.
Par exemple, supposons que l’information transmise soit représentée par 4 niveaux de tension
possibles. Dans ce cas, ces 4 niveaux peuvent être codés par 2 bits. Le moment est donc égal à la durée
de 2 bits. Cette technique permet de transmettre plusieurs bits à l’aide d’un seul symbole.

La cadence de transmission de l’information dépend du nombre de symboles émis par unité de



temps. On définit le débit de moments M comme le nombre de symboles par unité de temps et il
s’exprime en bauds. Dans une transmission numérique, chaque symbole reste constant durant une
durée constante TM appelée la durée des moments. On calcule le débit de moments à l’aide de
l’équation 55, qui est relié à la vitesse de variation des signaux sur un canal.

M (Bd ) =
1
(Équation 55)
TM
Dans le cas d’une information numérique, un symbole est codé à l’aide d’un certain nombre de
bits. Le choix de ce nombre peut se calculer à l’aide de la quantité de décision D, qui dépend de la
taille n de l’alphabet employé. Il faut par exemple 8 bits pour définir 256 niveaux de gris sur une
image noir et blanc.

A. Boyer 48
Canaux de transmissions bruités Septembre 2011

D (bits ) = log 2 ( n ) (Équation 56)


Le débit binaire de la source ou débit de la source est donc le produit du débit de moments
(le nombre de symbole par unité de temps) par la quantité de décision (le nombre de bits pour coder un
symbole).
• • log 2 (n )
D (bits / s ) = M × D = (Équation 57)
TM

Plus le débit binaire sera important et plus la quantité d’information transmise sera importante.
Néanmoins, tout canal réel est limité à une valeur maximale de débit, appelée capacité du canal. La
connaissance de cette capacité est fondamentale car elle va fixer des contraintes sur la bande passante
du canal de transmission et sur le rapport signal à bruit minimal à respecter.

4. Premier critère de Nyquist - Résolution dans le temps

Nous allons considérer un canal de transmission sans bruit, nous ne nous intéressons qu’à son
effet temporel et sa limite à transmettre rapidement un signal. Tout canal de transmission possède une
certaine inertie et il n’est pas possible de faire varier les paramètres d’un signal (électrique, lumineux)
à une vitesse infinie. On peut assimiler un canal à un filtre passe-bas. De manière empirique, elle est
limitée au moins par le temps de montée du signal Tr, ce qui va imposer une limite inférieure à la
durée des moments TM, comme le montre la figure 44.
• 1
Tm min = Tr ⇔ M max = (Équation 58)
Tr

Signal reçu

Tr = temps de montée

Signal émis TM = durée d’un moment


Tr=TM

temps
Fig. 44 - Limitation temporelle de l’établissement d’un signal sur un canal
Si on ne respecte pas la condition précédente, il est possible que deux symboles consécutifs
soient confondus, créant alors une interférence intersymbole. Le temps de montée d’un signal transmis
dans un canal est lié à la bande passante de ce canal. Le canal de transmission doit donc présenter une
bande passante minimale pour faire passer un signal sans risques d’interférences intersymboles.
Reprenons le critère de Nyquist pour déterminer cette condition sur la bande passante du
canal. A partir de l’équation 48, le critère de Nyquist présenté à l’équation 49 peut aussi être énoncé
dans le domaine fréquentiel en appliquant une transformée de Fourier sur la réponse impusionnelle
discrète du canal de transmission. Le signal reçu échantillonné tous les t = Ts peut être vu comme un
peigne de Dirac. La transformée de Fourier de l’égalité de l’équation 48 peut alors s’écrire :
∞ ∞

∑ p((i − k )T ) = p(0) ∑ p(k )δ (t − kT ) = p(0)δ (0)


k = −∞
S
k = −∞
S


 k 
∑ p(k )δ  f − T  = p(0)
1
Transformée de Fourier :
TS k = −∞  S 

A. Boyer 49
Canaux de transmissions bruités Septembre 2011

+∞
 k 
∑ P f − T  = p (0 )TS (Équation 59)
k = −∞  S 

La figure 45 présente une allure du spectre de la réponse impulsionnelle discrète du canal. Le


spectre présente le spectre de la réponse impulsionnelle du canal P(f), répété infiniment tous
1
les FS = , où Fs est la fréquence d’échantillonnage du signal reçu. B représente la bande passante
TS
du canal de transmission.
P(f+2FS) P(f-FS) P(f) P(f-FS) P(f-2FS)

2 1 1 2 fréquence
− − 0
TS TS TS TS
2B
Fig. 45 – Spectre de la réponse impulsionnelle discrète du canal de transmission
L’égalité de l’équation 59 n’est respectée que si le spectre est constant quelque soit la
fréquence. Cette égalité ne peut être respectée que si toutes les répétitions de P(f) se chevauchent les
unes les autres. Il est possible de montrer que cette condition peut être réalisé si :
1
B> ⇔ FS < 2 B (Équation 60)
2TS
Cette condition est similaire à la condition de Nyquist, mais vue dans le domaine fréquentiel.
Cette condition fixe la bande passante minimale que doit présenter un canal de transmission pour faire
passer sans erreurs un message binaire avec un débit de symboles donné, ou inversement, le débit de
symbole maximal pour un canal de bande passante donné.
On peut montrer que pour un canal idéal représenté par un filtre passe bas de largeur de bande
B, le temps de montée et la largeur de bande et le temps de montée sont liés par la relation suivante
(cf. annexe D) :
B × Tr = 0.5 (Équation 61)

Cette condition permet d’énoncer le théorème de Nyquist (1928) :

« Pour un canal passe-bas idéal de largeur de bande B, le passage dans le canal n’amène
aucune interférence entre moments si et seulement si : »
• • 1 1
M ≤ M max = = = 2 × B (Équation 62)
TM min Tr

Ce théorème a surtout un intérêt théorique puisqu’il considère un canal passe-bas idéal, ce qui
est loin d’être représentatif d’un canal réel. Cependant, ce théorème donne une limite absolue à la
rapidité d’une transmission dans un canal réel. Ainsi, en pratique, on prend souvent comme limite
minimale pour la période d’un symbole la relation suivante : TM min = 2 × Tr .
En pratique, on retrouve la relation suivante pour un canal réel :
B × Tr = 0.35 ou 0.4 (Équation 63)
Cette relation permet d’énoncer le critère de Nyquist élargi :
• 1 1
M≤ = = 1.25 × B (Équation 64)
TM min 2 × Tr

A. Boyer 50
Canaux de transmissions bruités Septembre 2011

Cette relation empirique donne une limite en terme de débit dans les canaux de transmission
usuels plus réaliste que celui prévu par le théorème de Nyquist. Elle signifie qu’on peut transmettre
1.25 Bd par Hertz de largeur de bande ou, inversement, qu’il faut consacrer 0.8Hz à chaque symbole
que l’on souhaite transmettre. Le critère de Nyquist et le critère de Nyquist élargi fournissent des
formules simples pour déterminer la bande passante nécessaire à donner à un canal de transmission
pour autoriser un débit binaire donné. Le critère de Nyquist est aussi appelé critère de Nyquist en
fréquence et permet de déterminer si une transmission numérique en bande de base peut se faire sans
IES.

Remarque : canal passe-bande


Nous avons considéré un canal passe-bas, qui représente une transmission dite en bande de
base. Mais que se passe t-il lorsque le signal est modulé et transposé en fréquence (voir chapitre
suivant sur les modulations) ? Le signal est alors transposé autour d’une fréquence porteuse avec deux
bandes latérales identiques « à gauche et à droite » de la fréquence porteuse. La bande passante
occupée est alors égale à 2*B. Comment se fait-il que les bandes passantes des versions bande de base
et modulée du signal soit différente alors que le débit de symboles reste inchangé ? Il ne faut pas
oublier que la bande passante est toujours mesurée sur l’axe positif des fréquences. Si on observe le
spectre du signal en bande de base, celui-ci occupe la bande [-B ; +B]. La largeur de la bande occupée
est donc égale à 2*B ! Si on souhaite conserver les 2 bandes latérales du signal, la bande passante du
canal devra donc être deux fois plus grande que celle du canal d’une transmission en bande de base.
On peut remarquer que certaines modulations permettent de supprimer une des bandes latérales.

Pour résumer, le critère de Nyquist fixe une limite au débit de symboles transmis en fonction
de la bande passante du canal. La bande passante du canal doit donc être choisie pour satisfaire au
critère de Nyquist lorsqu’on cherche à transmettre un débit de symboles donné. Dans le cas où l’on
transmet un signal binaire (un bit est alors un symbole élémentaire), le débit binaire ne pourra jamais
être supérieur à 2 fois la bande passante (ou 1.25 fois la bande passante dans le cadre du critère élargi).
Cela pose un très gros souci à l’ingénieur télécom qui cherche à transmettre le débit le plus
grand possible sur la bande passante la plus étroite possible. La solution est fournie par le codage. Par
exemple, en codant les symboles transmis par plusieurs bits. Si un symbole est codé par N bits, alors le
débit binaire maximale pouvant être transmis dans un canal idéal de bande passante B est égal à
2*N*B. Pour accroître le débit binaire dans le cas d’une transmission à bande passante limitée, il suffit
donc d’accroître le nombre de symboles possibles pour augmenter le nombre de bits représenté par un
symbole.
Ce nombre est bien entendu limité par la quantité de bruit qui se superpose au signal reçu.
Comme nous l’avons vu dans le chapitre précédent, le bruit limite la résolution en amplitude du canal,
c'est-à-dire la capacité de différencier plusieurs symboles. La performance d’un canal en terme de
débit binaire dépend donc de sa bande passante et de sa résolution en amplitude. Cette performance
s’appelle capacité d’un canal.

IV. Capacité d’un canal de transmission


Supposons qu’on dispose du canal de transmission comme celui présenté à la figure 46. Celui-
ci présente une bande passante finie B et est soumis à diverses perturbations, qu’on modélise comme
un bruit blanc gaussien (canal AWGN). Le récepteur au bout du canal impose une contrainte sur le
rapport signal sur bruit.
Bruit additif blanc
et gaussien

Canal de transmission idéal S/N


de largeur de bande B sortie

A. Boyer 51
Canaux de transmissions bruités Septembre 2011

Fig. 46 - Canal de transmission bruité

Comme nous l’avons vu dans les deux paragraphes précédents, il nous faut vérifier les deux
conditions suivantes :
 le débit de moments doit respecter le critère de Nyquist pour annuler l’interférence
intersymbole
 la quantité de décision par moments doit respecter l’inégalité donnée par la résolution en
amplitude du canal, afin de différencier les différentes valeurs prises par un symbole.

A partir de ces deux conditions, il est possible de déduire la capacité C du canal, c’est à dire le
débit binaire maximal que peut transmettre le canal. Celle-ci est donnée par l’équation 65.
• •
 S
C (bits / s ) = D m max = Dm max × M max = B × log 2  1 +  (Équation 65)
 N
Cette capacité définit la limite maximum pour le débit binaire que peut supporter le canal, quel
que soit le codage canal employé. Une transmission binaire peut se faire théoriquement avec une
probabilité d’erreur quasi nulle si le débit binaire respecte la condition suivante :

Dm ≤ C (Équation 66)
Si cette condition n’est pas respectée, un risque d’apparition d’interférences entre symboles est
à craindre. Cependant, en pratique, on constate que la probabilité d’erreur ne peut pas tendre
totalement vers 0 et il n’est pas possible de la réduire autant qu’on le voudrait. Dans le cas d’une
transmission numérique, même en respectant la condition précédente, plus la contrainte en terme de
taux d’erreur binaire est faible, plus il faudra réduire le débit binaire.

Question : Discuter de l’interchangeabilité de la largeur de bande B et du rapport S/N.

Réponse :

V. Ce qu’il faut retenir

⇒ Les caractéristiques du canal conduisent à affecter les caractéristiques temporelles du


signal transmis, en le retardant, en l’étalant dans le temps, voire à faire apparaître de
multiples versions d’un même symbole dans le temps (propagation multitrajets).

A. Boyer 52
Canaux de transmissions bruités Septembre 2011

⇒ Le comportement temporel d’un canal stationnaire peut être modélisé par sa réponse
impulsionnelle, son comportement fréquentiel par sa fonction de transfert.
⇒ Dans le cas d’un signal numérique, ces effets peuvent conduire à des interférences
inter symboles, c'est-à-dire le chevauchement des symboles successifs, et donc à des
erreurs d’interprétation.
⇒ Le diagramme de l’œil est un outil graphique qui permet de mesurer la dégradation en
amplitude et temporelle apportée par le canal.
⇒ Théoriquement, il est possible d’annuler l’interférence intersymbole d’un canal s’il
s’agit d’un canal de Nyquist, c’est àdire que sa réponse impulsionnelle respecte le
critère de Nyquist dans le temps.
⇒ Dans le cadre de la théorie de l’information, le théorème de Nyquist définit le débit de
moments maximal admissible dans un canal idéal.
⇒ Le débit de données transmissibles en temps réel à travers un canal de transmission est
limité par ses caractéristiques propres. Le récepteur doit être en mesure de distinguer
deux symboles successifs. Il doit disposer d’une résolution suffisante en amplitude
(liée au bruit) et en temps (lié à l’inertie du canal).
⇒ La capacité d’un canal définit le débit binaire maximal que peut transmettre un canal
afin de garantir une interférence inter symboles quasi nulle. La capacité dépend de la
bande passante du canal et du rapport signal à bruit.

A. Boyer 53
Canaux de transmissions bruités Septembre 2011

D. Impact du bruit sur un signal modulé

La transmission de l’information sur de longues distances se fait généralement à l’aide de


signaux modulés. La modulation permet d’adapter les caractéristiques du signal au medium de
transmission. Jusque-là, nous avons présenté l’effet du bruit et des caractéristiques du canal sur
l’apparition d’erreur dans le cadre d’un signal binaire émis en bande de base, sans aucune modulation.
Dans ce chapitre, nous allons déterminer quelle est l’influence de la modulation sur la robustesse au
bruit. En outre, comme les bandes de fréquence allouées aux télécommunications sont étroites, il est
important de se poser la question de l’occupation spectrale d’un signal modulé. La bande passante
étant une « ressource rare », celle-ci constituera une limite pour le débit de transmission. Selon la
technique de modulation employée, nous verrons qu’il sera possible d’utiliser cette ressource
fréquentielle efficacement, c'est-à-dire transmettre un débit binaire plus important pour une bande
passante donnée.

I. Modulation et démodulation
1. Définition
La transmission des signaux se fait habituellement dans leurs bandes de fréquences initiales.
On parle de transmission en bande de base. Parfois, la transmission en bande de base n’est pas
optimale voire impossible car le canal présente de mauvaises caractéristiques à ces fréquence (bruit
important, antennes d’émission/réception trop larges …) ou il est impossible de partager le canal entre
plusieurs utilisateurs sans que ceux-ci interfèrent. Dans ce cas, une modulation est nécessaire car elle
permet de transposer le signal initial de la bande de base à une bande de fréquence plus haute, sans
modifier le contenu informatif du message, comme le décrit la figure 47 (dans ce qui suit, seul la partie
positive de l’axe des fréquences est représenté). Le signal informatif est appelé signal modulant, il
modifie en temps réel une ou plusieurs caractéristiques (amplitude, fréquence, phase) d’un autre signal
simple appelé porteuse. La porteuse est en général un signal sinusoïdal. Le signal résultant de la
modulation est appelé signal modulé. L’opération inverse de la modulation est appelée démodulation.
Transposition de fréquence

Modulation

Signal en bande Signal modulé


de base

-Fsignal 0 +Fsignal Fporteuse Fréquence

Fig. 47 - Modulation et transposition de fréquence


De nombreuses techniques de modulation existent, beaucoup ont été mise au point ces
dernières années avec le développement des systèmes de télécommunication mobiles. Plusieurs
critères permettent de sélectionner une technique de modulation. Les modulations se différencient par
leurs occupations spectrales et par la puissance à émettre, ainsi que par leur capacité à minimiser la
probabilité d’erreur. L’objectif de l’ingénieur concevant un système de transmission est de réduire
l’occupation spectrale, la puissance d’émission et la probabilité d’erreur. La modulation choisie doit en
plus être résistante vis-à-vis des défauts du canal de transmission. En outre, le coût du système de

A. Boyer 54
Canaux de transmissions bruités Septembre 2011

modulation/démodulation ne doit pas être négligé. En effet, plus on cherchera à optimiser le contenu
spectral ou la puissance à émettre, plus les systèmes à réaliser seront complexes et par conséquent
coûteux.

2. Opération de transposition de fréquence


La modulation et la démodulation sont basées sur une opération non linéaire, généralement
une multiplication, entre le modulant et la porteuse (Fig. 48 et 49).

Modulation
Multiplieur Signal Bandes latérales
Modulant modulé
UM UE

FM FP-FM FP FP+FM Fréquence


Porteuse
Modulation
UP
Bandes latérales
U E (t ) = U M (t )U P (t ) = A cos(ω M t ) cos(ω P t )

U E (t ) =
A
[cos(ω M t + ω P t ) + cos(ω P t − ω M t )]
2
U E (t ) = [cos((ω M + ω P )t ) + cos((ω P − ω M )t )] F1
A
FPF2 FP-F2
FP+F2 Fréquence
2
FP-F1 FP+F1
Fig. 48 - Principe de la transposition de fréquence par multiplication de deux signaux
Démodulation
filtrage
Multiplieur

UE UR
Signal Signal
FM FP-FM FP FP+FM Fréquence
modulé démodulé 2FP-FM 2FP+FM
Démodulation
UP filtrage
Porteuse

F1 F2 FP-F2 FP FP+F2 Fréquence


U D (t ) = U E (t )U P (t ) FP-F1 FP+F1

U D (t ) =
A
[cos((ω M + ω P )t ) + cos((ω P − ω M )t )]× cos(ω P t )
2
U D (t ) = cos((ω M + ω P )t ) cos(ω P t ) + cos((ω P − ω M )t ) cos(ω P t )
A A
2 2
U D (t ) = [cos((ω M + 2ω P )t ) + cos((ω P + ω M − ω P )t )] + [cos((2ω P − ω M )t ) + cos((ω P − ω P + ω M )t )]
A A
4 4
U D (t ) = cos(ω M t ) + cos((ω M + 2ω P )t ) + cos((2ω P − ω M )t )
A A A
2 4 4
Fig. 49 - Principe de la démodulation

3. Les différentes types de modulations


On distingue deux types de modulations : les modulations analogiques et les modulations
numériques. Dans une modulation analogique, le signal modulant est un signal analogique, un ou

A. Boyer 55
Canaux de transmissions bruités Septembre 2011

plusieurs paramètres de la porteuse sont modifiés de manière continue. Dans une modulation
numérique, le signal modulant est un signal numérique synchrone, qui a subi un échantillonnage et une
quantification. La porteuse voit ses propriétés modifiées à chaque période binaire du signal modulant
et prendre un ensemble fini de valeurs. Les grandeurs usuellement modifiées pour réaliser une
modulation sont :
 L’amplitude
 La fréquence
 La phase
 La durée
Le tableau 2 décrit les modulations couramment employées.
Forme de la Paramètre Type de modulation
porteuse modulé
AM (mod. d’amplitude), SSB ou BLU (mod. à
Amplitude
bande de base unique)
Sinusoïde
Fréquence FM (mod. de fréquence)
Modulation Phase ФM (mod. de phase)
analogique Amplitude PAM (mod. d’impulsions en amplitude)
Fréquence PFM (mod. d’impulsions en fréquence)
Impulsions
Phase PPM (mod. d’impulsions en position)
Durée PWM (Pulse Width Modulation)
ASK (mod. d’amplitude discrète), OOK (mod.
Amplitude
tout ou rien)
Sinusoïde
Fréquence FSK (Frequency Shift Key)
Modulation Phase PSK (Phase Shift Key)
numérique PCM (Pulse Coded Modulation
Signal DPCM (Differential Pulse Coded Modulation)
code
d’horloge ∆M (Delta Modulation)
A∆M (Adaptative Delta Modulation)
Tableau 2 – Exemples de modulation analogique et numérique
Les modulations analogiques sont fortement altérées par le bruit et les distorsions introduites
par le canal. Les modulations numériques étant bien plus robustes que les modulations analogiques,
elles sont massivement employées dans les systèmes de télécommunications modernes. La figure 50
décrit le principe des 3 principaux types de modulations numériques :
 en amplitude (Amplitude Shift Key ou ASK), l’amplitude varie à chaque période de bit
S (t ) = B × sin(ω p t ), B = 0 ou 1
 en fréquence (Frequency Shift Key ou FSK), la fréquence varie à chaque période de bit
S (t ) = A0 × sin((ω p + B × ω m ) ∗ t ), B = ±1
 en phase (Phase Shift Key), la phase varie à chaque période de bit
S (t ) = A0 × sin(ω p t + B × π ), B = 0 ou 1

A. Boyer 56
Canaux de transmissions bruités Septembre 2011

État binaire 0 1 1 0 1 1

modulant
porteuse

Amplitude A0 A1 A1 A0 A1 A1
ASK Signal
modulé

Fréquence F0 F1 F1 F0 F1 F1
FSK Signal
modulé

Phase φ0 φ1 φ1 φ0 φ1 φ1
PSK Signal
modulé

Fig. 50 - Principe d’une modulation numérique

Question : Parmi ces 3 modulations, laquelle semble la plus avantageuse pour une communication
numérique ?

Réponse :

4. Efficacité spectrale
Si aucun filtrage n’est appliqué lors de la modulation, le spectre d’un signal modulé est une
version transposée du signal de bande de base autour de la fréquence porteuse. Si on considère une
modulation numérique, le signal modulant occupe une large bande de fréquence (voir annexe C). Son
spectre de bande de base est composé d’un lobe principal dont la largeur est égale au débit binaire et
d’une infinité de lobes secondaires dont l’amplitude décroît avec la fréquence. Afin de réduire
l’occupation spectrale d’un signal numérique modulé, il est possible de filtrer le signal modulant de
manière à ne garder que le lobe principal. D’après le théorème de Nyquist, si la bande passante utilisée

A. Boyer 57
Canaux de transmissions bruités Septembre 2011

est supérieure à la moitié du débit de symboles, il est théoriquement possible de transmettre sans erreur
le signal… A condition que le filtre employé respecte le critère de Nyquist. Nous reviendrons sur les
aspects filtrage dans le chapitre F. En général, la bande passante sera égale au débit de symbole afin de
ne conserver que le lobe principal du spectre du signal, qui contient la majeure partie du signal.

On définit l’efficacité spectrale η d’une modulation comme le rapport entre le débit binaire
transmis par le signal modulé sur la bande passante utilisée. Ainsi, pour une modulation BPSK,
l’efficacité spectrale est de 1 bit/s/Hz. Cela signifie que pour transmettre un bit par seconde, une bande
passante de 1 Hz est nécessaire.
Db
η (bits / s / Hz ) = (Équation 67)
B
Db : débit de la source
B : bande passante nécessaire au canal

5. Exemple : modulation BPSK


La figure 51 présente le principe de la modulation PSK ou BPSK (Binary Phase Shift Key). Le
déphasage de la porteuse prend comme état 0 et π en fonction de l’état binaire du modulant.
0 1 1 0 1 1

porteuse

modulant
0 π π 0 π π
BPSK

Fig. 51 – Modulation BPSK


Comme il s’agit d’un signal binaire modulé en fréquence, la bande passante occupée en bande
de base est égale à la fréquence symbole (c’est-à-dire le débit binaire). Après transposition de
fréquence, la bande de fréquence occupée est égale à 2 fois la fréquence symbole. La figure ci-dessous
présente un signal BPSK dans les domaines temporels et fréquentiels. Le débit binaire est égal à Db =
100 Kbits/s et la fréquence de la porteuse est égale à 1 MHz. Le spectre du signal modulé est centré
sur de la fréquence porteuse. Autour de celle-ci, on trouve 2 lobes principaux suivis de lobes
secondaires d’amplitude décroissante. L’énergie de ce signal est principalement concentrée sur les
lobes principaux, qui occupent une bande de 200 KHz de large. D’après le théorème de Nyquist, il est
théoriquement possible de transmettre sans erreur ce signal si la bande passante (en bande de base) est
supérieure au débit de symboles divisé par 2. En bande de base, on peut utiliser une bande passante B
égale au débit binaire Fb pour conserver l’énergie du lobe principal. Si on considère le signal modulé,
il faut une bande passante B égale à deux fois le débit binaire Fb pour conserver l’énergie des deux
lobes principaux. Si on n’en conserve qu’un, on peut utiliser une bande passante B égale au débit
binaire Fb.

A. Boyer 58
Canaux de transmissions bruités Septembre 2011

Saut de Lobe
phase principal
Lobes
secondaires

1 symbole B = 2Fs = 200 KHz


Fig. 52 – Signal modulé en BPSK (domaine temporel à gauche, spectre à droite)

II. Modulation M-aire


1. Principe
Dans la plupart des systèmes de télécommunications, la bande de fréquence allouée est faible
au regard du débit souhaité. Afin d’augmenter le débit sans pour autant augmenter la bande passante,
des modulations à plusieurs états ou modulations M-Aire ont été développées. Le principe de cette
modulation est d’associer à chaque groupe de M symboles binaires de durée Tb un symbole complexe
de durée Ts :
TS = Tb × log 2 (M ) (Équation 68)
Avec le cas particulier M = 2, on retrouve une modulation binaire à 2 états comme nous
venons de les voir (ASK, BPSK, FSK). Plus M sera grand, plus l’efficacité spectrale η sera grande.
Ainsi, si on choisit une forte valeur de M, pour un débit de source donné, on diminuera le nombre de
symboles à envoyer et donc la bande passante nécessaire. Inversement, pour une bande passante
donnée, le débit de symboles reste constant mais le débit binaire augmente avec la valeur de M.
En pratique, il est possible de créer une modulation numérique M-aire en créant des signaux à
M états, c'est-à-dire en donnant plus de 2 états possibles au signal modulant. De nombreuses
modulations M-aires sont basées sur un modulateur I/Q. Nous allons en présenter le principe.

2. Concept de canaux I et Q
Comment faire une modulation à partir de plusieurs symboles binaires ? La solution consiste à
utiliser une famille de fonctions indépendantes et orthogonales qui transporte chacune un bit puis de
les combiner. Expliquons-nous …
Un signal modulé est un vecteur, dont on fait varier l’amplitude et la phase. Il est possible de
représenter ce vecteur dans un repère (x ;y), qui utilise un ensemble de 2 vecteurs de base φi = (0 ;1) et
φj = (1 ;0) qui sont orthogonales entre elles. Mathématiquement, l’orthogonalité entre 2 vecteurs est
vérifié si :
+∞ 1 si i = j
∫ ϕ i (t )ϕ j (t )dt =  (Équation 69)
−∞
0 sin on
Un exemple intéressant de vecteurs orthogonaux est la paire formée par les fonctions cosinus
et sinus, qui vérifient la condition précédente. C’est cette base de vecteurs qui est utilisée dans les
systèmes de télécommunications comme porteuses dans les modulations M-aires. Appelons I (pour In
phase) le vecteur donné par la fonction cosinus et Q (pour Quadrature) celui donné par la fonction

A. Boyer 59
Canaux de transmissions bruités Septembre 2011

sinus. Comme le montre la figure ci-dessous, on peut représenter n’importe quel signal modulé
d’amplitude A et de phase φ à l’aide d’une combinaison linéaire des vecteurs I et Q (fc est la
fréquence de la porteuse.

Signal
Amplitude A modulé
AQ

Phase φ
Porteuse I
AI
s(t ) = A cos(2πf c t + ϕ ) = AI cos(2πf c t ) + AQ sin (2πf ct )
s(t ) = AI I + AQ Q
 AQ 
A = AI + AQ et ϕ = arctan 
2 2

 AI 
Fig. 53 – Représentation vectorielle d’un signal modulé à partir des vecteurs I et Q
L’amplitude et la phase prises par le signal modulé va donc dépendre uniquement de
l’amplitude prise par les porteuses I et Q. La figure ci-dessous présente le schéma général d’un
modulateur I/Q. Il est composé de trois blocs :
 le traitement en bande de base, qui traite les bits du signal modulant et produit 2 signaux
modulant pour les canaux I et Q.
 la multiplication par les porteuses I et Q. Celles-ci sont issues d’un oscillateur local qui
fournit une porteuse sinusoïdale à la fréquence porteuse, qui est ensuite déphasée.
 le signal modulé est issu de l’addition des canaux I et Q
Canal Q

Signal Traitement Q Signal modulé


binaire bande de base + (amplitude et
/ou phase)

Canal I
I

Oscillateur Porteuse 0°

cos(2πf C t )
local
90
°

Fig. 54 – Schéma général d’un modulateur I/Q

3. Exemple : modulation QPSK


a. Principe
De manière générale, un signal modulé en phase M-aire peut s’exprimer de la manière
suivante :
2πi
si (t ) = AP cos(2πf c t + θ i ), θ i = et i ∈ [0; M − 1] (Équation 70)
M
si(t) : le signal modulé à l’instant t, qui transmet un symbole i. Il existe M symboles possibles
Ap : amplitude constante du signal modulé en phase
fc : fréquence porteuse
θi : l’angle de la modulation pour le symbole i

A. Boyer 60
Canaux de transmissions bruités Septembre 2011

π ×i
Dans le cas d’une modulation 4-PSK, M = 4 et θ i = et i ∈ [0;3] . Le problème de cette
2
forme est que les signaux I et Q doivent prendre 3 états d’amplitude possibles : -1, 0 et +1. Une
solution pour réduire le nombre d’états d’amplitude est de déphaser l’angle d’amplitude 45° :
π ×i π
θi = + et i ∈ [0;3] . C’est ce qui est fait pour une modulation QPSK. L’expression du signal
2 4
modulé devient :
 πi π   π (2i + 1) 
si (t ) = AP cos 2πf c t + +  = AP cos 2πf c t + 
 2 4  4 

 π (2i + 1)   π (2i + 1)  (Équation 71)


si (t ) = AP cos(2πf c t ) cos  − AP sin (2πf c t )sin  
 4   4 
 π (2i + 1)   π (2i + 1) 
si (t ) = I cos
2 2
 − Q sin  =± I −± Q
 4   4  2 2
Le signal modulé en QPSK correspond donc à la combinaison des signaux I et Q multipliés
par +/- √2/2 en fonction du symbole transmis. Ce dernier correspond aux 4 états de phase de la
modulation et est codé par 2 bits. La figure 55 présente le principe de construction du signal QPSK. La
correspondance entre les bits du signal binaire et la phase du signal modulé est :
Symbole 01 10 11

Porteuse I π
2 2
 11  π/4 ( + I+ Q) Porteuse Q
2
2 2
2 2 -1 +1 +1
 01  3 π/4 ( − I+ Q)
2 2 Signal I modulé
2 2
 00  5 π/4 ( − I− Q) +1 -1 +1
2 2 Signal Q modulé
2 2
 10  7π/4 ( + I− Q) 3π 7π π
2 2
4 4 4
Signal I+Q modulé

Fig. 55 - Modulation QPSK

b. Modulateur/démodulateur I/Q en QPSK


La plupart des modulations M-aire telles que QPSK (ou d’autres telle que la M-QAM) sont
obtenues à partir du modulateur I/Q. Celui-ci consiste à séparer le flux binaire en entrée en 2 flux
parallèle et de les multiplier par deux porteuses de même fréquence mais en quadrature. En les
recombinant, on obtient un signal modulé en phase. La figure ci-dessous présente le modulateur I/Q
pour une modulation QPSK.

A. Boyer 61
Canaux de transmissions bruités Septembre 2011

± sin (2πf C t )
[− 1,+1,−1]
_
Signal binaire Q Signal QPSK
DEMUX
[− 1,+1,+1,−1,−1,+1] sin (2πf C t )  (2i + 1)π 
+ 2 × cos 2πf C t + 
 4 
[+ 1,−1,+1] ± cos(2πf C t )
I

Porteuse 0°
Oscillateur local
cos(2πf C t ) 90
°

Fig. 56 – Schéma de principe d’un modulateur I/Q pour une modulation QPSK
La figure ci-dessous présente le schéma de principe du démodulateur I/Q. Le principe est
inversé. En multipliant le signal modulé par les signaux I et Q, il est possible de récupérer les états
binaires ayant servi à la modulation.
AP
Q
cosθ i
2

Signal QPSK
Flux « binaire »
sin (2πf C t )
MUX
AP cos(2πf C t + θ i )
I
AP
sin θ i
2
Porteuse 0°
Oscillateur
local cos(2πf C t ) 90°

Fig. 57 – Schéma de principe d’un démodulateur I/Q pour une modulation QPSK

c. Occupation spectrale
Soit Tb la durée d’un bit, avec Tb = 1/Fb. La durée d’un symbole ou moment est égal à 2Tb et
le débit de moment égal à Fb/2. Le spectre du signal modulé en QPSK va donc être celui d’un signal
numérique dont le débit est égal à Fb/2. Par exemple, la figure 58 présente le profil temporel d’un
signal modulé en QPSK ainsi que l’évolution de la phase dans le temps. Le débit de symbole est de 1
MBauds, le débit binaire est donc de 2 Mbits/s, la fréquence de la porteuse est de 10 MHz. La figure
59 présente le spectre en bande de base du signal en sortie du modulateur IQ.

Fig. 58 - Profil temporel d’un signal modulé en QPSK (gauche) et phase (droite) (débit de symbole = 1
MBauds, fréquence porteuse = 10 MHz)

A. Boyer 62
Canaux de transmissions bruités Septembre 2011

Fig. 59 - Spectre en bande de base d’un signal modulé en QPSK


Le spectre présente un lobe principal centré sur 10 MHz et de largeur 2 MHz (2 fois le débit de
symbole). C’est là qu’est concentré la plus grande partie de l’énergie du signal. En filtrant ce signal de
manière à ne garder qu’une bande latérale du lobe principal, on peut transmettre ce signal modulé sur
une bande fréquentielle de largeur 1 MHz.
2 Mbits / s
L’efficacité spectrale d’une modulation QPSK est donc égale à : η QPSK = =2.
1MHz
C’est le double de celle d’une modulation BPSK.
On pourrait montrer que l’efficacité spectrale d’une modulation M-aire est égale à :

η M − aire = N, M = 2 N
(Équation 72)

Ce qui se comprend intuitivement puisqu’on fait passer N bits par symbole. Plus on accroît le
nombre de symboles M, meilleure est l’efficacité spectrale. Pour un canal à bande passante donnée, le
débit binaire augmentera avec M. Cela fournit à l’ingénieur télécom une solution pour accroître le
débit d’une transmission sur un canal à bande limitée. Cependant, le bruit présent sur le canal va
limiter le nombre de symbole (résolution en amplitude).

III. Filtrage d’un signal modulé– Pulse shaping


En pratique, il est nécessaire de filtrer le signal modulé afin de réduire son occupation
spectrale. Un filtre passe bas d’ordre élevé est appliqué directement sur le signal de bande de base
avant modulation. En général, seul le premier lobe est conservé puisque celui-ci contient la majeure
partie de l’énergie du signal. De nombreux types de filtre existent pour limiter la bande passante du
signal modulé. Un filtre courant est le filtre à cosinus surélevé (cf annexe E). Comme ce filtre modifie
le spectre du signal modulé, la réponse temporelle est aussi affectée. On parle aussi de filtre de pulse
shaping. Le choix du filtre est critique car il ne doit pas dégrader la réponse temporelle et introduire
des interférences intersymboles. Nous y reviendrons au chapitre F.
La figure 60 présente l’occupation spectrale du signal issu du modulateur IQ après passage
dans un filtre à cosinus surélevé, avec un coefficient de raidissement r de 0.7. Les lobes secondaires
ont été considérablement atténués (40 dB sur le canal adjacent) et on ne distingue plus que le lobe
principal.

A. Boyer 63
Canaux de transmissions bruités Septembre 2011

Fig. 60 - Spectre en bande de base d’un signal modulé en QPSK puis filtré par un filtre à cosinus raidi
(r=0.7)
L’ajout d’un filtre modifie la forme temporelle du signal et le ralentit, comme le montre la
figure 61 qui compare le signal en sortie du modulateur IQ et celui en sortie du filtre (ces 2 signaux
présentent un décalage d’une période, qui correspond au temps de traitement du filtre). Le filtre à
cosinus raidi permet d’éviter l’apparition d’interférences intersymboles. En effet, les symboles peuvent
être distingués à chaque période, comme le montre le diagramme de l’œil de la figure 62.

Fig. 61 - Comparaison du signal en bande de base avant et après filtre en cosinus raidi

Fig. 62 - Diagramme de l’œil du signal de bande de base avant et après filtre en cosinus raidi

A. Boyer 64
Canaux de transmissions bruités Septembre 2011

IV. Diagramme de constellations


La plupart du temps, la représentation temporelle des modulations M-aire est complexe et il
devient difficile de distinguer 2 symboles différents. Une nouvelle représentation appelée diagramme
de constellation peut alors être employée pour simplifier la représentation d’une modulation M-aire.
Dans ce diagramme, les états pris par la porteuse sont placés dans un plan polaire. Chaque état associé
à un symbole apparaît comme un point avec une amplitude et une phase données. Comme nous
l’avons vu précédemment, les modulations M-aire sont généralement crées à l’aide d’un modulateur
I/Q, le signal modulé étant une combinaison linéaire des signaux I et Q. Les axes x et y du diagramme
de constellation sont donc appelés I et Q. La figure 63 présente deux exemples de diagramme de
constellation, le premier pour une modulation QPSK, le deuxième pour une modulation QAM-16.
Porteuse Q Porteuse Q
1110 1010 1000 1100
+3
01 11 symbole
0110 0010 0000 0100
+1

Porteuse I -3 -1 +1 +3 Porteuse I
symbole

0111 0011 0001 0101


00 10 -1

1111 1011 1001 1101


-3

Fig. 63 – Constellation d’une modulation QPSK (gauche) et 16-QAM (droite)


Le diagramme de constellation est un outil
graphique très approprié pour évaluer qualitativement la
dégradation du signal modulé et le risque d’apparition
d’erreur binaire. En l’absence de toute forme de bruit et de
distorsion due au canal, les états reçus apparaissent comme
des points sur le diagramme. Cependant, dès que le signal
est perturbé, il fluctue en amplitude ou en phase et les états
apparaissent comme des taches. Si ces taches deviennent
larges, plus le taux d’erreur binaire augmente. La figure 64
présente un exemple de diagramme de constellation
provenant de la mesure d’un signal modulé en 16-QAM.
Dans le diagramme de constellation, chaque état du signal
reçu apparaît dans une des 16 taches, une erreur de
modulation (en amplitude ou en phase) est donc présente.
Dans cet exemple, le rapport signal à bruit est grand (25
dB), d’après la figure 65, le taux d’erreur binaire théorique Fig. 64 – Diagramme de constellation
est négligeable. d’un signal modulé en 16-QAM

V. Effet de la modulation sur le taux d’erreur binaire


Bien qu’augmenter le nombre d’états dans une modulation M-aire permette d’augmenter
l’efficacité spectrale, cela rend aussi le système moins robuste face au bruit et aux distorsions du canal.
En effet, plus il y a de symboles différents, moins il devient simple de les distinguer car la distance
entre les états diminue. Pour un bruit donné, à mesure qu’on augmentera le nombre d’états, on
augmentera aussi le taux d’erreur binaire.
Dans le cadre d’un canal AWGN, il est possible de déterminer la relation théorique entre le
taux d’erreur binaire et le rapport signal à bruit par bit, en utilisant le même type de raisonnement
mathématique qui nous a permis d’établir cette relation dans le cas d’un signal binaire. Nous ne

A. Boyer 65
Canaux de transmissions bruités Septembre 2011

démontrerons pas les calculs pour des signaux modulés, nous nous contenterons de donner les
résultats, en supposant qu’aucun codage source n’est utilisé et que les démodulations sont synchrones.
Le tableau ci-dessous donne les expressions théoriques pour les modulations abordées dans ce
chapitre.

Type de modulation BER = f(Eb/No)


1  Eb 
ASK binaire BER = erfc 
2  4 No 
 
1  Eb 
FSK binaire BER = erfc 
2  2 No 
 
1  Eb 
BPSK BER = erfc 
2  No 
 
1  Eb 
QPSK BER = erfc 
2  No 
 

Ces résultats montrent que la modulation de phase est théoriquement plus robuste au bruit que
les modulations d’amplitude et de fréquence. Il est intéressant de noter que la modulation QPSK est
aussi robuste que la modulation BPSK, en raison de l’utilisation de 2 porteuses en quadrature. La
figure 65 compare les taux d’erreur binaire des modulations FSK, QPSK, et de 2 autres modulations
courants : 16-QAM et 64-QAM. Même utilisées à débit constant, l’effet du bruit sera bien plus
important pour des modulations avec de un grand nombre d’états.

Fig. 65 – Taux d’erreur binaire en fonction du rapport signal sur bruit pour 4 types de modulations à
débit constant

A. Boyer 66
Canaux de transmissions bruités Septembre 2011

VI. Ce qu’il faut retenir

⇒ La modulation est une opération de transformation du signal permettant de faciliter le


transfert de l’information sur le medium de transmission.
⇒ Une modulation numérique utilise un modulant numérique. Les modulations de
fréquence et de phase sont plus robustes au bruit que les modulations en amplitude.
⇒ L’efficacité spectrale d’une modulation représente le rapport entre le débit binaire
transmis sur la bande passante utilisée.
⇒ Le signal en bande de base est généralement mis en forme et filtré afin de réduire la
bande spectrale occupée par le signal modulé. Les filtres de mise en forme ne doivent
pas introduire d’interférences intersymboles.
⇒ En codant les symboles transmis par plusieurs bits, l’efficacité spectrale d’une
modulation s’accroît.
⇒ Le taux d’erreur binaire d’un signal numérique dépend du type de modulation
employé.

A. Boyer 67
Canaux de transmissions bruités Septembre 2011

E. Techniques de fiabilisation d’un canal


de transmission par codage de canal

Les canaux réels présentent différents défauts : ils déforment les signaux transmis (distorsions)
et ajoutent des perturbations indésirables (bruit). Dans le chapitre précédent, nous avons appris à
déterminer les performances théoriques d’un canal. En pratique, il est cependant difficile de les
atteindre et les performances réellement atteintes peuvent ne pas être suffisamment satisfaisante pour
l’application envisagée. Afin d’optimiser les performances des canaux de transmission, différentes
techniques peuvent être mises en place afin de réduire l’effet du bruit, des perturbations ou des
distorsions et augmenter le débit du canal jusqu’à se rapprocher de sa capacité maximale. Il est
possible de modifier « physiquement » le signal ou bien modifier son contenu en employant un codage
appelé codage de canal qui le rendra plus robuste aux perturbations. Ces deux types de techniques
peuvent être réalisés simultanément, mais ne font pas appel aux mêmes procédés.
Tout système de communication peut Numéro de
être modélisé en utilisant le modèle ISO / OSI couche
(International Standard Organization / Open 7 Application
Systems Interconnections) (ISO 7498), présenté à
la figure 66. Ce modèle décrit les fonctionnalités 6 Présentation
nécessaires à l’interconnexion au sein d’un
réseau de systèmes communicants. 5 Session
La problématique de fiabilisation du
canal de transmission est traitée dans les couches Transport
4
les plus basses : la couche physique et la couche
liaison de données. Les deux chapitres suivants 3 Réseau
traitent des techniques mises en œuvre dans ces
deux couches pour fiabiliser le canal. Ce chapitre Liaison de données
2
traite des techniques de codage de canal, mise en
œuvre dans la couche liaison de données. 1 Physique

Support de transmission
Fig. 66 – Modèle ISO/OSI

I. Couche liaison de données


La couche liaison de données a pour but d’assurer la communication des données entre 2
entités communicantes. Elle assure une mise en forme des données qui permet de vérifier la validité du
message, par l’encapsulation des données dans des trames et par l’ajout de codes détecteurs ou
correcteurs d’erreurs. Elle est subdivisée en 2 sous couches (fig. 67) :
 Sous couche Medium Access Control (MAC) : cette sous couche gère l’acceptation des
messages vers les couches plus élevées. Elle est responsable de la mise en trame du message
(encapsulation/décapsulation des données), du codage des trames, de l’arbitrage de l’accès
au support de transmission, de la détection et de la signalisation des erreurs, et de
l’acquittement des messages reçus

A. Boyer 68
Canaux de transmissions bruités Septembre 2011

 Sous couche Logical Link Control (LLC) : elle est dédiée au filtrage des messages, à la
notification des surcharges (plusieurs messages reçus simultanément qui peuvent être
écrasés) et gère la procédure de recouvrement des erreurs détectées par la couche MAC.

7. Application
6. Présentation
5. Session
4. Transport
3. Réseau Logic Link Control (LLC)
2. Liaison de données
Medium Access Control (MAC)
1. Physique
Fig. 67 – Couche liaison de données

II. Codage de source


Le codage sert à adapter au mieux l’information à transmettre aux caractéristiques du canal.
On distingue deux types de codage :
 Le codage de source, qui sert réduire la taille du message à transmettre
 Le codage de canal, qui sert à réduire les effets des distorsions induites par le canal et des
perturbations externes sur le message à transmettre

Le codage de source modifie d’une manière prédéfinie le contenu du message initial.


L’opération de décodage en réception permettra de retrouver le contenu initial du message. Le codage
de source sert à compresser le message, c'est-à-dire réduire sa taille et optimiser la quantité
d’information à envoyer. Une autre utilité est de crypter l’information et d’améliorer la sécurité de la
transmission. La source peut être considérée comme un ensemble de messages ou de mots appartenant
à un ensemble de M messages possibles. Chaque message est une suite ordonnée de caractères parmi
les n caractères disponibles. L’opération de codage de source n’a de sens que si le codage est
déchiffrable, c'est-à-dire si il est :
 Défini : deux messages différents ne doivent pas être représentés par le même mot
 Séparable : on peut placer sans ambiguïté la coupure entre chaque mot.
Si tous les mots ont la même longueur, ils commencent ou se terminent par le même caractère
spécial qu’on ne peut trouver qu’en début ou en fin de mot, alors le code peut être séparable. Un code
est dit irréductible si il vérifie la règle du préfixe, c'est-à-dire qu’un mot ne peut pas être le début
d’un autre mot. Un code irréductible est forcément séparable, mais la réciproque est fausse.

Question : Soit une source binaire comprenant M=4 messages et n=2 caractères. Quels sont les codes
déchiffrables ?
Messages Code 1 Code 2 Code 3 Code 4 Code 5 Code 6
a 00 00 0 0 0 1
b 01 01 1 10 01 01
c 00 10 00 110 011 001
d 11 11 11 111 0111 0001

Réponse :

A. Boyer 69
Canaux de transmissions bruités Septembre 2011

On définit la longueur moyenne L des messages de la source comme le nombre moyen de


caractères par message. On peut la calculer en connaissant la probabilité d’apparition Pi et la longueur
Li en caractères du message i, à l’aide de l’équation suivante 73.
M
L ( caractères ) = ∑ Pi × Li (Équation 73)
i =1

Le codage de source consiste à représenter les différents messages de façon à minimiser L.


Cependant, Shannon a montré qu’il existe une limite inférieure à cette longueur. Elle est donnée à
l’aide du premier théorème de Shannon ou théorème de codage de source qui s’applique
uniquement aux sources sans mémoire :
H
L ≥ Lmin =
log 2 ( n )
(Équation 74)

On peut définir l’efficacité η d’un code déchiffrable pour une source sans mémoire à l’aide de
l’équation 75. On peut aussi définir la redondance d’un code (équation 76). Le but du codage est
d’augmenter l’efficacité du codage ou de diminuer sa redondance.
Lmin
η (%) =
L (Équation 75)
R ( %) = 1 −η
(Équation 76)
Cependant, le codage de source doit se faire en connaissant le débit de moments qu’on
souhaite faire passer à travers le canal. En effet, la vitesse à laquelle la source transmet des données à
l’étage d’émission des moments dans le canal ne doit pas être trop importante si on cherche à faire une
transmission en continu ou transmission en temps réel, comme le montre la figure 68.
• •
Dc Dm
Information Source Emetteur
Canal
Codage source Codage canal
Modulation, …

Fig. 68 - Transmission en temps réel


• •
Si DC représente le débit de caractères fournit par la source et D m le débit de moments émis
à travers le canal, pour réaliser une transmission en temps réel, il faut vérifier la condition énoncée
dans l’équation 77. Si cette inégalité n’est pas respectée, la source devra fournir les données de
manière discontinue de manière à ce que l’émetteur puisse émettre toutes les données fournies par la
source sans en perdre.
• •
Dc ≤ Dm (Équation 77)

III. Codage/décodage d’un canal – Codes correcteur


d’erreur
On désigne par codage de canal la transformation à appliquer aux symboles à transmettre pour
les protéger des perturbations rencontrées durant la transmission. Contrairement au codage de source,
le codage de canal consiste à ajouter de la redondance au message à transmettre, comme l’ajout code
détecteur ou correcteur d’erreur pour les transmissions numériques. Il existe 2 stratégies de codage de
canal :
 Détection d’erreurs dans le message reçu et demande de retransmission à l’aide d’un
meilleur protocole (Automatic Repeat reQuest). Cette technique nécessite une voie de retour

A. Boyer 70
Canaux de transmissions bruités Septembre 2011

(si cela est autorisé) et créé des risques de congestion du canal si la perturbation est trop
forte.
 Détection d’erreurs et correction en réception (Forward Error Coding). Cette technique
introduit de la redondance dans le message initial, mais les circuits et les algorithmes à
implémenter sont plus complexes.

Cette dernière technique est couramment employée dans la plupart des systèmes de
télécommunications numériques. Elle consiste à ajouter en fin de trames plusieurs bits, appelés bits de
redondance, dépendants du contenu d’une ou plusieurs trames afin de les protéger contre les erreurs
de décisions du récepteur. En réception, un traitement de ces bits supplémentaires permet de détecter
les erreurs voire pour certains codes de restaurer les symboles d’origine. La gestion de la détection
d’erreur est décrite dans le protocole de la transmission.
L’ajout d’un code correcteur d’erreur est limité par la capacité du canal. En effet, des
séquences trop longues ne peuvent pas être ajoutées sans réduire le débit de données utiles. Pour
quantifier la redondance ajoutée à un message, on emploie le terme de rendement de code ou taux de
codage R :
Message Message codé K
code R=
K bits N bits N
On définit parfois un code de la manière suivante : pour le code ci-dessus, on parle de code
(k,n,t), avec k le nombre de bits du message à coder, n le nombre de bits du message codé et t le
nombre de bits erronés qui pourront être détectés ou corrigés.

Quelques définitions :
Un code est dit systématique si on retrouve dans le message codé le message non codé à
l’identique. Dans le cas où le message initial est de longueur K bits et la longueur du message codé est
de N bits, les N-K bits sont des bits de parité. Dans ce cas, le rendement est élevé, supérieur en
général à 0.7. En pratique, on parle d’un faible rendement s’il est inférieur à 0.4.
Le codage entraîne un surdébit qui se traduit soit par une diminution du débit utile soit par une
augmentation du débit transmis sur le canal et par conséquent d’une augmentation de la bande
passante ou de la puissance émise pour accroître la capacité. On peut lier le débit avant codage Dc
avec le débit après codage Db à l’aide du rendement, comme le montre l’équation 78.
• Db
DC = (Équation 78)
R
Même si le codage de canal augmente la redondance et diminue le débit utile d’information, il
améliore globalement le système de transmission puisqu’il apporte une protection au message
transmis. Afin de quantifier cette amélioration, on utilise le gain de codage, qui représente la
différence en dB entre les rapports signal/bruit respectifs du système codé et non codé qui permettent
d’atteindre le même taux d’erreur. Comme le montre la figure 69, pour une limite en terme de taux
d’erreur binaire, la contrainte en terme de rapport signal sur bruit sera plus faible pour un message
auquel on a ajouté un code correcteur d’erreur (message 2) par rapport au message non codé (message
1). Le gain de codage représente la différence de rapport signal à bruit entre ces 2 techniques pour
atteindre la même performance en terme de taux d’erreur binaire.
Taux d’erreur
1
binaire 2

Gain de codage Eb/No

Fig. 69 - Gain de codage

A. Boyer 71
Canaux de transmissions bruités Septembre 2011

Un code est dit linéaire si la transformation entre le message d’origine et le message codé est
linéaire. Ainsi, toute combinaison linéaire de mots de code reste un mot de code. Il est possible
d’utiliser plusieurs codes différents pour un même message. On parle de code concaténé en série
quand on met en œuvre successivement 2 codes ou davantage. L’idée directrice de la conception d’un
code est d’espacer au maximum les mots codés afin qu’un nombre limité d’erreurs dues au canal de
transmission puisse transformer le mot initial en un mot qui n’appartient pas au code. Le récepteur
pourra détecter les erreurs en vérifiant si le mot appartient ou non au code et les corriger en prenant le
mot de code le plus proche du mot reçu. On distingue 2 types de codes : les codes en blocs et les codes
convolutifs. Nous allons voir leurs différences dans la prochaine partie.

Exemple : le bus CAN


Le bus CAN (Controller Area Network) (norme IEC 11898) est couramment employé dans
l’automobile afin d’interconnecter les différents contrôleurs électroniques présents dans un véhicule et
multiplexer les différentes requêtes sur un même bus série. La transmission physique peut s’effectuer
sur une paire torsadée, sur une fibre optique, par liaison infrarouge ou par liaison radio. La figure 71
présente le format des trames de données du protocole CAN.

Début de Champ de Fin de


trame contrôle trame
Identificateur Données CRC

1 bit 12 bits 6 bits 0 – 8 octets 16 bits 9 bits

Fig. 71 - Format d’une trame dans le protocole CAN


Fig. 70 – Systèmes électroniques
embarquées dans une automobile

Le protocole CAN intègre plusieurs mécanismes de gestion des erreurs (code correcteur
d’erreurs, surveillance permanente du bus par l’ensemble des stations, gestion automatique des
conflits). Toutes ces techniques permettent de réduire la probabilité d’erreur à 4.6e-11 !

IV. Code en blocs


Le principe d’un code en blocs consiste à découper le flux d’information en plusieurs blocs de
K symboles, auxquels on ajoute N symboles de code associé. Chaque bloc est ainsi transformé en un
nouveau bloc de K+N symboles. Chaque bloc reste indépendant des autres blocs. L’information n’est
pas traitée de manière continue puisqu’il sera nécessaire de bufferiser les K symboles reçus avant de
les envoyer avec les N symboles supplémentaires de codage. L’information en entrée est traitée par
paquet.

Question : bits de parité :

Soit l’information binaire initiale : 100110100001avec les blocs originaux (K=3) : 100-110-
100-001. On ajoute dans chaque bloc un ‘0’ ou un ‘1’ de manière à toujours obtenir un nombre pair
de ‘1’ dans chaque bloc. On obtient les blocs codés suivants (N+K = 4) : 1001-1100-1001-0011

Calculer le rendement de ce code. Pourquoi est-ce un code détecteur d’erreur ? Est-ce un code
correcteur d’erreur ?

Réponse :

A. Boyer 72
Canaux de transmissions bruités Septembre 2011

V. Code convolutif
Un codeur convolutif traite l’information de manière continue. Les N bits ajoutés par le codeur
ont été déterminé à partir des K bits présents en entrée, mais dépendent aussi des G-1 groupes de K
bits précédents. G correspond à la longueur de contrainte du code. Le code dépend alors de
l’échantillon présent et d’un certain nombre d’échantillons précédents, créant une forte corrélation
entre plusieurs paquets d’information. Ainsi, si un paquet parmi les G paquets utilisés pour le codage
est altéré, cette forte corrélation réduit la probabilité d’erreur. Cette technique offre donc un moyen de
protection puissant pour les données à transmettre dans des milieux très bruités comme une liaison
satellite. La figure 72 présente un exemple de codeur utilisé pour la DVB (Digital Video Broadcasting)
ou télévision numérique.

Fig. 72 - Exemple de codeur convolutif


Chaque bit entrant va générer 2 bits sortant qui seront liés aux 6 bits précédents. Le bit 1 de
sortie est un "OU exclusif" entre les bits 1,2,3,4 et 7 tandis que le bit 2 de sortie est un "OU exclusif"
des bits 1,3,4,6 et 7. En observant les bits précédemment reçus, on pourra deviner la valeur la plus
probable du bit reçu. Un décodeur de Viterbi réalise l’opération de décodage. Cependant, cette
technique double la longueur du message à transmettre ! Une astuce pour réduire la longueur du
message réside dans le poinçonnage des bits du message. Cette opération consiste à ne pas transmettre
tous les bits du message, permettant ainsi d’améliorer le rendement du codage. Le décodeur rajoutera
un ‘0’ là où il considère qu’un bit a été supprimé. Même si des erreurs sont délibérément introduites
dans le code à transmettre, la grande robustesse du code convolutif permet de retrouver la valeur la
plus probable du bit supprimé.

A. Boyer 73
Canaux de transmissions bruités Septembre 2011

VI. Exemple de codes


1. Codage de Gray
Lorsqu’un récepteur fait une erreur sur un symbole, il confond généralement ce symbole avec
son plus proche voisin. Un codage de Gray code des symboles voisins par des mots ne différant que
d’un bit. Ainsi, une confusion d’un des deux symboles n’introduira une erreur que sur un seul bit. Le
codage de Gray peut se construire de la manière suivante :

bk- Codage ak-


de Gray

Soit une suite d’entiers appartenant à l’intervalle [0,N-1]. Ils peuvent être codés sur k bits bi
tels que N − 1 = 2k − 1 . Pour un entier n donné de cet intervalle, le code de Gray ak −1ak − 2 ...a0 du mot
binaire naturel bk −1bk − 2 ...b0 s’écrit :
ak −1 = bk −1
ai = bi +1 ⊕ bi ∀i ∈ [ 0, k − 2]

Exemple : Codage de Gray de nombre entier naturel


Nombre entier Codage binaire classique Codage de Gray
0 0000 0000
1 0001 0001
2 0010 0011
3 0011 0010
4 0100 0110
5 0101 1110
6 0110 1100
7 0111 0100

2. Codage de Reed Solomon


Le codage de Reed Solomon est un code en bloc détecteur et correcteur d’erreur. Celui-ci est
notamment utilisé dans la norme DVB. Il est noté RS(188,204,t=8).

Question : Que signifie la notation RS(188,204,t=8) ?

Réponse :

Ce code consiste à ajouter des octets redondants valant soit la somme soit la somme pondérée
des différents octets présents dans le message. Pour comprendre ce code, appliquons le à un message
composé de 3 octets, par exemple le suivant : 12 15 34. On ajoute 2 octets de redondances. Le premier
est égal à la somme des 3 octets, le second à la somme pondéré par le rang de chaque octet des 3
octets :
 Premier octet de redondance : 12+15+34 = 51
 Deuxième octet de redondance : 12×1+15×2+34×3 = 114

A. Boyer 74
Canaux de transmissions bruités Septembre 2011

Le message codé devient donc : 12 15 34 51 114. Imaginons qu’on transmette ce message,


qu’un des octets ait été perturbé et qu’on récupère le message suivant : 18 15 34 51 114. Si on refait la
somme des 3 octets et la somme pondérée, on peut détecter une erreur :
18+15+34 = 57
18×1+15×2+34×3 = 120
La différence des sommes simples (celle reçue et celle recalculée) donne la valeur de l’erreur :
57-51 = 6. Celle des différences pondérées divisées par l’erreur donne le rang de l’erreur :
120 − 114
= 1 . Il s’agit donc du premier octet qui est défectueux et l’erreur est de +6. Bien entendu, si
6
une erreur affecte un des octets de redondance, l’erreur ne pourra pas être détectée, sauf si on ajoute
une redondance à la redondance.

VII. Entrelacement - Brassage


Tous les codes correcteurs d’erreurs ont une limite en terme de correction. Une des choses les
plus difficiles à corriger est une longue suite de bits erronés. Afin d’éviter ce genre d’événement, il est
possible de répartir les bits d’un paquet à émettre sur plusieurs paquets. On appelle cette technique
l’entrelacement. Elle est répandue dans des applications diverses : téléphonie mobile, compact
disques, DVB... Le principe de l’entrelacement utilisé est décrit par la figure 73. L’exemple suivant va
nous aider à mieux comprendre l’intérêt de l’entrelacement des données. On suppose qu’un octet code
une lettre et qu’un mot de 5 lettres correspond à un
paquet.
entrelacement

Le tableau 3 présente une partie du message


à émettre. Celui-ci subit une opération
d’entrelacement et est envoyé à travers le canal de
transmission (les – correspondent aux lettres des
paquets précédents qu’on a pas fait apparaître dans
l’exemple). Quatre erreurs viennent alors affecter le Fig. 73 - Principe de l’entrelacement
message reçu. Ces 4 erreurs se suivent et empêchent
toute correction simple d’un des paquets (3 erreurs !). Mais après désentrelacement, ces erreurs sont
convenablement réparties sur chacun des paquets ; 4 paquets sont affectés d’une seule erreur et une
méthode de correction simple permettra de récupérer le message original. Sans entrelacement, cette
méthode serait restée inefficace.
Message original carte niche vieux poule tasse route verre

Entrelacement s---- na--- vir--- pict- toehe rauue voslx


Réception du
s---- na--- vir--- pict- toehe raXXX Xoslx
message – 4 fautes
Désentrelacement carte nichX vieXx poXle tasse route Xerre
Tableau 3 – Répartition des erreurs à l’aide d’un entrelacement

Une autre technique proche de l’entrelacement est le brassage. Cette technique permet
d’éviter de longues suites de ‘0’ et de ‘1’ qui vont créer une ou plusieurs raies spectrales à forte
énergie, et de répartir uniformément l’énergie sur le spectre du canal. Dans les chapitres suivants, nous
verrons que cette technique s’apparente à ajouter au signal de la diversité fréquentielle. Ainsi, même
sans présence de signal en entrée, un flux digital est transmis, ce qui facilite la synchronisation de
l’horloge du récepteur nécessaire à la récupération des données. Cette technique est utilisée par
exemple dans la DVB. La figure 74 présente un schéma de principe du circuit utilisé en DVB pour
brasser des données à l’aide d’un générateur pseudo-aléatoire. C’est le même circuit qui est utilisé
pour « débrasser » les données.

A. Boyer 75
Canaux de transmissions bruités Septembre 2011

1 0 0 1 0 1 0 1 0 0 0 0 0 0 0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Registre à décalage

+
Générateur pseudo-aléatoire

Données
enable AND + brassées

Données
Fig. 74 - Principe du brassage utilisé en DVB

VIII.Ce qu’il faut retenir

⇒ Afin de se protéger contre le bruit, les perturbations externes et les effets parasites du
canal de transmission, le canal peut être rendu plus robuste à l’aide de techniques
spéciales implémentées sur les émetteurs et les récepteurs. Elles aident à augmenter la
capacité et la rapprocher des limites théoriques.
⇒ Les techniques qui modifient le contenu d’un signal numérique pour rendre le canal
plus robuste face au bruit sont qualifiées de codage de canal.
⇒ Les techniques de codage de canal sont assurées par la couche liaison de données dans
le cadre du modèle ISO/OSI.
⇒ La technique de codage de canal la plus courante est l’ajout de codes
détecteur/correcteur d’erreurs.
⇒ Dans le cas d’un code détecteur d’erreurs, le récepteur demande généralement une
retransmission des données. Dans le cas d’un code correcteur d’erreurs, le message
initial pourra être retrouvé à condition que peu de bits soient erronés. Le nombre
maximal de bits erronés dépend des performances du code.
⇒ D’autres techniques courantes de codage de canal visent à mélanger l’ordre des bits
dans un message binaire (entrelacement) ou à introduire des bits supplémentaires pour
ajouter de la diversité fréquentielle au signal (brassage).

A. Boyer 76
Canaux de transmissions bruités Septembre 2011

F. Techniques de fiabilisation d’un canal


de transmission sur la couche physique

Dans le chapitre précédent, nous avons vu qu’il était possible de rendre un canal de
transmission robuste par codage du message à transmettre. Il est aussi possible d’accroître la fiabilité
d’une transmission en agissant sur le signal électrique à transmettre. Cela se traduit par des techniques
de mise en forme du signal, de filtrage du signal reçu, de modulations, d’égalisation, d’accès multiples
ou d’ajout de diversité. Ces techniques concernent les couches physiques des systèmes de transmission
(fig. 66).

I. Couche physique
La couche physique définit la façon dont le signal est transmis. Elle assure le transfert
physique des données binaires entre les différents systèmes communicants d’un réseau en fonction des
propriétés du support de transmission (électriques, électroniques, optiques …). Cette couche a pour
missions principales de garantir la représentation correct des bits (niveaux électriques, timing…),
synchroniser les bits avec une horloge système pour garantir un échantillonnage correct, et définir le
support de transmission. La couche physique peut être subdivisée en 3 sous couches (fig. 75) :
 Sous couche Medium Dependent Interface (MDI) : connectique avec le support de
transmission
 Sous couche Physical Medium Attach (PMA) : définit les caractéristiques physiques des
émetteurs et récepteurs
 Physical Signalling (PLS) : codage/décodage des bits (niveaux électriques associés aux
bits), bit timing, synchronisation des bits

7. Application
6. Présentation
5. Session
4. Transport
Physical Signalling (PLS)
3. Réseau
2. Liaison de données Physical Medium Attach (PMA)
1. Physique
Medium Dependent Interface (MDI)

Fig. 75 – Couche physique

II. Mise en forme électrique – code en ligne – codage


bande de base
Le codage de canal se traduit aussi par la mise en forme électrique du signal numérique, qui
consiste à faire la correspondance entre les symboles du message et les impulsions électriques qui
seront physiquement transmises sur le canal. Cela s’apparente à une modulation en bande de base. Le
choix du code en ligne se fait selon certains critères, notamment celui d’assurer la compatibilité

A. Boyer 77
Canaux de transmissions bruités Septembre 2011

entre le débit à transmettre et la bande passante du milieu de transmission. En choisissant la


méthode de codage appropriée, on peut donner certaines caractéristiques avantageuses au
signal :
 modification de l’occupation spectrale (meilleure adaptation au support de transmission,
notamment la suppression de la composante continue, de la porteuse et de bandes de
fréquences superflues afin d’améliorer le rendement énergétique)
 synchronisation de l’horloge du récepteur sur le flux numérique reçu
 utilisation de la redondance intrinsèque du code pour la détection des erreurs

La sélection d'une méthode de codage consiste à rechercher le meilleur compromis entre


certains des avantages cités auparavant et la dégradation du rapport signal à bruit. Ce compromis
dépend avant tout du support de transmission. Les codes peuvent être à symboles indépendants dans le
cas où l’apparition de chaque symbole est équiprobable et décorrélée de l’apparition des autres.

1. Code NRZ (Non Return to Zero) binaire


Deux niveaux de tension différents de 0 sont utilisés pour coder chacun des états binaires. Le
plus souvent, on choisit une tension négative pour le bit ‘0’. Il n’y a jamais de passage à la tension
nulle, on dit qu’il n’y a pas de transitions. La version la plus simple est le code NRZ-L (Level). Pour
chaque période de bit Tb, la valeur du signal Sk pour chaque bit bk est calculée de la manière suivante :
Sk = +V si bk = '1'
Sk = −V si bk = '0 '
Il s’agit donc d’un signal rectangulaire de largeur Tb. La figure 76 présente un exemple de
chronogramme d’un code NRZ accompagné de sa transformée de Fourier. La période de bit Tb est de
10ns, donc la fréquence de bit ou de rythme Fb est de 100MHz. En annexe C, l’expression théorique
d’un signal binaire codé en NRZ est démontrée.

Fig. 76 - Code NRZ (chronogramme et densité spectrale de puissance)


L’énergie d’un signal codé en NRZ est principalement situé sur la bande [0;Fb], qui contient le
lobe principal du spectre. Une composante continue existe, ce qui peut être pénalisant en terme de
rendement énergétique si le canal bloque la composante continue (exemple des antennes), puisque de
de l’énergie est consommée pour rien. De plus, aucune raie n’est présente à la fréquence de bits Fb, ce
qui rend difficile la récupération d’un signal d’horloge de synchronisation de la réception du signal
(démodulation synchrone). Le fait qu’il n’y ait pas de raies en Fb provient du fait qu’il n’y a pas
forcément de transition tous les Tb.

2. Code RZ (Return to Zero) binaire


Dans le code RZ, le niveau ‘0’ est codé par un signal nul. Il s’agit d’un signal rectangulaire
d’amplitude +V, unipolaire et de largeur [0;λTb], suivi d’un retour à 0 pendant l’intervalle [λTb ;Tb].
Λ est un nombre compris entre 0 et 1.

A. Boyer 78
Canaux de transmissions bruités Septembre 2011

 V ∀t ∈ [ 0; λTb ]
+
Sk =  si bk = '1'
0 ∀t ∈ [ λTb ; Tb ]
Sk = 0 si bk = '0 '
La figure 77 présente un exemple de chronogramme d’un code RZ et de sa transformée de
Fourier. Le message binaire est le même que dans l’exemple précédent, la fréquence de rythme est
similaire. On prend dans cet exemple λ=0.5.

Fig. 77 - Code RZ (chronogramme et densité spectrale de puissance)

Ce codage entraîne toujours l’apparition d’une composante continue. Pour λ=0.5, le codage
RZ permet de récupérer une raie à la fréquence de commutation des bits ce qui va faciliter la
récupération du rythme de la transmission en réception. Néanmoins, l’apparition de cette raie suppose
la stationnarité des éléments binaires, c'est-à-dire une séquence équilibrée de ‘0’ et de ‘1’. Si une
longue suite de ‘0’ apparaît dans le message, le signal transmis reste nul pendant un long laps de
temps. L’amplitude de la raie à Fb décroît alors fortement et la puissance du signal recueilli peut
devenir insuffisante pour assurer la récupération du rythme. Le récepteur peut alors perd sa
synchronisation.

3. Code binaire biphase (code Manchester)


La règle du codage est la suivante.
  T 
 +V ∀ t ∈  0; b 
  2
Sk =  si bk = '1'
 −V T 
∀ t ∈  b ; Tb 
  2 
  T 
 −V ∀ t ∈  0; b 
  2
Sk =  si bk = ' 0 '
 +V T 
∀ t ∈  b ; Tb 
  2 

La figure 78 présente un exemple de chronogramme d’un code Manchester et de sa


transformée de Fourier. Le message binaire est le même que dans l’exemple précédent, la fréquence de
rythme est similaire.

A. Boyer 79
Canaux de transmissions bruités Septembre 2011

Fig. 78 - Code Manchester (chronogramme et densité spectrale de puissance)


Cette fois, le spectre du code Manchester ne contient pas de composante continue, ce qui
pouvait se prévoir de manière statistique. On peut ainsi transmettre sur le même canal une tension
d’alimentation continue et le signal informatif sans perturber ce dernier. Puisqu’il y a toujours des
transitions tous les Tb, on peut récupérer une raie à Fb et reconstituer le signal d’horloge à l’aide d’un
filtre sélectif centré sur Fb. Cependant, par rapport au code NRZ, l’occupation spectrale du code
Manchester est plus large [0 ;2×Fb]. Le codage Manchester est notamment utilisé dans la norme
Ethernet.

4. Code bipolaire RZ ou Alternate Marked Inversion


Contrairement aux codes en ligne précédents, ce code n’est pas à symboles indépendants. Il
permet d’ajouter une corrélation entre les symboles transmis, alors qu’il n’en existait aucune dans la
source du message, où tous les symboles étaient indépendants. L’ajout d’une certaine corrélation entre
les symboles ajoute une redondance à l’information sans avoir à ajouter de bits supplémentaires. La
règle du codage est la suivante.
  Tb 
 nV ∀t ∈  0; 2 
  
Sk =  si bk = '1', n var ie alternativement de + 1 à − 1.
 −nV ∀t ∈  Tb ; T 
  2 b
 
S k = 0 si bk = '0 '
La figure 79 présente un exemple de chronogramme d’un code AMI et de sa transformée de
Fourier. Le message binaire est le même que dans l’exemple précédent, la fréquence de rythme est
similaire.

Fig. 79 - Code AMI (chronogramme et densité spectrale de puissance)


Ce codage présente plusieurs intérêts :

A. Boyer 80
Canaux de transmissions bruités Septembre 2011

 Il permet une détection d’erreur en contrôlant la somme des symboles, sans avoir à ajouter
de bits redondants
 La composante continue est nulle
Par contre, aucune raie à Fb n’est présente. Cependant, on peut néanmoins récupérer l’horloge
bit. Si on effectue un redressement double alternance, on retrouve un codage RZ qui présente une raie
à Fb. Mais des problèmes de perte de synchronisation peuvent apparaître. D’autres méthodes à
symboles dépendants ne présentant pas ce problème ont été imaginées (code HDBn) mais nous ne les
traiterons pas.

III. Filtrage et pulse shapping


1. Filtrage
La fonction filtrage est présente en différents endroits d’un émetteur et d’un récepteur afin d
réduire la bande passante du signal, cela pour 2 raisons :
 limiter l’occupation spectrale du signal et transmettre sur un canal à bande étroite sans
perturber les canaux adjacents
 bloquer les signaux indésirables (signaux hors bande) et limiter le bruit (dans le cas d’un
bruit blanc, son amplitude en puissance est directement proportionnelle à la bade passante
du canal)

La réponse des filtres peut être caractérisée soit dans le domaine fréquentiel par la fonction de
transfert, soit dans le domaine temporel par la réponse impulsionnelle. Ces filtres peuvent être
analogiques (à base de composants passifs RLC) ou digitaux (filtres FIR ou IIR synthétisés par des
composants digitaux de traitement de signal).
Les filtres doivent cependant ne pas introduire trop d’atténuation sur la bande passante et ne
pas distordre le signal transmis ou reçu. De plus, en réduisant l’occupation spectrale d’un signal
numérique, ces fronts ralentissent et le risque d’apparition d’interférences intersymboles s’accroît. Il
convient de s’assurer que ces filtres respectent le critère de Nyquist dans le temps. En d’autre terme, le
filtre ne doit pas dégrader le signal numérique à l’instant où celui-ci est échantillonné pour détecter
son état binaire.
La figure ci-dessous indique les positions typiques des filtres dans un canal de transmission
(toutes ne sont pas représentées). Le filtre de mise en forme (pulse shaping) est un filtre passe-bas
appliqué sur le signal en bande de base avant la modulation. Il permet de réduire l’occupation spectrale
du signal modulé (voir annexe C pour le spectre d’un signal numérique). Comme il ralentit et étale le
signal numérique, il est nécessaire de s’assurer qu’il n’introduit pas d’interférences intersymboles. En
entrée et en sortie du medium de transmission, on trouve des filtres passe bande centrés sur la bande
passante du canal. Ils servent à supprimer le bruit hors bande. Enfin, on trouve aussi un filtre de mise
en forme en sortie de l’étage de démodulation afin d’annuler l’interférence intersymbole.
EMETTEUR
Mise en Suppression du
forme bruit hors bande
Signal binaire
bande de base Traitement Modulation
bande de base
amplification

Medium de
transmission
Mise en
Signal binaire forme amplification
bande de base Traitement Démodulation
bande de base
Suppression du
bruit hors bande
RECEPTEUR

Fig. 80 – Positions typiques du filtrage dans un canal de transmission

A. Boyer 81
Canaux de transmissions bruités Septembre 2011

2. Pulse shaping – Filtre à cosinus surélevé


L’interférence intersymbole est un effet inévitable dans les communications filaires et
hertziennes, lié à leurs caractéristiques. La solution immédiate pour s’en prémunir est de ralentir le
débit su signal transmis. En effet, comme le canal de transmission tend à étaler dans le temps chaque
symbole transmis, on réduit ainsi le risque de recouvrement de symboles adjacents. Cependant, que
faire pour réduire l’interférence intersymbole s’il n’est pas possible de réduire le débit ?
La solution réside dans la mise en forme du signal binaire (pulse shaping). Considérons un
signal formé d’impulsions. Le principe est de s’assurer qu’à l’instant de l’échantillonnage du signal
reçu pour déterminer l’état binaire transporté, l’interférence intersymbole s’annule. Ailleurs, même si
les symboles se recouvrent, cela n’a pas d’importance. Pour cela, on va « tailler » la forme temporelle
des impulsions de manière à ce que :
 elles occupent une bande de fréquence étroite
 une impulsion s’annule au moment où on échantillonne une autre impulsion

Pourquoi une impulsion de forme rectangulaire n’est pas souhaitable ? Parce que son spectre
tend à occuper une bande fréquentielle très large, proche d’une fonction sinus cardinal (voir annexe
C). Une première forme temporelle qui pourrait parfaitement convenir est justement un sinus cardinal.
La transformée de Fourier d’un sinus cardinal est une fonction porte, donc le spectre de ce signal est à
bande limitée : sa bande passante est égale au débit de symbole divisé par 2, qui est la bande passante
de Nyquist (voir annexe D) ! En outre, la fonction sinc respecte le critère de Nyquist dans le temps,
puisqu’elle s’annule régulièrement dans le temps. Si on synchronise l’échantillonnage des symboles
sur les zéros de la fonction sinc, alors un symbole ne peut plus interférer avec les symboles suivants.
Cependant, en pratique, ce type de mise en forme est très délicate à mettre en œuvre. Ensuite, les
temps de montée et de descente de la fonction sinc sont grands. Si une erreur temporelle affecte
l’instant d’échantillonnage, alors il y aura interférence intersymbole.

Une autre classe de forme temporelle très largement utilisée est celle des fonctions en cosinus
surélevé (ou raidi) (voir annexe E). Cette fonction est une modification de la fonction sinc :
 πrt 
cos 
 t  T
 S  (Équation 79)
f (t ) = sin c  2
 S   2rt 
T
1 −  
 TS 
Ts : période symbole
r : facteur de roll-off

Elle est caractérisée par le facteur de roll-off qui permet d’ajuster la bande passante et de se
rapprocher de la bande passante de Nyquist. Pour un facteur de roll-off de 0 %, la bande passante est
égale à la bande passante de Nyquist (on obtient alors une fonction sinc). Pour un facteur de roll-off de
100 %, la bande passante est égale à 2 fois la bande passante de Nyquist. Les 2 figures ci-dessous
comparent la réponse temporelle et le spectre d’une impulsion passée à travers un filtre en cosinus
surélevé de facteur de roll-off = 0, 0.5 ou 1. Le débit de symbole est de 500 Kbauds. Plus on augmente
le facteur de roll-off, moins l’impulsion s’étale et plus le risque d’interférences intersymboles diminue.
Par contre, l’occupation spectrale s’élargit. On appelle l’excès de bande passante la bande passante
supplémentaire occupée par le signal par rapport à la bande passante de Nyquist BNyquist. On peut
montrer que l’excès de bande passante Wo est égal à :
W0 = r × B Nyquist = r × FS (Équation 80)

A. Boyer 82
Canaux de transmissions bruités Septembre 2011

Fig. 81 – Réponse temporelle d’une impulsion passée à travers un filtre en cosinus surélevé

Excès de bande
passante
Bande passante
de Nyquist

Fig. 82 – Spectre d’une impulsion passée à travers un filtre en cosinus surélevé


En pratique, le facteur de roll-off est compris entre 0.2 et 0.4. En pratique, ce type de filtre
n’est pas implémenté directement. On préfère le dispatcher en 2 filtres en racine de cosinus surélevé,
placés sur l’émetteur et le récepteur. La réponse globale des 2 filtres est équivalente à un filtre en
cosinus surélevé, mais le résultat est meilleur.

IV. Accès multiples


Les accès multiples ou multiplexage sont un moyen courant pour transmettre simultanément
les messages provenant de plusieurs sources sur un même canal, permettant à une même ressource
d’être partagée entre plusieurs utilisateurs. Outre l’optimisation de l’utilisation du canal de
transmission, les techniques d’accès multiples offrent certains avantages en terme de fiabilisation de la
transmission. Afin qu’un accès multiple fonctionne, il est nécessaire de définir d’une part le principe
de l’allocation de la ressource à une demande de communication et d’autre part le principe de partage
de la ressource. Cette gestion est assurée par une couche basse des protocoles de communication,
appelée Medium Access Control (MAC) dans le cas de réseaux locaux. Le but de cette couche est de
définir la méthode d’accès au canal de transmission afin de « se faire entendre et comprendre des
autres ». Elle reste néanmoins indépendante de la couche physique dont le rôle est d’interfacer le
système de communication au canal de transmission.
Un canal bidirectionnel est déjà un canal partagé entre 2 utilisateurs, qui ont une liaison en
mode duplex. Cependant, le partage est limité à 2 utilisateurs au maximum. Afin d’assurer un partage
entre plus d’utilisateurs, des méthodes d’accès déterministes ont été développées. Elles consistent à
allouer une fraction de la ressource à des utilisateurs pour la durée de la communication. Chaque

A. Boyer 83
Canaux de transmissions bruités Septembre 2011

ressource est alors isolée des autres en assurant l’orthogonalité entre les différents sous-canaux, ce qui
évite toute interférence entre les utilisateurs. Il existe trois types de partage de canal de transmission,
qui sont résumées sur la figure 83.

Remarque : la propriété d’orthogonalité indique si deux entités (signaux, codes, …) sont


séparables, c’est à dire qu’en leur appliquant une opération donnée, on trouve un résultat nul. Ainsi,
deux droites orthogonales ont un produit scalaire nul.

Utilisateur N
Utilisateur N

Utilisateur N
Utilisateur 3
Utilisateur 1

Utilisateur 2

Utilisateur 3


Utilisateur 1

Utilisateur 2

ce
ps

en
tem
… …

qu
Utilisateur 3

fré

ps
tem
Utilisateur 2
fréquence temps Utilisateur 1
fréquence

FDMA TDMA CDMA


Fig. 83 - Les différentes méthodes d’accès multiples déterministes

 Frequency Division Multiple Access (FDMA) : les utilisateurs se partagent le canal dans
le domaine fréquentiel et émettent sur un sous-canal donné. Les canaux adjacents ne se
recouvrent jamais grâce à l’utilisation d’intervalle de garde entre chaque voie, les rendant
ainsi orthogonales. Les différents utilisateurs n’ont pas besoin d’être synchronisés entre eux
ce qui rend cette technique simple à mettre en œuvre par rapport aux autres. De plus, c’est la
seule technique de multiplexage qui peut être employée avec des signaux analogiques.
Cependant, cette technique présente un des inconvénients majeurs des communications
radio, celui des évanouissements sélectifs. Une bande de fréquence étroite peut subir
pendant une durée assez longue une forte atténuation. Pour y remédier, il est possible
d’introduire des sauts de fréquence (frequency hoping) suivant un motif prédéfini. Ainsi,
l’utilisateur change régulièrement de bande de fréquence, réduisant la durée pendant
laquelle il est susceptible de subir un évanouissement sélectif. De plus, afin d’éviter que
chaque canal adjacent ne se recouvre à cause des élargissements de spectre que peuvent
subir les signaux, les émetteurs doivent être munis de filtres très sélectifs. Ceux-ci doivent
remplir des conditions très strictes au niveau de leur spectre d’émission. Enfin, la gestion de
l’allocation de la ressource n’est pas optimale. En effet, dans le cas où peu d’utilisateurs
communiquent, une partie des canaux reste alors inutilisée.

 Time Domain Multiple Acces (TDMA) : les utilisateurs se partagent le même canal
fréquentiel dans le domaine temporel, qui est découpée en intervalles de durée fixe appelés
Time Slots (fig. 84). L’émission est donc discontinue et se fait par rafales (bursts). Cette
technique ne peut s’appliquer qu’à des communications numériques synchrones, dont les
messages ont été découpés en trames, et nécessitent de nombreux signaux de contrôle. Les
trames des différents utilisateurs ne doivent pas interférer entre eux, d’où l’ajout
d’intervalles de garde entre chaque bursts, rendant chaque voie orthogonale aux autres. La
capacité de chaque utilisateur diminue à mesure que leur nombre augmente. Cependant, il
permet une gestion plus souple de l’allocation de la ressource car la ressource sera toujours
entièrement utilisée. Néanmoins, le TDMA comme le FDMA émettent sur des bandes
étroites déterminées et souffrent du phénomène d’évanouissements sélectifs dus à la
propagation multi trajets des signaux. Cette technique est très utilisée en
télécommunication, et est utilisée avec le FDMA en téléphonie mobile (GSM).

A. Boyer 84
Canaux de transmissions bruités Septembre 2011

Fig. 84 – Partage du canal par TDMA

 Code Division Multiple Access (CDMA) : il s’agit d’une méthode d’étalement de spectre
obtenue soit par saut de fréquence soit par modulation d’un signal à débit plus élevé (Direct
Sequence Spread Spectrum), s’appliquant uniquement aux communications numériques. Le
système de gestion permet à plusieurs utilisateurs d’émettre en même temps sur toute la
bande de fréquence. Mais pour que le destinataire sépare le message qui lui est attribué des
autres, chaque utilisateur émet avec un code qui lui est propre. Ce code est une séquence
pseudo-aléatoire unique et orthogonale aux autres codes. Elle va permettre de gérer les sauts
de fréquence et d’éliminer le bruit binaire dû aux autres communications. Ainsi, seul le
signal ayant le même code que le destinataire sera desétalé. L’utilisateur partage donc la
même bande que les autres utilisateurs. Cette technique est parfois surprenante car le signal
détecté est en général sous le niveau de bruit, puisqu’il se retrouve noyé avec les autres
signaux émis dans un signal aléatoire sur l’unique bande de fréquence allouée. La figure 85
illustre le processus d’étalement/desétalement de spectre employé en CDMA. Elle permet
d’obtenir une très bonne efficacité spectrale et de combattre très efficacement les
évanouissements sélectifs grâce une bande de fréquence plus large. Cependant, comme
plusieurs utilisateurs émettent sur la même bande de fréquence, ils contribuent à dégrader
les performances en augmentant le bruit de fond. Il s’agit là du principal facteur limitant de
cette technique. De plus, elle requiert d’importantes capacités de calcul et donc l’utilisation
de composants coûteux. Le CDMA a été initialement développé au Etats-Unis et a servi en
téléphonie mobile et en télécommunications spatiales (GPS). Ce système a subi plusieurs
évolutions et connaît aujourd’hui un succès important comme avec le Wide-CDMA (W-
CDMA) pour la téléphonie 3G.

Bruit de fond

Interférences

Autres utilisateurs

Fig. 85 – Principe du processus étalement/desétalement de spectre employé en CDMA

A. Boyer 85
Canaux de transmissions bruités Septembre 2011

V. Diversité
Comme nous l’avons vu, la plupart des systèmes de transmission est soumise à des problèmes
de propagation multi-trajet, qui provoque des évanouissements sélectifs de très fortes valeurs. En
général, la durée de ces évanouissements est en général grande devant la période du signal binaire. Si
un signal subit un évanouissement sélectif, de nombreuses techniques servant à fiabiliser la
transmission, telle que l’ajout de codes correcteur d’erreurs deviennent inefficaces.
Il existe un moyen pour remédier à ce problème : proposer différents chemins de transmission
à un même signal. Cela peut consister à « éparpiller » l’information dans le message à transmettre (par
exemple entrelacement des données) ou bien de le transmettre/recevoir par différents canaux. En
télécommunications, on dit qu’on ajoute de la diversité aux chemins de propagation. Il s’agit de
transmettre simultanément un message sur plusieurs canaux totalement indépendants qui présenteront
des caractéristiques différentes. La diversité peut se présenter sous différentes formes :

 diversité fréquentielle : l’information est transmise sur différentes porteuses suffisamment


espacées en fréquence pour qu’elles ne subissent pas le même évanouissement sélectif. Il est
cependant nécessaire de disposer d’un canal avec une bande de fréquence suffisamment
large pour que les porteuses restent éloignées et soient affectées d’une manière différente
par la sélectivité du canal
 diversité temporel : l’information est transmise sur une seule et même porteuse mais
plusieurs fois à des instants différents. Cependant, un délai est nécessaire pour récupérer et
décoder toute l’information. Ce délai peut devenir inadmissible dans le cas d’applications
temps réel (voix, vidéo). L’entrelacement vu précédemment ajoute de la diversité
temporelle.
 diversité spatial ou de réception : dans le cas de radiocommunications, plusieurs antennes
sont utilisées au niveau de l’émetteur et du récepteur. Celles-ci sont espacées d’un multiple
de λ/4 ou λ/2 pour optimiser la diversité.

Remarque :

Une méthode de diversité qui connaît un très grand succès ces dernières années est la
modulation Orthogonal Frequency Division Multiplexing (OFDM), qui ajoute de la diversité
fréquentielle. Il s’agit d’une modulation multi-porteuses qui va permettre d’adapter l’information à
transmettre au canal. Le principe de l’OFDM est décrit par la figure 86.

Fig. 86 – Principe de la modulation OFDM

Elle consiste à séparer l’information à transmettre en N blocs et à les transmettre en parallèle


sur N porteuses différentes et orthogonales (des multiples d’une fréquence fondamentale). Si les

A. Boyer 86
Canaux de transmissions bruités Septembre 2011

fréquences de ces N porteuses sont suffisamment éloignées, elles ne seront pas atténuées de la même
façon par le canal. Si toutes les porteuses sont émises avec la même puissance, la mesure de
l’amplitude de chacune des porteuses par le récepteur permet de déterminer la fonction de transfert du
canal et d’apporter une correction pour égaliser ou compenser l’effet du canal. Des séquences de bits
spéciales sont envoyées périodiquement pour déterminer les facteurs de correction à apporter.
L’opération employée pour générer le signal OFDM est classique puisqu’il s’agit d’une transformé de
Fourier rapide (FFT) inverse. De même, l’opération de démodulation emploie une FFT. Le
développement ces dernières années des circuits de Digital Signal Processing a aidé à la réalisation
technique de l’OFDM.
Cette technique permet de lutter efficacement contre le phénomène d’évanouissement sélectif
puisqu’elle permet non seulement d’égaliser le canal, mais en plus de détecter quelles sont les bandes
qui subissent un évanouissement sélectif. Une fois ces bandes détectées, celles-ci ne seront plus
utilisées. Cependant, l’OFDM est très sensible au décalage en fréquence des porteuses, qui peut faire
perdre l’orthogonalité. Cela pose de fortes contraintes sur les oscillateurs locaux des émetteurs et des
récepteurs, ainsi que sur l’effet Doppler maximal. Néanmoins, si l’évanouissement sélectif causé par le
canal annule une des porteuses, alors une partie du signal informatif est définitivement perdue. Ainsi,
dans la modulation Coded OFDM (COFDM), les données sont brassées et elles se retrouvent
éparpillées dans les différents blocs. Grâce à ses avantages, la modulation OFDM est utilisée dans de
nombreux systèmes de communication : DVB, radio numérique (DAB), Wimax, WiFi, Hiperlan 2,
ADSL.

VI. Ce qu’il faut retenir

⇒ Une transmission peut être fiabilisée en modifiant de manière adéquate les propriétés
physiques du signal.
⇒ La mise en forme électrique d’un signal numérique ou code en ligne permet de
modifier son occupation spectrale, améliorer la synchronisation du récepteur ou
d’ajouter de la redondance afin de détecter d’éventuelles erreurs.
⇒ Le filtrage est utilisé dans l’émetteur et le récepteur pour supprimer les signaux
indésirables et réduire l’occupation spectrale du signal transmis.
⇒ Afin de réduire l’interférence intersymbole, il est possible de mettre en forme le signal
en bande de base à l’aide d’un filtre dit de pulse shaping. Les filtres à cosinus raidi
sont couramment employés pour la remise en forme des signaux. Ils offrent un bon
compromis entre réduction de l’interférence intersymbole et diminution de
l’occupation spectrale
⇒ Les techniques d’accès multiples sont courantes en télécommunications afin de
partager le canal entre plusieurs utilisateurs. Le canal peut être partagé en fréquence,
dans le temps ou selon des codes. Ces techniques offrent différents avantages en
termes d’optimisation de l’utilisation du canal et de robustesse face au bruit.
⇒ L’ajout de diversité consiste à diversifier les canaux empruntés par le signal (plusieurs
fréquences, à différents instants, plusieurs chemins de propagation) et ainsi le rendre
plus robuste face au bruit.

A. Boyer 87
Canaux de transmissions bruités Septembre 2011

G. Régénération d’un signal

La régénération d’un signal a pour objet la récupération aussi fidèle que possible des
symboles émis par le récepteur, après que ce signal ait été affaibli, déformé et perturbé par son passage
à travers le canal de transmission. Son rôle est de débarrasser le signal des perturbations et des
distorsions qui l’affectent, notamment à l’aide de filtres et d’égaliseurs, puis de l’interpréter en
fonction des valeurs que peut prendre le signal. En outre, dans le cas d’une transmission synchrone, le
signal reçu doit être échantillonné à des instants précis afin de retrouver le flux binaire original. Cela
nécessite de reconstituer avec précision l’horloge de cadencement du message transmis. La qualité de
service, c'est-à-dire la capacité du système de réception à délivrer des messages avec le minimum
d’erreurs, dépend des caractéristiques du récepteur et de sa capacité à reconstituer fidèlement le signal
malgré les effets parasites du canal de transmission.

I. Structure d’un régénérateur synchrone


La figure 87 présente la structure classique d’un régénérateur synchrone dans un récepteur
sous la forme d’un schéma bloc. Le régénérateur va reconstituer à partir du signal reçu un signal
binaire aussi fidèlement que possible du flux binaire transmis. Le signal n’a sans doute pas été
transmis directement en bande de base et il a certainement été multiplexé, modulé et filtré. La « tête
RF » ou « RF front end receiver » est le premier élément de la chaîne de réception et va assurer
l’amplification, le filtrage, la démodulation et le démultiplexage du signal reçu afin d’extraire le signal
de bande de base. Cependant, en raison des effets parasites du canal (dispersion temporelle, bruit) et
des filtres de l’émetteur visant à réduire l’occupation spectrale du signal, le signal de bande de base
reçu est déformé et le risque d’interférences inter symbole est très élevé.

Filtre de réception
Egaliseur échantillonneur Mise en forme
Signal RF T


reçu Bande de dt
Affaiblis, base Signal binaire
0
déformés, reconstitué
perturbés Amplification Corrélateur Décision
Démodulation

filtre
Fb=1/Tb
Extraction
horloge
Oscillateur
local

Fig. 87 - Schéma-bloc d’un régénérateur synchrone


Le régénérateur est composé de plusieurs circuits digitaux qui vont réduire les interférences
inter symboles et ainsi le taux d’erreur binaire :
 Filtre de réception : de manière générale, les filtres de réception vont supprimer les
interférences hors bande et réduire l’interférence inter symboles.
 Egaliseur : un égaliseur est un filtre de réception particulier qui vise à compenser les effets
parasites du canal et annuler l’IES.

A. Boyer 88
Canaux de transmissions bruités Septembre 2011

 Corrélateur : les messages binaires sont parfois codés (CDMA par exemple). Certains codes
possèdent des propriétés de corrélation. En exploitant ces propriétés, il est possible
d’améliorer la détection du signal pour un SNR donné. La corrélation consiste en général à
multiplier le signal reçu par le code original puis à l’intégrer dans le temps sur une période
donnée. S’il existe une corrélation entre le code initial et le code qui nous a servi à
multiplier, alors il existe une forte corrélation entre ces signaux et le résultat de l’intégration
donnera un signal de forte amplitude. Sinon, la corrélation sera faible et le résultat de
l’intégration quasi nul.
 Détection : une fois le signal binaire reconstitué, il est nécessaire de l’interpréter, c'est-à-dire
reconnaître la valeur prise par chaque symbole parmi les M valeurs possibles. Un détecteur
à seuil effectue cette opération de discrimination, le choix des valeurs des seuils est faite
afin de minimiser la probabilité d’erreur.
 Echantillonnage : les signaux digitaux doivent être échantillonnés à chaque période, et à des
instants précis de chaque période, là où l’influence du bruit et de l’IES sera minimale.
 Extraction de l’horloge : les signaux digitaux sont généralement transmis sans l’horloge de
cadencement du flux binaire. Or, celle-ci est indispensable pour échantillonner correctement
le signal reçu. Le récepteur connaît certes par défaut la fréquence du signal binaire reçu,
donc il est capable de générer un signal d’horloge de même fréquence. Cependant, celui-ci
doit aussi être en phase avec le signal reçu. L’extraction de l’horloge va permettre de
synchroniser l’horloge créée par un oscillateur local sur le signal binaire reçu.

II. Egalisation
Comme nous l’avons vu dans les chapitres précédents, la transmission d’un signal numérique
à travers le système constitué par le canal de transmission et les filtres d’émission et de réception
conduit à l’ajout de bruit (dégradation du rapport signal à bruit) et à une déformation due aux
limitations de la bande passante du canal et à sa dispersion (qui provoque le phénomène
d’interférences inter symboles). La présence inévitable de bruit et d’interférences inter symboles
introduit des erreurs dans le dispositif de décision. La conception des filtres d’émission et de réception
vise à réduire le bruit et l’IES.
Dans la plupart des systèmes de télécommunications, le rapport signal à bruit reste
suffisamment élevé pour que le fonctionnement soit plus limité par l’IES que par le bruit. Un égaliseur
est un filtre dont le butest d’annuler l’IES provoqué par le canal en annulant ses effets parasites. Les
critères de Nyquist fixent les conditions pour lesquelles l’interférence intersymbole peut être éliminée
(équations 31 et 43). Si la réponse impulsionnelle ou la réponse fréquentielle d’un filtre ou d’un canal
respecte les critères de Nyquist, l’IES peut être annulé. L’égaliseur est donc conçu afin que l’ensemble
canal de transmission + égaliseur forme un filtre de Nyquist.

1. Principe de l’égalisation
En principe, si le canal est parfaitement connue, il est possible en théorie de minimiser voire
d’annuler l’IES à l’aide de filtre d’émission et de réception, de telle sorte que la chaîne complète de
transmission forme un canal de Nyquist. En pratique, on ne connaît que très rarement les
caractéristiques du canal, tout au plus que les caractéristiques moyennes. L’exemple type est le canal
hertzien, qui est fortement non stationnaire. En outre, il peut exister des imperfections dans les filtres.
Ces différents effets conduisent à maintenir une IES résiduelle et variable dans le temps qu’il faut
compenser. L’égaliseur va se charger de cette opération.
En bande de base, si les filtres d’émission et de réception forment un filtre de Nyquist, le rôle
de l’égaliseur sera de compenser l’effet du canal :

E( f ) = sur [− B, B ]
1
C( f )
(Équation 81)

A. Boyer 89
Canaux de transmissions bruités Septembre 2011

où E(f) représente la fonction de transfert de l’égaliseur et B la bande passante du canal.


Les parties qui suivent décrivent de manière succincte quelques structures classiques
d’égaliseurs. Pour plus de détails, vous pouvez vous reporter à des ouvrages spécialisés, certains vous
sont donnés dans les références.

a. Egaliseur transverse ou linéaire

Les égaliseurs transverses sont les plus simples à mettre en œuvre. Il s’agit de simples filtres
numériques linéaires à réponse impulsionnelle finie (FIR) (fig. 88). Ce sont des filtres non récursifs
qui présentent l’avantage de ne pas présenter de boucles de contre réaction et donc d’être toujours
stables. Leur fonction de transfert est calculée à partir de celle du canal pour annuler l’IES réponse
impulsionnelle du canal est parfaitement connue, il est possible de déterminer une réponse
impulsionnelle pour l’égaliseur de manière à donner une forme idéale à l’impulsion en sortie du filtre
égaliseur, comme le montre la figure 89.
Malgré leur simplicité, les égaliseurs transverses sont peu efficaces puisque la fonction de
transfert du canal doit être parfaitement connue, stationnaire et causal (échantillons nuls pour n<0), ce
qui est rarement le cas en pratique.

x[n] T T T

b0 b1 bn-1 bn

y[n]
Fig. 88 - Structure d’un égaliseur transverse
x[n] y[n]
1 Egaliseur 1
transverse
… …
t t
-1 0 1 2 N N+1 -1 0 1 2 N N+1

y[0] = b0 x[0] + b1 x[0 − 1] + b2 x[0 − 2] + .... + bN x[0 − N ] = 1


y[1] = b0 x[1] + b1 x[1 − 1] + b2 x[1 − 2] + .... + bN x[1 − N ] = 0
....
y[N ] = b0 x[N − 0] + b1 x[N − 1] + b2 x[N − 2] + .... + bN x[N − N ] = 0

Fig. 89 - Calcul des coefficients d’un égaliseur transverse

b. Egaliseur zero forcing


Un égaliseur à zero forcing cherche à compenser exactement la fonction de transfert du canal,
afin d’annuler complètement l’IES. La fonction de transfert du filtre égaliseur est alors l’inverse de
celle du canal, comme le montre l’équation 82. A partir de la transformée en Z, on peut en déduire la
réponse impulsionnelle du filtre, connaissant celle du canal. M représente l’ordre du filtre et R un
retard afin de prendre en compte une partie non causale de la réponse du canal.

A. Boyer 90
Canaux de transmissions bruités Septembre 2011

M −1
E (z ) = ∑ e(i )c(n − i ) = δ (n − R )
1

C (z )
(Équation 82)
i =0

Ce filtre présente néanmoins plusieurs défauts. Le premier concerne le risque d’instabilité. En


effet, si C(z) présente des zéros de module supérieur à 1, alors E(z) possède des pôles instables. En
outre, comme les canaux ont généralement des comportements de type passe bas, ce type d’égaliseur
est généralement un filtre de type passe haut. Si le bruit est large bande, alors il s’ensuit une nette
dégradation du rapport signal à bruit en sortie du filtre. Enfin, ce type d’égaliseur est statique et n’est
pas utilisable pour un canal non stationnaire. Il nécessite une estimation préalable de la réponse
impulsionnelle du canal.

c. Egaliseur à maximum de vraisemblance


La présence d’IES est caractéristique d’une mémoire dans le signal lié à un canal imparfait.
Comme il existe une interdépendance entre les symboles reçus, il est possible de reconstituer la
séquence de symboles transmis en maximisant la vraisemblance d’apparition du symbole. Cela se fait
en général en utilisant un algorithme de Viterbi. Celui-ci permet de sélectionner dans un treillis le
chemin de métrique le plus faible.
L’algorithme de Viterbi ne peut s’applique que sur un signal avec un bruit blanc superposé.
L’égaliseur à maximum de vraisemblance est sans doute celui qui affiche les meilleures performances,
mais c’est aussi le plus complexe. Il ne s’applique qu’à des séquences binaires courtes. Comme les
autres égaliseurs, il nécessite aussi une estimation préalable de la réponse impulsionnelle du canal.

d. Egaliseur adaptatif
Tous les égaliseurs précédents souffrent du défaut de considérer le canal stationnaire. En
pratique, les paramètres de l’égaliseur peuvent être remis à jour régulièrement, grâce à l’utilisation de
séquence d’apprentissage. Mais la période de remise à jour doit être suffisamment faible et rien
n’empêche le canal de se modifier entre deux remises à jour.
Les égaliseurs adaptatifs résolvent le double problème de méconnaissance du canal et
d’évolution dans le temps du canal. Les égaliseurs adaptatifs basés sur l’algorithme de gradient
stochastique sont parmi simples au niveau implémentation, stable et peu couteux. Cette approche vise
à minimiser l’erreur quadratique entre les séquences d’entrée et de sortie de l’égaliseur, les coefficients
du filtre étant modifiés au cours du temps. Néanmoins, les performances de ce type d’égaliseur
peuvent être limitées dans le cas de variations brutales du canal.
Il existe beaucoup d’autres techniques d’égalisation beaucoup plus avancées parmi lesquelles
les égaliseurs récursifs à retour de décision et les égaliseurs autodidactes.

2. Estimation du canal
En pratique, les caractéristiques du canal ne sont jamais parfaitement connues, ce qui peut
limiter l’efficacité de certaines méthodes d’égalisation, qui supposent un canal stationnaire et
requièrent une estimation de la fonction de transfert ou la réponse impulsionnelle du canal.
Il est alors nécessaire de réactualiser régulièrement l’estimation de la fonction de transfert du
canal et remettre à jour les paramètres de l’égaliseur. En pratique, la plupart des systèmes de
télécommunications émettent sous la forme de bursts (ou de manière intermittente), ce qui autorise
l’insertion de trames supplémentaires et spécifiques entre chaque burst. Ces séquences, appelées
séquences d’apprentissage, sont connues par le système et vont permettre d’identifier la fonction de
transfert du canal à un instant T. Elles doivent présenter de fortes propriétés d’autocorrélation (proche
d’un Dirac). En effet, si on appelle d(t) la séquence d’apprentissage, le signal reçu peut s’écrire sous la
forme :
y (t ) = d (t ) * c(t ) + n(t )
Si le bruit est négligeable, après intercorrélation du signal reçu avec la séquence
d’apprentissage, on obtient :

A. Boyer 91
Canaux de transmissions bruités Septembre 2011

R yd (t ) = y (t ) * d (− t ) = d (t ) * d (− t ) * c(t ) = Rd (t ) * c(t )
où Rd(t) est la fonction d’autocorrélation de la séquence d(t). Si celle-ci est proche d’un Dirac,
on obtient alors :
R yd (t ) ≈ c(t )
En réalisant l’intercorrélation entre la séquence d’apprentissage et le signal reçu, il est possible
de déterminer la réponse impulsionnelle du canal. En général, la séquence d’apprentissage doit être
assez courte pour ne pas pénaliser le débit de données utiles, et ne présente pas une fonction
d’autocorrélation aussi idéale, ce qui limite l’identification du canal.

Exemple : Dans le cas du GSM, chaque trame de données ou slot contient une séquence
d’apprentissage de 26 bits, appelée Constant Amplitude Zero AutoCorrelation (CAZAC). En tout, huit
séquences CASAC différentes peuvent être utilisées afin de réduire les interférences entre cellules
proches fonctionnant à la même fréquence.

GSM – trame TDMA

… …

1 slot = 156 bits = 577 µs

séquence période
données données
apprentissage de garde

58 bits 26 bits 58 bits


Fig. 90 - Exemple de séquence d’apprentissage : séquence CAZAC pour le GSM

III. Synchronisation
La synchronisation d’un récepteur sur un émetteur est un problème crucial dans la
récupération du message numérique. Le problème de synchronisation se pose en deux endroits du
récepteur :
 la démodulation synchrone
 l’échantillonnage
Dans les parties qui suivent, nous allons d’abord décrire les problèmes liés à la perte de
synchronisation, puis nous décrirons succinctement la manière dont on put conserver cette
synchronisation.

1. Démodulation synchrone
La plupart des systèmes de télécommunication utilise des démodulateurs synchrones ou
cohérents. La figure 91 présente le schéma de principe d’un démodulateur d’amplitude cohérent. UR(t)
correspond à un signal modulé en amplitude avec un indice de modulation m. Le signal modulant est
un signal sinusoïdal de fréquence ωm et d’amplitude 1. La porteuse est un signal sinusoïdal de
fréquence ωP et d’amplitude AP. La démodulation cohérente consiste à multiplier le signal reçu avec
un signal identique en fréquence et en phase au signal porteur afin de transposer en fréquence le

A. Boyer 92
Canaux de transmissions bruités Septembre 2011

signal. Après un filtrage passe bas, seul le signal de bande de base est conservé. Le principal avantage
de la démodulation cohérente est de réduire l’influence du bruit sur le signal démodulé. Grace au
filtrage, seul le bruit superposé au signal modulé est ramené en bande de base.

UR US
UD(t)

UP
Reconstitution
porteuse

U S (t ) = U R (t ) × B cos(ω P t )
 A m 
U S (t ) =  AP cos(ω P t ) + P (cos((ω P − ω M )t ) + cos((ω P + ω M )t )) × B cos(ω P t )
 2 
A Bm A Bm
U S (t ) = AP B cos 2 (ω P t ) + P cos((ω P − ω M )t ) cos(ω P t ) + P cos((ω P + ω M )t ) cos(ω P t )
2 2
[cos((2ω P − ω M )t ) + cos(ω M t )] + P [cos((2ω P + ω M )t ) + cos(ω M t )]
A B A Bm A Bm
U S (t ) = P (1 + cos(2ω P t )) + P
2 4 4

AP B AP Bm A B
Après filtrage : U S (t ) = + cos(ω M t ) = P (1 + m cos(ω M t )) (Équation 83)
2 2 2
Fig. 91 - Démodulateur d’amplitude cohérent
Néanmoins, la démodulation synchrone nécessite de pouvoir reconstituer la porteuse sans
erreur de phase. Tout déphasage entre la porteuse reconstituée et la porteuse originale dégradera le
signal démodulé, comme le montre la démonstration ci-dessous. Reprenons l’exemple précédent de
signal modulé en amplitude. Supposons que la porteuse reconstruite par le récepteur présente un
décalage de phase φ(t) avec le signal reçu, ce décalage pouvant varier dans le temps. En notant φ ce
déphasage, on récupère après filtrage le signal suivant :

 A m 
U S (t ) =  AP cos(ω P t ) + P (cos((ω P − ω M )t ) + cos((ω P + ω M )t )) × B cos(ω P t + ϕ )
 2 
AP Bm A Bm
U S (t ) = AP B cos(ω P t ) cos(ω P t + ϕ ) + cos((ω P − ω M )t ) cos(ω P t + ϕ ) + P cos((ω P + ω M )t ) cos(ω P t + ϕ )
2 2
U S (t ) = P [cos(2ω P t + ϕ ) + cos ϕ ] + P [cos((2ω P − ω M )t + ϕ ) + cos(ω M t − ϕ )] + AP Bm [cos((2ω P + ω M )t + ϕ ) + cos(ω M t + ϕ )]
A B A Bm
2 4 4

Après filtrage : U S (t ) =
AP B
cos ϕ + P
A Bm
[cos(ω M t − ϕ ) + cos(ω M t + ϕ )]
2 4
U S (t ) = P cos ϕ + P cos(ω M t ) cos ϕ
A B A Bm
(Équation 84)
2 2
U S (t ) = P cos ϕ (t )(1 + m cos(ω M t ))
A B
2
L’amplitude du signal démodulé dépend du décalage de phase entre la porteuse reconstituée et
le signal reçu, conduisant à modifier l’enveloppe du signal reçu et à le dégrader. La seule manière de
retrouver le signal d’origine est soit d’avoir un décalage de phase constant. Dans le cas où ce
déphasage est nul, on retrouve le signal de l’équation 83.
Cet exemple pourrait s’appliquer à tout type de démodulation et démontre l’importance de la
synchronisation du récepteur sur la porteuse du signal reçu pour que la démodulation n’introduise pas
d’erreurs.

A. Boyer 93
Canaux de transmissions bruités Septembre 2011

2. Echantillonnage synchrone
Comme nous l’avons vu dans les chapitres précédents, l’échantillonnage doit se faire à des
instants précis, là où l’influence de l’IES est la plus faible. Il est donc indispensable que le rythme du
signal binaire de bande de base soit récupéré correctement.
Si le récepteur est parfaitement synchroniser avec la porteuse et avec le flux binaire, le signal
reçu et échantillonné peut s’écrire sous la forme suivante :
y (t ) = y (kT ) = ∑ a k p (t − kT ) + n(t ) (Équation 85)
k

où p(t) représente la réponse impulsionnelle des signaux en entrée du récepteur, T la période


du signal binaire, ak l’amplitude prise par chaque symbole et n(t) le bruit additionnel. En présence d’un
asynchronisme entre la porteuse reconstituée par le récepteur et la porteuse du signal, une erreur de
démodulation notée e − iξ (t ) apparaît qui vient modifier l’enveloppe du signal reçu, où ξ(t) représente
l’erreur de phase. En présence d’un asynchronisme entre le rythme du signal reçu et l’horloge binaire
reconstitué, un retard noté τ = ε .T , où ε une fraction de cette période. Le signal reçu et échantillonné
en présence de ces asynchronismes peut s’écrire sous la forme :
y (kT ) = e − iξ (t ) ∑ a k p (t − kT − τ ) + n(t ) (Équation 86)
k

Les systèmes de synchronisation doivent donc correctement récupérer la porteuse afin


d’annuler l’erreur de phase, et correctement récupérer le rythme afin d’annuler le retard sur les instants
d’échantillonnage optimaux.
De nombreuses structures existent pour correctement récupérer la synchronisation avec un
signal, qui sortent du cadre de ce cours. En pratique, le signal est reconstitué à partir d’un oscillateur
local, la fréquence du signal étant à priori connu. Afin d’être en phase ou en rythme avec le signal
reçu, l’oscillateur local est asservi par un système analogique ou numérique, qui corrige en temps réel
la phase de l’oscillateur local en fonction des décalages de phase avec le signal reçu. Ce type
d’asservissement est assuré par une boucle à verrouillage de phase ou Phase Locked Loop (PLL).

IV. Décision – Récepteur optimal


Le signal obtenu en sortie d’un canal de transmission est une version déformée, déphasée et
perturbée par du bruit, du signal émis. Le problème du récepteur est de démoduler le signal reçu puis
de décider de l’affectation des symboles reçus à l’un des symboles composant l’alphabet de départ.
Cette étape est appelée décision. Celle-ci doit être effectuée de manière à minimiser le risque de
mauvaise détection du signal. Ainsi, dans chaque récepteur, une règle de décision est élaborée, ainsi
qu’une structure du récepteur. Des performances en termes de taux d’erreur binaire seront associées à
cette règle et à cette structure, dans le cadre d’un canal et d’un bruit donné. Si la règle de décision et la
structure du récepteur permettent de minimiser le risque d’erreur, on parle de récepteur optimal.
Dans cette partie, nous allons chercher à déterminer la règle de décision optimale dans le cas
d’un signal binaire (ou un signal BPSK) traversant un canal AWGN, puis nous déterminerons les
performances en terme de taux d’erreur binaire. Ce type de raisonnement pourra être étendu à des
signaux à M états, mais cela dépasse le cadre de ce cours.

1. Seuil de décision pour un signal binaire traversant un canal AWGN


La figure 92 décrit le positionnement du problème. Un signal x(t) émis en bande de base
traverse un canal AWGN caractérisé par un bruit blanc gaussien d’écart type σ et arrive en entrée du
récepteur. Après avoir été filtré, égalisé et échantillonné avec une période Te (on suppose que le
récepteur est parfaitement synchronisé avec le signal reçu), le signal yk arrive en entrée d’un
comparateur à seuil, qui va déterminer quel est l’état binaire pris par le symbole reçu. Le but du
problème est de déterminer le seuil λ0 du comparateur à seuil qui va minimiser l’erreur d’interprétation
du message binaire. A cause du bruit ajouté par le canal, la probabilité d’une erreur d’interprétation
n’est pas nulle.

A. Boyer 94
Canaux de transmissions bruités Septembre 2011

Canal Te
AWGN
Comparateur
égaliseur
z(t) y(t) yk à seuil λ0 dk
z (t ) = x(t ) * c (t ) + n(t ) yk < λ ⇒ d k = 0
yk > λ ⇒ d k = 1
Fig. 92 - Détection d’un signal binaire traversant un canal AWGN

Le signal en entrée du comparateur peut s’écrire :


a k = a0 si x k ='0'
y k = a k + nk , où
a k = a1 si x k ='1'
Comme le bruit est de type gaussien, la densité de probabilité du bruit peut s’écrire à l’aide de
la fonction suivante :
 ( x − x 0 )2 
f (x ) =
1
exp −  (Équation 87)

2π σ  2σ 2 
On peut en déduire la densité de probabilité de l’amplitude prise par le signal yk (fig. 93).
Densité de
probabilité
2σ 2σ

a0 a1 y
λ0 ?
Fig. 93 - Densité de probabilité de l’amplitude pris par le signal en entrée de l’étage de décision
Une erreur se déclare dans les 2 cas suivants :
 ak = a0 et dk = 1, en terme de probabilité cela s’écrit :
+∞
P (d = 1 / a = a 0 ) = f ( x / a 0 )dx , où f (x / a0 ) =  ( x − a 0 )2 
∫λ 2π σ
1
exp −
2σ 2


 
λ
 ak = a1 et dk = 0, en terme de probabilité cela s’écrit : P (d = 0 / a = a1 ) = ∫ f (x / a )dx , où
1
−∞

 ( x − a1 )2 
f ( x / a1 ) =
1
exp − 

2π σ  2σ 2 
La probabilité d’apparition d’une erreur peut donc s’écrire sous la forme suivante :
Perr = P (d = 1).P (d = 1 / a = a0 ) + P(d = 0 ).P (d = 0 / a = a1 ) (Équation 88)

A. Boyer 95
Canaux de transmissions bruités Septembre 2011

+∞ λ0
Perr = P(d = 1). ∫ f ( x / a 0 )dx + P(d = 0 ). ∫ f ( x / a1 )dx
λ0 −∞

 λ0  λ0
Perr = P(d = 1).1 − ∫ f (x / a 0 )dx  + P(d = 0 ). ∫ f ( x / a1 )dx
 
 −∞  −∞

λ0
Perr = P(d = 1) + ∫ [P(d = 0). f (x / a ) − P(d = 1). f (x / a )]dx
−∞
1 0 (Équation 89)

dPerr
Nous cherchons à déterminer λ0 pour minimiser l’erreur, c'est-à-dire (λ0 ) = 0 . Cela est

possible si le contenu de l’intégrale est annulé.
P(d = 0 ). f ( x / a1 ) − P(d = 1). f ( x / a 0 ) = 0
 (λ − a )2 
exp − 0 2 0 
P(d = 0 ) f ( x = λ0 / a 0 )  2σ 
= =  
P(d = 1) f ( x = λ0 / a1 )  (λ − a ) 
2

exp − 0 2 1 
 2σ 
 
 P(d = 0 ) 
log 2   =
1
(
(λ0 − a1 )2 − (λ0 − a 0 )2 )
 P(d = 1)  2σ
2

 P(d = 0 )  λ0 (a 0 − a1 ) a12 − a 02
log 2   = +
 P(d = 1)  σ2 2σ 2

a 0 + a1 σ2  P(d = 0 ) 
λ0 = + log 2  
 P(d = 1) 
(Équation 90)
2 a 0 − a1
Si les 2 états binaires sont équiprobables, on détermine le seuil de décision suivant :
a0 + a1
λ0 = (Équation 91)
2
Ce résultat assez intuitif montre que le récepteur optimal possède le seuil de décision à mi
distance entre les amplitudes liées aux 2 états binaires.

V. Ce qu’il faut retenir

⇒ Après le passage à travers le canal, le récepteur a pour rôle de régénérer le signal.


⇒ Cela correspond à supprimer les perturbations et distorsions qui affectent le signal
(filtrage et égalisation), puis de l’interpréter correctement (décision). Dans le cas d’un
signal numérique synchrone, le récepteur doit se synchroniser sur le signal reçu.
⇒ Dans la plupart des transmissions numériques, l’interférence inter symboles est plus
problématique que le bruit. L’émetteur et le récepteur contiennent des filtres qui
doivent limiter l’interférence inter symboles.
⇒ Les critères de Nyquist définissent les conditions d’annulation de l’interférence inter
symboles dans un filtre ou dans un canal.

A. Boyer 96
Canaux de transmissions bruités Septembre 2011

⇒ Un égaliseur est un bloc du récepteur spécifiquement dédié à l’annulation de


l’interférence inter symboles, en compense l’effet du canal.
⇒ La plupart des égaliseurs font appel à des séquences d’apprentissage incluses dans les
trames transmises. Elles permettent d’estimer régulièrement la réponse impulsionnelle
du canal pour remettre à jour les propriétés de l’égaliseur.
⇒ La synchronisation de la démodulation avec la porteuse et de l’échantillonnage avec le
signal binaire reçu sont requises pour éviter les erreurs d’interprétation du signal. Le
récepteur doit être capable de récupérer la phase et le rythme du signal reçu.
⇒ Le seuil de décision d’un récepteur est choisi afin de minimiser le taux d’erreur
binaire. Dans le cas d’un canal AWGN, il est possible de déterminer les performances
en terme de taux d’erreur binaire connaissant le rapport signal à bruit.

A. Boyer 97
Canaux de transmissions bruités Septembre 2011

Conclusion - Planification d’une


transmission numérique

La figure 94 fournit une vue générale d’un canal de transmission ainsi qu’un récapitulatif des
principales contraintes qu’il doit respecter pour qu’un message numérique soit transmis sans erreur.

Information
numérique Destinataire
K messages dans un Débit Taux d’erreur binaire
alphabet de no caractères d’info. H BER = f(Eb/No)

Codage source Décodage source


Amélioration rendement Canal de transmission
K messages dans un Débit Dc
alphabet de n caractères

Codage canal Décodage canal


Adaptation au canal
Signal électrique
Débit Dm
M moments
Bruit, R Régénération
Modulation perturbations,b appo Annulation IES, filtrage,
ru
distorsions it S rt si synchronisation, décision
Couche physique /N gna
Largeur de

o u l su
bande Bc

Optimisation Eb r
Largeur de bande Bm /N
Canal de capacité C o Démodulation
Mise en bande de base
Condition  S
largeur de bande C = BC × log 2  1 + 
 N
Bm ≤ B Condition de Nyquist sur
Condition débit le canal et les filtres
. . pour annuler l’IES
Dc ≤ Dm ≤ C
Transmission en
temps réel Annulation IES

Fig. 94 - Vue générale d’un canal de transmission bruité et des contraintes associées pour limiter
l’apparition d’erreur de transmission
Pour réaliser une liaison numérique sans erreurs, les données suivantes sont nécessaires
planifier la transmission :

 Le taux d’erreur binaire maximal, qui permet de déterminer le rapport signal à bruit minimal
et donc le seuil de sensibilité du récepteur
 Le débit binaire de la source
 La fonction de transfert du canal. S’il s’agit d’une transmission analogique, il faut se
demander si le canal va introduire uniquement des distorsions linéaires. Dans le cas d’une
transmission numérique, est-ce que des interférences inter-symboles sont à craindre ?

A. Boyer 98
Canaux de transmissions bruités Septembre 2011

 La bande passante du canal et la bande de fréquence allouée pour la transmission (ainsi que
les tolérances d’émission sur les canaux adjacents)
 La densité spectrale de bruit No, le rapport signal sur bruit minimal au niveau du récepteur
S/N ou le rapport signal à bruit par bit Eb/No. Rappelons que celui-ci dépend de la
spécification en terme de taux d’erreur binaire, de la modulation employée et des techniques
de codage de source et de canal.
 La puissance d’émission disponible et tolérable (réglementation des émissions)

Une fois ces données connues, il est nécessaire de :

 Déterminer le débit binaire et le nombre de bits utilisés pour coder les différents symboles.
Ils dépendent de la largeur de bande et de la probabilité d’erreur
 Déterminer la forme des signaux élémentaires, les modulations et le filtrage associé, afin de
fixer l’encombrement spectral (efficacité spectrale)
 Concevoir les différents étages du récepteur pour minimiser l’effet du bruit et des
interférences inter symboles (filtrage, égalisation, synchronisation, décision)
 Dans le cas d’une transmission numérique, vérifier si le taux d’erreurs binaires est
acceptable, ajouter du codage canal et une marge de bruit si nécessaire

Le respect des conditions de Nyquist et de la capacité maximale d’un canal permet en théorie
d’annuler l’interférence inter symboles. Mais dans un canal réel, différentes techniques doivent être
mises en jeu afin de minimiser le taux d’erreur. Au niveau de l’émetteur, on peut :

 Ajouter des codes détecteur/correcteur d’erreur, entrelacer les données


 Réaliser un codage en ligne (modulations, mise en forme électrique) adapté au canal
 Filtrer le signal
 Pratiquer des accès multiples (son intérêt reste l’optimisation de l’utilisation du canal)
 Ajouter de la diversité

Au niveau du récepteur, la réduction des erreurs d’interprétations des données est


principalement assurée par l’égaliseur qui compense les effets parasites du canal. Il est nécessaire de
soigner la conception du régénérateur (synchronisation, amplification, filtrage, décision).

A. Boyer 99
Canaux de transmissions bruités Septembre 2011

Références

⇒ Geneviève Baudoin, « Radiocommunications Numériques – Tome 1 : Principes,


Modélisation et simulation », Dunod collection Technique et Ingénierie, ISBN 978-2-
10-050514-2, 2002.
⇒ Yvon Mori, « Electronique pour le Traitement du Signal – Volume IV – Techniques
de Modulation », Hermès Science, ISBN 2-7462-1342-7, 2006
⇒ Yvon Mori, « Electronique pour le Traitement du Signal – Volume V – Théorie de
l’Information et du Codage », Hermès Science, ISBN 2-7462-1343-5, 2006
⇒ Guillaume Vivier, Khaldoun Al Agha, Guy Pujolle, Bruno Vidal « Réseaux de
mobiles & Réseaux sans fil », Eyrolles, 2-212-11018-9, 2001.
⇒ Xavier Lagrange, Philippe Godlewski, Sami Tabbane, « Réseaux GSM-DCS – Des
Principes à la Norme, 4e édition revue et augmentée », Hermes Sciences collection
Réseaux et Télécommunications, ISBN 2746200287, 1999.
⇒ H. Holma, A. Toskala, « WCDMA for UMTS – HSPA Evolution and LTE – 4th
Edition», Wiley, 2007, 550 pp
⇒ P. Degauque, A. Zeddam, « Compatibilité Electromagnétique 2 – Des Concepts de
Base aux Applications », Hermes Science, ISBN 978-2-7462-1664-8, 2007
⇒ Lawrence E. Larson, « RF and Microwave Circuit Design for Wireless
Communications », Artech House Publisher, ISBN 0-89006-818-6, 1997
⇒ D. Paret, « Réseaux Multiplexés pour Systèmes Embarqués », Dunod, série EEA,
ISBN 2-10-005267-5, 2005

A. Boyer 100
Canaux de transmissions bruités Septembre 2011

Annexe A – Rappel sur les unités

Pour le dimensionnement d’un canal, on doit prendre en compte l’ensemble des gains et des
pertes présentes sur le canal, afin de déterminer la puissance minimale à mettre en entrée de l’émetteur
pour que le récepteur détecte un signal. On parle alors d’un bilan de puissance. Afin de faire ce bilan,
on préfère utiliser des unités en dB afin de remplacer multiplication et division par des additions et des
soustractions. Le passage en dB correspond au rapport d’une grandeur (puissance, tension …) avec
une grandeur de référence, placé sur une échelle logarithmique (équations 92 et 93). Dans le cas où il
s’agit d’un rapport de puissance, on utilise l’équation 92. Dans le cas où il s’agit d’un rapport en
tension, on utilise l’équation 93.
P 
X (dB ) = 10 log( x ) = 10 log 1  (Équation 92)
 P0 
V 
X (dB ) = 20 log( x ) = 20 log 1  (Équation 93)
 V0 
L’intérêt d’une représentation logarithmique réside dans la possibilité d’additionner les
affaiblissements et les gains au lieu de multiplier les rapports de puissance. De plus, elle permet de
représenter une très grande dynamique au niveau des amplitudes.
En pratique, on indique parfois l’unité des grandeurs du rapport. Il n’est pas rare de trouver
des dBV, des dBmW, des dBV/m … Il s’agit toujours de nombres sans unité, mais correspondant à un
rapport entre 2 grandeurs exprimées dans l’unité qui est ajoutée au dB. Par exemple, les équations 94
et 95 donnent les formules de calcul de rapports exprimés en dBV et dBW.
V 
V ( dBV ) = 20 × log   (Équation 94)
 1V 
 P 
P(dBW ) = 10 × log  (Équation 95)
1W 

Volts dBV Watts dBW


1000 60 1000 30
100 40 100 20
10 20 10 10
1 0 1 0
0.1 -20 0.1 -10
0.01 -40 0.01 -20
0.001 -60 0.001 -30

En télécommunications, les signaux reçus sont en général très faibles et les microvolts (µV) et
milliwatts (mW) sont les unités les plus courantes. Il est courant de rencontrer des rapports exprimés
en dBµV et dBmW ou dBm (équations 96 et 97).

A. Boyer 101
Canaux de transmissions bruités Septembre 2011

 V (µV ) 
V (dBµV ) = 20 × log 
 1µV  (Équation 96)
 V (V ) 
V (dBµV ) = 20 × log − 6  = 20 log(V (V )) + 120 = V (dBV ) + 120
 10 V 

 P(mW ) 
P(dBm ) = 10 × log 
 1 mW  (Équation 97)
 P (W ) 
P(dBm ) = 10 × log −3  = 10 log(P (W )) + 30 = P(dBW ) + 30
 10 W 

Volts dBµV mW dBm


1 120 1000 30
0.1 100 100 20
0.01 80 10 10
0.001 60 1 0
0.0001 40 0.1 -10
0.00001 20 0.01 -20
0.000001 0 0.001 -30

A. Boyer 102
Canaux de transmissions bruités Septembre 2011

Annexe B – Produits d’intermodulation


pour une non-linéarité d’ordre 3

Pour expliquer l’apparition de ces produits d’intermodulation, on peut représenter la fonction


de transfert du système (par exemple un mélangeur) par un polynôme du 3e ordre (on se limite à cet
ordre pour diminuer la complexité du calcul) :
Vs (t ) = α1Ve (t ) + α 2Ve2 (t ) + α 3Ve3 (t ) (Équation 98)

où Ve et Vs sont respectivement les tensions d’entrée et de sortie du système, α1 est le gain


linéaire du système. Supposons le cas simplifié suivant : le signal d’entrée est constitué de 2 porteuses
sinusoïdales. Le signal de sortie devient :
Vs (t ) = α1 ( A1 cos ω1t + A2 cos ω1t ) + α2 ( A1 cos ω1t + A2 cos ω1t ) + α3 ( A1 cos ω1t + A2 cos ω1t ) (Équation 99)
2 3

Vs (t ) = α1 ( A1 cos ω1t + A2 cos ω1t )


 1 + cos 2ω1t 1 + cos 2ω2t cos (ω1 + ω2 ) t + cos (ω1 − ω2 ) t 
+α2  A12 + A22 + 2 A1 A2 
 2 2 2 
 A3 A3  
 1 ( 3cos ω1t + cos3ω1t ) + 2 ( 3cos ω2t + cos3ω2t )  
 4 4  
 
 2 3 3 3 
+α3 + A1 A2  cos ω2t + cos(2ω1 − ω2 )t + cos(2ω1 + ω2 )t  
 2 4 4 
 2 3 3 3 
+ A2 A1  cos ω1t + cos(2ω2 − ω1 )t + cos(2ω2 + ω1 )t  
 2 4 4  (Équation 100)

Ce développement fait apparaître plusieurs raies à différentes fréquences harmoniques et non
harmoniques. Le tableau 4 présente les amplitudes des raies jusqu’à l’ordre 3.
 3α3 A13 3α3 A1 A22 
Fréquence ω1 α1 A1 + +  cos ω1t
 4 4 
Ordre 1
Fréquence ω 2  3α3 A23 3α3 A2 A12 
α1 A2 + +  cos ω2t
 4 4 
Ordre 2 ω ± ω2 α2 A1 A2 cos (ω1 + ω2 ) t + α2 A1 A2 cos (ω1 − ω2 ) t
Fréquence 1
2ω1 ± ω2 3α3 A12 A2 3α A2 A
Fréquence cos ( 2ω1 + ω2 ) t + 3 1 2 cos ( 2ω1 − ω2 ) t
Ordre 3 4 4
2ω2 ± ω1 3α A 2
A 3α 2
3 A2 A1
Fréquence
3 2 1
cos ( 2ω2 + ω1 ) t + cos ( 2ω2 − ω1 ) t
4 4
…..
Tableau 4 - Amplitudes des différentes composantes spectrales d’un signal résultant du produit
d’intermodulation de deux signaux sinusoïdaux
Prenons le cas d’un amplificateur de tension de gain 10. La figure 95 présente sa
caractéristique de gain. Il présente une forte saturation à partir de 0.7V.

A. Boyer 103
Canaux de transmissions bruités Septembre 2011

Fig. 95- Caractéristique d’un amplificateur réel


Cette caractéristique peut être approximée par le polynôme d’ordre 3 suivant :
Vout = 8.86Vin + 4.48Vin2 − 5.94Vin3
On suppose qu’on fasse passer à travers cet amplificateur un signal composé de la somme de 2
sinusoïdes parfaites de fréquences F1 = 200 et F2 = 250MHz et d’amplitude 0.9V. La figure 96
présente le spectre du signal en entrée, il contient 2 Diracs à 200 et 250MHz. La figure
97 présente le spectre du signal de sortie sur lequel apparaît de très nombreux signaux parasites,
prouvant que le signal a subi de nombreuses distorsions.

∆f=50MHz

Fig. 96 - Signal en entrée de l’amplificateur


On voit que les produits les plus gênants sont ceux d’ordre 3 (2F1-F2 et 2F2-F1). En effet, si
les fréquences F1 et F2 sont très proches (ce qui peut être le cas par exemple sur les bandes GSM, qui
contiennent des canaux adjacents séparés de 200KHz), les produits apparaîtront très près des
fréquences fondamentales et pourront parasiter le signal. De plus, ces formules permettent de mieux
comprendre le phénomène de compression de gain typique d’un amplificateur. Celui-ci peut être aussi
modélisé à l’aide d’un polynôme d’ordre 3.

A. Boyer 104
Canaux de transmissions bruités Septembre 2011

F1 F2
∆f=50MHz

2F1-F2 2F2-F1
2F1+F2 2F2+F1

∆f ∆f

Fig. 97 - Signal en sortie de l’amplificateur et produits d’intermodulation


Supposons cette fois qu’une seule harmonique de fréquence ω et d’amplitude A soit en entrée.
Le gain de la fréquence harmonique s’écrit donc :
3α 3 A2
α1 + Équation 101
4
L’amplitude de la composante fondamentale est donc modifiée par le terme du troisième
3α 3 A2
ordre, engendrant alors une distorsion d’amplitude. Pour les forts signaux, le terme vient
4
modifier le gain. Comme α3 est généralement négatif, le gain est réduit, correspondant à une
compression ou une saturation de la puissance en sortie. Dans l’exemple ci-dessus, l’amplitude de
chacune des 2 fréquences fondamentales était de 0.9V. Le gain linéaire de cet amplificateur est de 10.
Or, en sortie, les raies des fréquences fondamentales sont 3.5V, le gain n’est donc plus que de 4. On
peut donc en conclure que le signal a subi une importante distorsion d’amplitude en plus de
l’apparition de nouvelles harmoniques.

A. Boyer 105
Canaux de transmissions bruités Septembre 2011

Annexe C – Spectre d’un signal


numérique

Nous allons déterminer dans cette annexe l’expression théorique des spectres de signaux
numériques par l’utilisation de la transformée de Fourier. Qu’est qu’un signal numérique ? Nous
aborderons différentes formes, plus ou moins théoriques. Nous appelons signal numérique un signal à
impulsions rectangulaires dont les niveaux de tension représentent soit un ‘0’ soit un ‘1’ logique.

I. Rappel - Transformée de Fourier et spectre


La transformée de Fourier est un outil mathématique qui permet de déterminer l’expression
d’un signal périodique dans le domaine fréquentiel. Elle est basée sur le concept de série de Fourier, à
la base de l’analyse harmonique des signaux : toute fonction périodique de période T0 (ou de
fréquence f0) en l’exprimant sous la forme d’une suite de fonctions sinusoïdales sur des fréquences
multiples (ou harmoniques) de la fréquence fondamentale f0 :
∞ ∞ ∞
f (t ) = a 0 + ∑ a n cos(2πnf 0 t ) + ∑ bn sin (2πnf 0 t ) = ∑ C n exp( j 2πnf 0 t ) Équation 102
n =0 n =0 n=0

La transformée de Fourier permet de calculer les valeurs des coefficients de la série.


T T T
1 0 2 0 2 0
( ) ( ) ( π ) f (t ) cos(2πnf 0 t )dt
T0 ∫0 T0 ∫0 T0 ∫0
a0 = f t dt a n = f t sin 2 nf 0 t dt bn =
Équation 103
T0

∫ f (t )exp(− j 2πnf t )dt


1
Cn = 0
2T0 −T0

Le spectre est la représentation graphique dans un repère cartésien des valeurs des coefficients
de la série, avec les fréquences harmonique n.f0 en abscisse. Dans la représentation spectrale d’un
signal, on trace généralement soit l’amplitude |Cn| soit la phase φn d’une harmonique :

f (t ) = C 0 + ∑ C n cos(2πnf 0 t + ϕ n ) Équation 104
n =1

 bn 
C n = a n2 + bn2 ϕ n = arctan  Équation 105
 an 
Si la fonction n’est pas périodique, il est quand même possible d’utiliser la transformée de
Fourier en considérant cette fonction non périodique comme une fonction périodique de période
infinie. La fonction n’est plus représentée par une série de Fourier sur un ensemble de fréquences
discrètes, mais par une intégration sur toutes les fréquences. L’expression dans le domaine fréquentiel
F(f) d’une fonction f(t) est déterminée par la transformée de Fourier TF :
+∞
F ( f ) = TF ( f (t )) = ∫ f (t )exp( j 2πft )dt Équation 106
−∞

Une fonction non périodique f(t) peut être considérée comme la somme d’un nombre infini de
fonctions harmoniques exp(-j2πft), chacune ayant un poids en amplitude et en phase donnée par le

A. Boyer 106
Canaux de transmissions bruités Septembre 2011

spectre de F(f).La transformée de Fourier inverse TF-1 permet de déterminer l’expression dans le
domaine temporelle f(t) d’une fonction exprimée dans le domaine fréquentielle.
+∞
f (t ) = TF −1 (F ( f )) = ∫ F ( f )exp(− j 2πft )df Équation 107
−∞

On ne détaillera pas l’ensemble des propriétés de la transformée de Fourier, ni les méthodes


numériques permettant de déterminer la transformée de Fourier sur des signaux complexes
(transformée de Fourier discrète DFT, transformée de Fourier rapide FFT). On mentionnera juste pour
la suite que lorsqu’il n’est pas possible de calculer la transformée de Fourier d’un signal, il est possible
de déterminer sa densité spectrale de puissance par le calcul de la transformée de Fourier de son
autocorrélation.

II. Transformée de Fourier d’une suite d’impulsion idéale


(Dirac)
La transmission d’un signal binaire rapide peut être considérée comme une impulsion courte.
Si on néglige la durée de cette impulsion, on peut la modéliser par un Dirac δ(x) défini de la manière
suivante :
∞ si t = a
δ (t − a ) =  Équation 108
 0 sin on
Il s’agit d’un rectangle infiniment fin centrée sur l’abscisse a. La fonction est normalisée de
+∞

telle manière que sa surface = 1 : ∫ δ (t − a )dt = 1 . Une propriété intéressante de la fonction Dirac
−∞
est que si on l’a multiplie à une fonction f(t) et qu’on l’intègre le produit, on obtient la valeur f(a) :
+∞

∫ f (t )δ (t − a )dt = f (a ) . En utilisant cette propriété, on peut déterminer la TF de la fonction Dirac :


−∞
+∞

∫ δ (t )exp( j 2πft )dt = exp( j 2πf 0) = 1


−∞
Équation 109

Le spectre d’une impulsion élémentaire est donc infini. Il possède de l’énergie quelque soit la
fréquence. Il s’agit bien évidemment d’un cas limite purement théorique.

III. Transformée de Fourier d’une impulsion rectangulaire


Une fonction rectangle constitue une meilleure représentation d’une impulsion binaire,
puisqu’il représente une impulsion de durée non nulle. Soit une impulsion rectangulaire de durée T
centrée sur t = 0 et d’amplitude P0. On suppose que ses temps de montée et de descente sont nuls.
L’expression théorique du spectre se calcule :
+∞ +T / 2
F( f ) = ∫ f (t ) exp( j 2πft )dt = P0 ∫ f (t )exp( j 2πft )dt
−∞ −T / 2

  T  T   P sin (πfT )
F( f ) =
P0
 exp j 2πf  − exp − j 2πf   = 0
j 2πf   2  2  πf
F ( f ) = P0T sin c(πfT ) Équation 110

A. Boyer 107
Canaux de transmissions bruités Septembre 2011

La figure ci-dessous présente le spectre d’une impulsion rectangulaire d’amplitude 1 et de


durée T = 1 µs. Le spectre a la forme d’un sinus cardinal, s’annulant tous les f = 1/T. Le spectre d’une
impulsion rectangulaire est donc infini, avec un lobe principal et un ensemble de lobes secondaires qui
s’atténuent au fur et à mesure que la fréquence augmente. Comme la majeure partie de l’énergie du
signal se trouve dans le lobe principal, il est possible de réduire l’occupation spectrale de ce signal en
filtrant tous les lobes secondaires. En bande de base, la bande passante de ce signal est égale à 1/T.
Après transposition de fréquence, sa bande passante double.

Fig. 98 – Signal rectangulaire (à gauche) et représentation spectrale (à droite)

IV. Impulsion en sinus cardinal


Il est intéressant de remarquer que la transformée de Fourier d’une fonction sinus cardinal
donne une fonction rectangulaire. Imaginons qu’on donne aux impulsions binaire une forme
temporelle en sinus cardinal (une impulsion « en forme de cloche » de durée T entourée d’oscillations
amorties). Soit T la durée de l’impulsion, c'est-à-dire la largeur du lobe principal. L’occupation
spectrale de ce signal est à bande limitée, compris entre f = -1/2T et f = 1/2T. Une impulsion en sinus
cardinal présente l’occupation spectrale minimale, sa bande passante est égale à la bande passante de
Nyquist (voir annexe D). La figure ci-dessous compare les spectres des impulsions rectanguaires et en
sinus cardinal.
Impulsion T 2/T
rectangulaire

-T/2 0 T/2 temps 0 fréquence


-1/T 1/T

Impulsion
T 2/T
sinc
TF

0 temps 0 fréquence
-T/2 T/2 -1/T 1/T

Fig. 99 – Comparaison entre les spectres d’impulsions rectangulaire et sinus cardinal

Cette comparaison est intéressante car elle met en lumière le dilemme qui se pose dans le
choix de la forme temporelle du signal binaire. Afin d’accroître le débit binaire et réduire
l’interférence intersymbole lié à l’effet d’étalement temporel du canal de transmission, il vaut mieux
privilégier une impulsion rapide. De ce point de vue, l’impulsion rectangulaire est idéale, alors que
l’impulsion en sinus cardinal tend à s’étaler sur une période égale à plusieurs fois la durée de
l’impulsion. On peut remarquer qu’elle satisfait au critère de Nyquist dans le temps puisqu’elle

A. Boyer 108
Canaux de transmissions bruités Septembre 2011

s’annule régulièrement. Si on est capable de garantir que l’instant d’échantillonnage du signal binaire
se fait à l’instant précis où les impulsions précédentes s’annulent, l’interférence intersymbole s’annule
aussi. Mais cette condition reste difficile à assurer en pratique.
Parallèlement, les communications se font sur des canaux à bande étroite et il est nécessaire de
veiller à ce que le spectre du signal transmis n’occupe pas une bande de fréquence trop large. De ce
point de vue, l’impulsion en sinus cardinal est idéale puisqu’elle occupe la plus petite bande passante
possible. Par contre, l’impulsion rectangulaire occupe une bande beaucoup plus large, théoriquement
infini. En pratique, celle-ci peut être limité à 2 fois la bande passante de Nyquist par filtrage.
Il n’existe pas de forme temporelle idéale à donner à une impulsion. Plus celle-ci sera rapide et
plus elle occupera une bande passante large. Inversement, plus elle sera à bande étroite et plus elle
aura tendance à s’étaler dans le temps. En pratique, les formes temporelles sont « taillées » à l’aide de
filtres de mise en forme, généralement en cosinus surélevé (voir annexe E) afin de minimiser
l’interférence intersymbole et l’occupation spectrale.

V. Spectre d’un signal carré périodique


Un signal binaire se présente sous la forme d’une suite d’impulsions électriques, généralement
synchronisées sur une horloge de référence. Intéressons-nous à un signal carré périodique, qui
représente un signal binaire présentant une succession d’états logiques ‘0’ et ‘1’. Ce signal ne
transporte aucune information.
Soit un signal carré de période T formé d’impulsions rectangulaires de durée τ avec des temps
de montée et de descente nuls. Comme il s’agit d’un signal carré, τ = T/2. Le signal est périodique et
peut donc être représenté par une série de Fourier dont les coefficients peuvent se calculer de la
manière suivante :
 τ  nπ 
sin  nπ  sin  
2 Aτ  T  2 
Cn = ⇒ signal carré : C n = A
T τ nπ
Équation 111

T 2
La figure ci-dessous présente le spectre d’un signal carré de période 100 ns. On voit que toutes
les harmoniques de rang pair sont nulles. L’occupation spectrale du signal est très large. L’amplitude
des harmoniques diminue au fur et à mesure que leur rang n augmente et donc avec la fréquence au
rythme d’une division par 10 par décade.

Période T = 100 ns, rapport cyclique = 50 %,


Tr = Tf = 0 ns
Fig. 100 – Spectre d’un signal carré de 100 ns de période (Tr = Tf = 0)
Cependant, les signaux réels mettent un certain temps pour s’établir, donc il existe toujours un
temps de montée ou de descente non nul. Dans le cas où les temps de montée Tr et de descente Tf sont
non nuls et égaux, les coefficients de la série de Fourier se calcule :

A. Boyer 109
Canaux de transmissions bruités Septembre 2011

 τ  t   nπ   t 
sin  nπ  sin  nπ r  sin   sin  nπ r 
2 Aτ  T  T
⇒ signal carré : C n = A 
2   T  Équation 112
Cn =
T τ t nπ t
nπ nπ r nπ r
T T 2 T

La figure ci-dessous présente le spectre d’un signal carré de période 100 ns avec des temps de
montée et de descente de 2 ns. Toutes les harmoniques de rang pair sont nulles. L’occupation spectrale
du signal reste large. L’amplitude des harmoniques diminue toujours avec une division par 10 par
décade tant que la fréquence est très inférieure à 1/Tr. Au-delà, l’amplitude du spectre diminue plus
fortement qu’un signal carré à temps de montée/descente nul. Le spectre s’annule autour des multiples
de la fréquence 1/Tr. On pourrait montrer que la bande passante de ce signal, où se trouve la majeure
partie de l’énergie, est environ égale à 1/πTr

Période T = 100 ns, rapport cyclique = 50 %,


Tr = Tf = 2 ns

Fig. 101 – Spectre d’un signal carré de 100 ns de période (Tr = Tf = 2 ns)

VI. Spectre d’un signal binaire aléatoire avec un code en


ligne
Un signal binaire informatif est aléatoire, donc non périodique. Bien que le spectre d’un signal
carré donne une idée de celui du signal binaire informatif et de son occupation spectrale, il ne nous
donne pas l’expression exacte du spectre. D’autant plus que, comme nous l’avons vu au chapitre F, la
mise en forme électrique (codage en ligne) modifie la forme du signal et donc son spectre. En outre, si
les symboles transmis sont codés par plusieurs bits, la modélisation par un signal à 2 états n’est plus
valable. Essayons d’établir une forme générale du spectre d’un signal binaire, quelque soit son
contenu, le nombre de bits transmis par symbole et le codage en ligne employé.
Soit un signal informatif a(t) pouvant prendre les M états logiques et de période symbole T =
n.Tb, où Tb est la durée d’un bit et n le nombre de bits codant les symboles, tel que M= 2n.

a (t ) = ∑ a i δ (t − iT ) Équation 113
i =1

Soit la fonction g(t) qui définit la forme temporelle des symboles. On note s(t) le signal
électrique lié au signal informatif. Celui-ci peut être vu comme le signal de sortie d’un filtre de
réponse impulsionnelle g(t) ayant a(t) comme signal d’entrée. Le signal s(t) peut s’exprimer :
s(t ) = g (t ) ∗ a(t ) Équation 114
Pour passer dans le domaine fréquentiel, on peut utiliser la transformée de Fourier :
S ( f ) = TF (s (t )) = G ( f ). A( f ) Équation 115
Comme le signal informatif a(t) est aléatoire et imprévisible, il n’est pas possible de calculer
sa transformée de Fourier. On ne peut donc pas passer par cette méthode pour déterminer le spectre du
signal s(t). Néanmoins, on peut toujours déterminer la densité spectrale de puissance de a(t), notée
Φa(f) à partir du calcul de son autocorrélation Ra(τ) :

A. Boyer 110
Canaux de transmissions bruités Septembre 2011

Φ a ( f ) = TF (Ra (τ ))
+T / 2 Équation 116
R a (τ ) = lim ∫ a (t ).a(t + τ )
1 *

T − >∞ T −T / 2

L’intérêt réside dans le fait que la DSP de a(t) dépend des propriétés statistiques de a(t).
L’approche statistique convient parfaitement à l’étude des signaux aléatoires. Dans le cas d’un code à
symbole indépendant (canal sans mémoire) et dont l’apparition est équiprobable, la DSP de a(t) peut
se calculer de la manière suivante :
σ a2
m a2 +∞
 i
Φa ( f )= + 2 ∑ δ  f −  Équation 117
T T i = −∞ T
Où σa² est la variance du signal a(t) et ma sa valeur moyenne. Ainsi, il devient possible de
calculer la DSP du signal transmis s(t) :
Φ S ( f ) = G( f ) Φ a ( f )
2
Équation 118

Prenons l’exemple d’un signal binaire codé en NRZ. Les impulsions ont une forme
rectangulaire, de durée T = Tb. Les signaux peuvent prendre comme valeur +V si le bit transmis = ‘1’
et –V si le bit = ‘0’. L’amplitude prise par le signal a(t) est égale à +/- V. En supposant que les
apparitions des bits ‘0’ et ‘1’ soient équiprobables et indépendants, la moyenne du signal ma = 0 et sa
variance σa² = V². La mise en forme du signal est rectangulaire donc : G ( f ) = Tb sin c(πfTb ) . La
DSP du signal binaire NRZ est donc :
Φ S ( f ) = G( f ) Φ a ( f )
2

2 2
 sin πfTb  σ a2  sin πfTb 
Φ S ( f ) = T 
2
 = V 2Tb   Équation 119
 πfTb  πfTb
b
 Tb 
Cette expression peut être comparée au tracé de la FFT d’un signal NRZ présenté au chapitre
F. On retrouve dans cette expression les propriétés d’un signal NRZ. Le signal contient une
composante continue non nulle et s’annule pour f = 1/Tb, rendant la synchronisation du récepteur sur
ce signal difficile.

A. Boyer 111
Canaux de transmissions bruités Septembre 2011

Annexe D – Démonstration du premier


critère de Nyquist et Bande passante de
Nyquist

Soit un canal idéal, on peut le représenter par un filtre passe C(f)


bas de largeur de bande B. Il s’agit d’un filtre passe bas idéalement
sélectif, qui coupe tout ce qui ne se trouve pas dans la bande de
fréquence [-B ;B]. Sa fonction de transfert est égale à la fonction porte,
sa réponse dans le domaine temporelle peut se calculer en utilisant la
transformée de Fourier inverse. La réponse impulsionnelle de ce canal B f
0
est un sinus cardinal.
TF sin ( 2π Bt )
C ( f ) = Π 2 B ( f ) ⇒ c(t ) = 2 B × Équation 120
2π Bt
Nyquist cherchait à déterminer quel était le débit de symbole maximal qu’on pouvait faire
passer à travers ce canal. Supposons qu’on transmette des impulsions de durée très courte,
suffisamment courte pour les représenter par une fonction de type Dirac δ(t). Notons e(t) = δ(t) le
signal d’entrée du canal composé d’une impulsion. Le signal en sortie du canal s(t) se calcule :
s (t ) = c(t ) ∗ e(t )
+∞ +∞
s (t ) = ∫ c (τ )e(t − τ )dτ = ∫ 2 B sin c(2πBτ )δ (t − τ )dτ
−∞ −∞

s (t ) = 2 B sin c(2πBt )
Le signal en sortie de ce canal a donc la forme d’un sinus cardinal, et s’annule pour les temps
multiples de 1/2B (Fig 102). L’abscisse t = 0 correspond à l’instant où le signal est transmis.
On voit que le signal s’étale dans le temps en raison des multiples rebonds de la fonction sinc.
Pour éviter tout chevauchement entre symboles consécutifs, après transmission d’un symbole, il serait
nécessaire d’attendre que ces rebonds se soient fortement atténués avant d’en transmettre un autre.
Plus on attendra et plus le débit de symbole sera limité, mais moins il y aura de risque d’interférence
intersymbole. Cependant, si on décide de transmettre un autre symbole à t = 1/2B, on le transmet au
moment où le symbole précédent n’a plus d’influence sur ce nouveau symbole. Si on en transmet
encore un autre après un temps t = 1/2B, les 2 symboles précédents n’auront pas d’influence non plus.
Et ainsi de suite. On peut donc en déduire une condition sur le débit de symbole maximal qui peut
traverser un canal idéal. La durée d’un symbole Ts doit respecter l’inégalité suivante :
1
TS ≥ Équation 121
2B
Pour éviter toute erreur de transmission dans un canal idéal, le débit de symbole doit respecter
l’inégalité suivante :
°
M ≤ 2B Équation 122

A. Boyer 112
Canaux de transmissions bruités Septembre 2011

0 1/2B 1/B

Fig. 102 – Réponse impulsionnelle d’un canal idéal de bande passante B - Sinus cardinal
Inversement, si on cherche à transmettre un débit de symbole donné à travers un canal passe-
bas idéal, sa bande passante B doit être telle que :
°
M
≤B Équation 123
2

Cette valeur est la bande passante minimale du canal. On l’appelle bande passante de Nyquist.

A. Boyer 113
Canaux de transmissions bruités Septembre 2011

Annexe E – Filtre en cosinus surélevé

Les signaux à émettre ou reçus doivent généralement être filtrés afin de les remettre en forme,
supprimer des composantes fréquentielles parasites et de réduire leur occupation spectrale pour ne pas
perturber ou bloquer des canaux voisins. Néanmoins, l’ajout d’un filtre conduit à modifier la forme des
signaux et à les étaler dans le temps. En effet, la plupart des filtres utilisés pour limiter l’occupation
spectrale d’un signal sont de type passe-bas. Ceux-ci contribuent à ralentir les temps de montée et de
descente des signaux binaires. Il convient donc de s’assurer que le filtre ne va pas générer des
interférences intersymboles, notamment si la réponse impulsionnelle de ce filtre s’étale sur plusieurs
période binaire.
Pour qu’un filtre ne produise pas d’IES, celui-ci doit respecter le critère temporel de Nyquist
(cf. chapitre C). Ainsi, sa réponse impulsionnelle doit s’annuler à chaque instant d’échantillonnage du
signal. Une famille de filtres couramment employée pour limiter l’occupation spectrale des signaux et
qui respecte les critères de Nyquist est appelée filtre en cosinus surélevé (raised cosinus). L’équation
suivante donne la forme temporelle d’une impulsion rectangulaire idéale passée à travers un filtre en
cosinus surélevé.
 πrt 
cos 
 t   TS 
f (t ) = sin c  2
(Équation 124)
 TS   2rt 
1 −  
 TS 
Ts est la durée de l’impulsion (donc du symbole transmis) et r est le facteur de raidissement
(roll-off) excès de bande, compris entre 0 et 1. Il caractérise la raideur de la pente du filtre passe-bas et
l’excès de bande passante. La figure ci-dessous présente sa réponse spectrale en bande de base et
l’expression du spectre.

r=0.25

Canal idéal 

 .

 TM , si f ≤ f1 = 0.5 × (1 − r ) M
 .
C ( f ) = 0, si f ≥ f 2 = 0.5 × (1 + r ) M

  
π  f − 0.5 × (1 − r ) M  
.

   
TM × cos 
2
.

F1 F2   2r M 
  
M/2
°
M est le débit de symbole = 1/Ts
Fig. 103 - Réponse fréquentielle d’un filtre à
cosinus surélevé

Le facteur de roll-off est lié aux caractéristiques de la réponse fréquentielle par :

A. Boyer 114
Canaux de transmissions bruités Septembre 2011

1 1
F2 − − F1
2TS 2TS
r= Équation 125 r= Équation 126
1 1
2TS 2TS

Ainsi, plus r est faible, plus la coupure est raide et plus F2 est faible. Un faible coefficient r
permet de limiter efficacement la bande passante du signal. Pour un coefficient r de 0.25, on a une
.
fréquence F1 = 0.4 M , où F1 représente la largeur de bande du canal.
Qu’en est-il de sa réponse impulsionnelle ? L’équation 127 donne l’expression de la réponse
impulsionnelle du filtre à cosinus surélevé, où p(0) est l’amplitude de l’impulsion en entrée du filtre à
cosinus surélevé.
 π .r.t 
cos 
 t   TS 
p(t ) = p(0 )sin c  2
Équation 127
T
 S  2.r.t 
1 −  
T
 S 
La figure 104 montre la réponse impulsionnelle de ce filtre pour 3 valeurs différentes de
coefficient de raidissement. La durée d’un symbole est de 2 µs. Il apparaît clairement que ce filtre
satisfait aux critères de Nyquist puisque la réponse impulsionnelle s’annule à chaque multiple de la
période d’échantillonnage. Néanmoins, suivant la valeur de r, la réponse présente des oscillations plus
ou moins importantes. Une valeur de r proche de 1 tend à réduire rapidement les oscillations et donc à
ne quasiment par induire d’IES, au détriment d’une plus grande occupation spectrale.

Fig. 104 - Réponse impulsionnelle d’un filtre à cosinus surélevé pour différentes valeurs de coefficient de
raidissement
La figure ci-dessous présente le spectre d’une impulsion passée au travers d’un filtre en
cosinus surélevé. On voit clairement que plus r se rapproche de 0, plus la réponse spectrale se
rapproche de celle d’un canal passe-bas idéal dont la bande passante est égale à la bande passante de
Nyquist. Plus r se rapproche de 1 et plus la bande spectrale occupée s’accroît. On exprime cet
accroissement à l’aide de l’excès de bande passante donné par :
°
W0 = F2 − F1 = r × B Nyquist = r × M (Équation 128)

A. Boyer 115
Canaux de transmissions bruités Septembre 2011

Excès de bande
passante
Bande passante
de Nyquist

Fig. 105 – Spectre d’une impulsion passée à travers un filtre en cosinus surélevé

Les réponses fréquentielles et impulsionnelles montrent qu’il existe une valeur optimale de r,
qui permet de trouver un bon compromis entre occupation spectrale et qualité du signal transmis. En
pratique, on trouve r compris entre 0.2 et 0.4.

A. Boyer 116
Canaux de transmissions bruités Septembre 2011

Annexe F – Fonction d’erreur de Gauss


complémentaire ERFC

Le calcul de la probabilité d’erreur implique la connaissance de la distribution statistique de la


perturbation. Un modèle couramment utilisé car
suffisamment réaliste est la distribution de Gauss, dont la f(x)
densité de probabilité est :
 ( x − µ )2  Gc
f (x ) =
1
exp −  (Équation 129)

2π σ  2σ 2 
0 x
où σ est l’écart type et µ est la valeur moyenne. La a
probabilité d’erreur, c'est-à-dire que la variable aléatoire x dépasse un seuil a, peut se calculer comme :
+∞
Perr = P(x ≥ a ) = ∫
a
f ( x )dx = 1 − ∫ f ( x )dx (Équation 130)
a −∞

Une loi de probabilité est dite normale et centrée si µ=0 et si l’écart type σ=1, son intégrale
entre -∞ et +∞ est égale à 1. Celle-ci s’écrit :
 x2 
f (x ) =
1
exp − 
2π  2  (Équation 131)
La fonction d’erreur de Gauss notée erf(z) est une fonction commune en analyse et
correspond à la probabilité qu’une variable normale centrée réduite prenne une valeur dans l’intervalle
[-z ;+z]. Elle s’écrit donc :

erf ( z ) =
2

z
(
exp − x 2 dx ) (Équation 132)
π 0

Cette fonction n’est pas calculable par simple intégration, mais est fourni dans des tables et est
définie dans la plupart des logiciels de calculs numériques (Matlab, Scilab) et tableurs (Excel). La
fonction d’erreur de Gauss complémentaire erfc(z) se calcule à l’aide de l’équation suivante :

erfc( z ) = 1 − erf ( z ) =
2

+∞
(
exp − x 2 dx ) (Équation 133)
π z

A. Boyer 117
Canaux de transmissions bruités Septembre 2011

Fig. 106 – Tracés de la fonction erfc(x), échelle des abscisses linéaire en haut, en dB en bas

A. Boyer 118
Canaux de transmissions bruités Septembre 2011

Annexe G – Glossaire

3GPP 3rd Generation Partnership Project


AWGN Additive White Gaussian Noise
BER Bit Error Rate
CDMA Code Division Multiple Access
DCS (DCS1800) Digital Cellular System
DAB Digital Audio Broadcasting
DSP Densité Spectrale de Puissance
DVB Digital Video Broadcasting
Eb/No Rapport signal à bruit par bit
EHF Extra High Frequency
FDMA Frequency Division Multiple Access
FFT Fast Fourier Transform
FSK Frequency Shift Key
GSM Global System for Mobile communications
HF High Frequency
IEEE Institute of Electrical and Electronics Engineers
IES ou ISI Interférence Entre Symboles, Inter Symbol Interference
ILS Instrument Landing System
LTE (3.9G) Long Term Evolution
MAC Medium Access Control
MF Medium Frequency
OFDM Orthogonal Frequency Division Multiplexing
PLL Phase Locked Loop
PSK Phase Shift Key
QAM Quadrature Amplitude Modulation
QPSK Quadrature Phase Shift Key
RFID Radio Frequency Identificator
SHF Super High Frequency
SNR Signal-to-Noise Ratio
TDMA Time Division Multiple Access
UHF Ultra High Frequency
UMTS Universal Mobile Telecommunications System
VCO Voltage Controlled Oscillator
VHF Very High Frequency
W-CDMA Wide Code Division Multiple Access

A. Boyer 119
Canaux de transmissions bruités Septembre 2011

Travaux Dirigés

A. Boyer 120
Canaux de transmissions bruités Septembre 2011

NOTIONS DE BASE

1. BRUIT DE FOND
Calculer le niveau absolu de bruit thermique obtenu pour une température ambiante de 25° C,
dans le cas :
 d’une voie téléphonique
 d’une transmission de musique
 d’une transmission de télévision

Quelle est la puissance minimale que doit avoir le signal transmis pour assurer un rapport
signal à bruit d’au moins 50 dB ?

2. DISTORSION DE SIGNAUX SINUSOÏDAUX PAR UN


OPERATEUR QUADRATIQUE
Déterminer les taux de distorsion harmonique, la forme temporelle et le spectre du signal de sortie
d’un opérateur quadratique, lorsque le signal d’entrée est :
 purement sinusoïdal
 la somme de 2 termes sinusoïdaux
A quelles applications pourraient servir un opérateur quadratique

3. MESURE DE L’INFORMATION - IMAGE TV


Une image TV haute résolution en noir et blanc comporte environ 2 106 pixels et 256 niveaux
de gris. La fréquence de renouvellement est de 32 images par seconde. On suppose que les pixels sont
indépendants les uns des autres et que les niveaux de gris sont équiprobables.

1. Evaluer le débit d’information de cette émission de télévision.


2. Quelle est la bande passante nécessaire pour transmettre le signal binaire en bande de base ?
afin d’assurer une réception de qualité ?

4. MULTIPLEX PCM
Cinq signaux de télémétrie d'une largeur de bande de 1 kHz doivent être transmis en multiplex
PCM. L'erreur maximale tolérée sur la quantification est de 0,5% de leur valeur crête. Ils sont
échantillonnés à 20% au-dessus de la fréquence de Nyquist. La synchronisation et le tramage
demandent un supplément de bits de 0,5%. Déterminer le débit minimal de la liaison et la bande
passante requise pour la transmission du signal multiplexé.

5. CANAL AVEC BRUIT BLANC ADDITIF GAUSSIEN


Un signal analogique de 4 kHz de largeur de bande est échantillonné à 1,25 fois la fréquence
de Nyquist, chaque échantillon étant quantifié sur 256 niveaux équiprobables. On suppose que les
échantillons sont statistiquement indépendants.

A. Boyer 121
Canaux de transmissions bruités Septembre 2011

1. Quel est le débit binaire issu de la source ?


2. Peut-on transmettre sans erreur le signal sur un canal à bruit blanc additif gaussien centré de
10 kHz de bande passante et présentant un rapport signal sur bruit de 20 dB ?
3. Calculer le SNR requis pour assurer une transmission sans erreur dans les conditions
précédentes.
4. Calculer la bande passante requise pour acheminer sans erreur les signaux de la source
considérée sur un canal avec bruit blanc additif gaussien centré de SNR 20 dB.

6. FILTRE A COSINUS SURELEVE


Soit un canal de bande passante égal à 36 MHz. On transmet un signal modulé en QPSK.

1. Calculer le débit de symbole maximal (en bande de base et après transposition de


fréquence).
2. Calculer le débit de symbole maximal si le signal de bande de base est mis en forme à l’aide
d’un filtre en sinc.
3. Calculer le débit de symbole maximal si le signal de bande de base est mis en forme à l’aide
d’un filtre à cosinus surélevé de facteur de raidissement r = 0.3.
4. Dans les 3 cas, calculer le débit binaire.

7. DIAPHONIE DANS UN DEMODULATEUR I/Q


On considère une modulation QPSK. On s’intéresse à l’effet d’une désynchronisation entre le
signal modulé reçu et la porteuse reconstituée par le récepteur.

1. En reprenant le modulateur I/Q présenté à la figure 57, proposez le schéma de principe d’un
démodulateur I/Q. Calculer les expressions théoriques des signaux modulés et démodulés.
2. Soit φ(t) le déphasage instantané entre le signal modulé reçu et la porteuse reconstituée par
le récepteur. Quel est l’impact sur les signaux démodulés ?
3. On note distorsion le rapport entre le signal parasite généré par le déphasage sur le signal
voulu. Quelle est la tolérance sur le déphasage pour que la distorsion soit inférieure à -40 dB ?

8. SENSIBILITE D’UN RECEPTEUR RADIO


Un récepteur radio dédié à une application de communication radio numérique vient d’être
développé. Cette application transmet un signal binaire de débit = 1 Mbits/s et utilise une bande
passante de 2.5 MHz. Pour garantir une qualité de service suffisante, le rapport signal à bruit par bit
Eb/No > 2 dB. Pour obtenir une couverture radio suffisante, le récepteur doit pouvoir mesurer des
signaux d’au moins -107 dBm (puissance mesurée en sortie de l’antenne).
La figure ci-dessous décrit l’architecture simplifiée de l’étage « front end » de réception. Les
caractéristiques de chaque étage vous sont aussi fournies.

G2 = 20 dB
NF2 = 10 dB
mixer
antenne câble Seuil de
LNA
sensibilité ?
G1 = -3 dB G3 = -10 dB
OL NF3 = 6 dB

A. Boyer 122
Canaux de transmissions bruités Septembre 2011

1. Calculer le facteur de bruit du récepteur.


2. Calculer le seuil de sensibilité en sortie du récepteur.
3. Est-ce que ce récepteur répond à la spécification attendue en terme de sensibilité ?
4. Que faudrait-il faire pour respecter la spécification en terme de sensibilité ?

9. BILAN DE LIAISON
On reprend le récepteur de l’exercice précédent. On considère une liaison entre un émetteur de
puissance égale à 20 dBm. Le gain de l’étage d’émission est de 10 dB. L’ensemble des pertes de
l’émetteur est d’environ 2 dB. Le signal transmis est modulé en QPSK.
Déterminer la perte de propagation maximale pour assurer un taux d’erreur binaire supérieur à
1 %.

10. CARACTERISATION DU TAUX D’ERREUR BINAIRE D’UNE


INTERFACE RADIO
Les ingénieurs d’une compagnie de fabrication de téléphone mobile viennent de développer un
prototype de circuit récepteur GPRS (General Packet Radio Service). Ce prototype doit subir une
batterie de tests afin de vérifier ces performances, dont un test de sensibilité. Il s’agit de vérifier que le
récepteur est capable de recevoir correctement les données en présence jusqu’à une valeur limite de
rapport signal sur bruit. Les spécifications de l’étage d’émission réception sont les suivantes :

 taux d’erreur : BER < 0.1 %


 modulation : QPSK
 Fréquence bande descendante : 1805 – 1850 MHz
 largeur d’une sous bande : 200 KHz
 débit binaire maximal : 171 Kbits/s

Le test est effectué en utilisant un testeur de communication radio, capable de générer un


signal RF avec un niveau de puissance précis, de récupérer le flux binaire capté et régénérer par le
système sous test et de mesurer le nombre d’erreurs binaires. Dans un premier temps, le niveau de
bruit est mesuré sur l’ensemble de la bande descendante. Dans un deuxième temps, durant 100 ms, une
séquence binaire aléatoire est générée au rythme binaire maximal. Le flux binaire récupéré par le
récepteur et la puissance du signal en entrée du récepteur sont envoyés à l’appareil de test, permettant
de mesurer le nombre d’erreurs pour un rapport signal sur bruit donné. Ce test est effectué sur chaque
sous bande de la bande descendante. L’équipe de test s’est intéressée à 3 sous bandes qu’on appelle A,
B et C, sur lesquelles ils obtiennent les résultats suivants :

sous bande A B C
SNR (dB) 6.1 5.2 8
nombre d’erreurs 15 34 45

1. Expliquer sous forme d’un schéma le protocole de mesure. Indiquer quelles sont les
grandeurs mesurées.
2. Commentez les résultats obtenus.

A. Boyer 123
Canaux de transmissions bruités Septembre 2011

11. INTERNET HAUT DEBIT PAR LIAISON TELEPHONIQUE


Il y a quelques années, le réseau téléphonique classique appelé Réseau Téléphonique
Commuté (RTC) était employé pour accéder à Internet. Cependant, les débits étaient limités dans le
meilleur des cas à 56 Kbits/s, interdisant tout accès en haut débit. Cette situation faisait craindre le pire
aux opérateurs téléphoniques pour leur avenir puisque, au même moment, des opérateurs concurrents
investissaient sur des techniques alternatives (fibres optiques, satellites). Pourtant, les opérateurs
téléphoniques ont gagné la bataille de l’Internet haut débit en continuant à transmettre sur les câbles à
paires cuivrées, grâce à une famille de techniques appelée xDSL (x Digital Subscriber Line).
Dans cet exercice, nous allons analyser les techniques d’accès à Internet par le réseau RTC et
par les techniques de type xDSL.

Voix
Centre
Voies
[0 – 4 KHz] Local
multiplexées

Centre Centre à autonomie


Local d’acheminement

Boucle locale Centre


Local
Lignes analogiques
RTC

1. Pourquoi un signal numérique à 56 Kbits/s ne peut pas être transmis directement en bande
de base sur le réseau RTC ? Pourquoi un modem analogique est-il requis ?
2. Quel est le débit binaire maximal qu’on peut atteindre si on emploie une modulation de type
FSK, pour laquelle un ‘0’ est transmis par une fréquence F et un ‘1’ par une fréquence 2F ? Si on
emploie une modulation de type QAM64 ?
3. Proposer une solution permettant d’augmenter le débit binaire en continuant à utiliser le
réseau téléphonique. Quel problème apparaît pour une utilisation de type échange de données ?
4. Une première modulation imaginée pour l’ADSL est la modulation CAP (Carrierless
Amplitude Phase modulation). Celle-ci est proche d’une modulation m-QAM, mais elle est
entièrement numérique. Si on utilise une modulation de type 512-CAP, quel est le débit binaire
maximal théorique ?
5. Quelles sont les conséquences de l’ajout de bruit sur le signal ? Comment maintenir une
qualité de service constante ?
6. Pour surmonter les problèmes de la modulation CAP, une autre modulation appelée
Discrete Multi-Tone a été proposée. Elle est aussi basée sur une modulation m-QAM, mais la bande
allouée est subdivisée en canaux de 4.3 KHz de largeur, 250 sous-canaux sont réservés au signal
ADSL. Si une modulation de type QAM sur 15 bits est employée, quel est le débit maximal
théorique ? Quel est l’avantage de cette technique de modulation par rapport à la modulation CAP en
terme de robustesse au bruit ?

12. SIGNAUX BLOQUANTS ET PRODUIT D’INTERMODULATION


On cherche à dimensionner la plage de linéarité d’un récepteur dans le cadre d’une application
Bluetooth. Les caractéristiques de ce récepteur sont les suivantes :

• F0 = 2400 – 2483.5 MHz

A. Boyer 124
Canaux de transmissions bruités Septembre 2011

• Largeur de canal = 1 MHz


• Niveau de sensibilité de référence < -70 dBm
• SNR > 10 dB
• Gain récepteur = 10 dB

La figure ci-dessous décrit le gabarit fréquentiel du spectre du signal reçu, défini par la norme
Bluetooth. Il définit le niveau maximal pris par les signaux bloquants.

1. Pourquoi les signaux bloquants sont un problème pour la qualité du signal reçu ? Quel
phénomène se produit lorsqu’un signal bloquant interfère avec le signal désiré ?
2. Quelle est la situation pire cas en terme de réception ?
3. Calculer la distorsion d’ordre 3 IM3 nécessaire pour garantir une bonne réception même
dans le pire cas.

A. Boyer 125

Vous aimerez peut-être aussi