Vous êtes sur la page 1sur 27

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/327141787

Les liaisons hertziennes numériques très haut débit - Troisième Edition

Research · August 2018


DOI: 10.13140/RG.2.2.17326.97605/1

CITATIONS READS
0 1,733

2 authors, including:

Xavier Le Polozec
Ericsson
41 PUBLICATIONS   211 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Shunt diode detector View project

All content following this page was uploaded by Xavier Le Polozec on 07 September 2018.

The user has requested enhancement of the downloaded file.


Les liaisons hertziennes numériques
très haut débit
Troisième Edition (Aout 2018)

Xavier Le Polozec
Ericsson France
Introduction
En 1864, James Clerk Maxwell démontra que l’énergie pouvait être transportée dans le vide par
les champs électromagnétiques et que les ondes électromagnétiques sont de même nature que
celles régissant la lumière.
J.C Maxwell donna son nom à des équations élégantes qui unissent les domaines du magnétisme
et de l’électricité. Ces équations formalisent ce qui avait été découvert expérimentalement
auparavant, à savoir que toute variation d’un champ électrique s’accompagne d’une variation du
champ magnétique et réciproquement. Les deux champs sont intimement liés au point que si vous
faites tourner un aimant dans votre main (champ magnétique variable) vous créez inévitablement
un champ électrique variable et donc une onde électromagnétique associée. Si vous allumez la
lumière de votre chambre (variation brutale du champ électrique dans les fils de cuivre de votre
système d’éclairage) alors vous créez une onde électromagnétique qui peut être perçue sous
forme de parasites sur divers dispositifs tels que des récepteurs radio. Le même phénomène se
produit lorsqu’une mobylette dont l’anti parasite (blindage) a été retiré ou pas correctement
installé passe sous vos fenêtres alors que vous écoutez la retransmission de votre opéra favori.
Dans ce dernier cas ce sont les étincelles produites par la bougie (champ électrique variable) qui
sont à l’origine du champ électromagnétique transmis jusqu'à votre récepteur.

Une démonstration expérimentale du transport de l’énergie fut réalisée en 1888 par Heinrich
Hertz qui fit exploser de la dynamite à distance.
L’idée, plus pacifique, d’utiliser les ondes électromagnétiques pour communiquer à distance sans
support matériel, vint par la suite et après plusieurs expérimentations Gugliemo Marconi réalisa
la première liaison radio transatlantique en 1901 entre Poldhu (Cornouailles) et Terre-Neuve (au
Canada).

C’est André Clavier qui est à l’origine d’un essor important en France des faisceaux hertziens
donnant un sens à cette dénomination. Une transmission radio fut réalisée entre Calais et Douvres
le 31 mars 1931 en onde ultra courte (1.7 GHz) au moyen d’antennes paraboliques de 3 mètres de
diamètre. Les antennes étaient utilisées pour concentrer l’énergie électromagnétique et réaliser un
fin pinceau (un faisceau) dirigé vers l’antenne de réception situé à 40km. Cette expérience n’avait
rien à voir avec celle réalisée trente ans auparavant par Marconi qui avait utilisé des antennes
rudimentaires et une très forte puissance d’émission (10 kW), alors qu’ici il s’agissait d’une
puissance bien inférieure à 1 W.
L’expérimentation d’André Clavier au cours de laquelle des messages télégraphiques et
téléphoniques furent échangés avec une excellente qualité montra les propriétés et l'intérêt
technico-économique de ces nouvelles techniques. L’ère des faisceaux hertziens était née.
Aujourd’hui ils sont utilisés partout sur la planète dans de nombreuses applications.
Les opérateurs de réseau mobile, par exemple, connectent à l’aide de faisceaux hertziens 60% de
leurs sites d’accès radio mobile (les antennes relais) au cœur du réseau (les équipements dans
lesquels sont réalisées les interconnexions entre les abonnés mais également les authentifications,
la facturation, etc.). A titre d’information, un opérateur mobile possède de l’ordre de 15000 à
20000 antennes relais pour couvrir un territoire comme la France.
De nombreux défis restent à relever du fait que l’on demande aujourd’hui aux faisceaux hertziens
de transmettre des quantités d’information qui auraient été jugées gigantesques à l’époque des
pionniers. De plus, la nature de l’information à transmettre est devenue essentiellement
numérique, c’est à dire codée sous forme de suites de 0 ou de 1 appelés bit (bit contraction de
Binary digIT ou élément binaire utilisé pour coder l’information). Les besoins en débit transmis
par les faisceaux hertziens sont à ce jour de plusieurs 100 Mbits/s (millions de bits par seconde) à
quelques Gbit/s (milliard de bits par seconde).
Les distances atteignables par les faisceaux hertziens sont de quelques mètres à plus de 100 km.

Les défis
De nombreux défis doivent être aujourd’hui relevés par les équipements hertziens, une gestion
optimale de la ressource radio, la prise en compte des caractéristiques du milieu atmosphérique
traversé ainsi que la prise en compte des débits qui deviennent de plus en plus importants.

La ressource radio, une denrée rare et payante.


Le spectre hertzien utilisé à ce jour pour la transmission d’information s’étend de 1 GHz à 100
GHz. Ce spectre étant un bien public, chaque état en gère la location au travers de l’attribution
d’une licence ou droit d’usage. Ce spectre est découpé en bandes de fréquences puis canaux de
diverses largeurs (1.75, 3.5, 7, 14, 28, 40, 56, 112 MHz en Europe pour la plupart des bandes).
Une entente mondiale indique comment répartir ces canaux au sein d’une bande de fréquences de
manière à s’assurer une utilisation optimale de la ressource et en évitant autant que possible les
perturbations entre canaux.
Cet arrangement est ensuite décliné en Europe sous forme de directives et enfin en France sous
forme d’arrêtés et décrets.
L’ARCEP en France est l’organisme en charge de l’attribution des canaux radio et du
recouvrement des licences.
Comme le spectre est une denrée payante et de plus en plus utilisée par les dispositifs hertziens
(et sans fil d’une manière générale) il est impératif de l’utiliser de manière optimale. Le défi
consiste donc à faire passer le plus d’informations possible dans le plus petit canal possible.

L’atmosphère, un milieu chahuté


L’atmosphère terrestre possède des propriétés telles que les canaux ne sont pas tous égaux entre
eux en termes de performances. Ainsi un canal radio autour de 1 GHz ne subit pas les mêmes
perturbations qu’un canal à 13 GHz ou 70 GHz.
Les principales perturbations rencontrées sont dues aux absorptions, aux hydrométéores et aux
réflexions. On considère comme hydrométéores les nuages, la brume, le brouillard, la pluie et la
neige.

Les absorptions les plus importantes sont apportées par les molécules d’eau (22 GHZ) et
d’oxygène (60 GHz et 120 GHz) présentes dans notre atmosphère. Entre les pics d’absorption, on
trouve des bandes de fréquences utilisables pour les faisceaux hertziens. Les liens hertziens
installés dans des pays à fort taux d’humidité subissent des atténuations apportées par
l’absorption due à la vapeur d’eau plus importante.

Les molécules d’eau dans l’atmosphère se présentent sous forme d’hydrométéores et n’agissent
pas de la même façon selon leur taille et leur nombre. Tant que les gouttes de pluie ont un
diamètre bien inférieur à la longueur de l’onde utilisée par le lien hertzien (cas de la brume, du
brouillard et de la bruine) l’atténuation est fonction de la fréquence et proportionnelle à la densité
volumique d’eau. Pour les autres cas, la taille, la forme et la répartition des gouttes de pluie ont
une influence. Une grosse goutte de pluie aura ainsi un impact plus important sur les hautes
fréquences hertziennes qu’une goutte de pluie très fine. Les grosses gouttes de pluie sont
généralement dues à des orages ou pluies relativement localisées qui ne s’étendent qu’à
l’intérieur de zones dont les dimensions ne dépassent pas quelques kilomètres, alors qu’une zone
de pluie fine peut s’étendre sur plusieurs dizaines de kilomètres. Une liaison hertzienne de 50
kilomètres à 6 GHz n’est pratiquement jamais coupée par la pluie, alors qu’une liaison de 5
kilomètres à 40 GHz peut être coupée par un simple orage.
Les canaux entre 1 GHz et 10 GHz sont extrêmement utilisés car l’absorption et l’influence des
hydrométéores y sont moins importantes. Il était aussi plus facile de développer des équipements
dans ces bandes de fréquence par le passé. De nombreuses évolutions technologiques ont permis
depuis l’utilisation des bandes supérieures à 10 GHz. La première de ces évolutions porte sur la
génération des porteuses qui était beaucoup plus difficile à réaliser il y a quelques décennies
qu’aujourd’hui où les transistors ont remplacé les tubes et où les techniques de gravure utilisées
dans la réalisation des circuits intégrés microondes se sont considérablement affinées, permettant
finalement le traitement des très hautes fréquences. La seconde évolution technologique est
l’ajout de fonctionnalités permettant de combattre les phénomènes liés à la propagation et
principalement dus aux hydrométéores qui affectent les liens hertziens fonctionnant au-dessus de
10 GHz.

Les réflexions les plus importantes sont apportées par la stratification de l’atmosphère, la
topologie de nos villes ainsi que les grandes étendues d’eau (lacs, étangs, mer). Ces réflexions
peuvent conduire au phénomène de propagation par trajets multiples.
L’atmosphère terrestre a tendance à se stratifier. Les molécules les plus lourdes sont entraînées en
grosse quantité au niveau du sol naturellement par la gravité et l’on trouve dans les hautes
couches des molécules plus légères en plus faible quantité. L’atmosphère voit ainsi ses propriétés
optiques (indice de réfraction) changer avec l’altitude. Une onde électromagnétique n’étant ni
plus ni moins qu’une onde lumineuse non visible, toute variation, avec l’altitude, des propriétés
optiques du milieu traversé entraîne également des variations des propriétés électromagnétiques
avec l’altitude. Une onde électromagnétique envoyée horizontalement (d’une tour hertzienne A
vers une tour hertzienne B) aura ainsi tendance à s’incurver vers le sol comme si l’onde était
pesante. Il est à noter que ce n’est bien sûr qu’une vue de l’esprit car seule la stratification de
l’atmosphère entraîne cette courbure et aucune action directe de la gravité sur l’onde n’en est la
cause. A. Einstein a bien sùr démontré que la gravité déformait l’espace et conduisait à la
courbure de rayon lumineux (onde électromagnétique) mais cet effet n’est pas perceptible dans le
cas des faisceaux hertziens.
La stratification de l’atmosphère terrestre est très variable au cours du temps et elle est
dépendante de l’heure de la journée, du cycle jour-nuit, de la température, des saisons, du vent, et
de la zone géographique considérée.
Les ingénieurs en charge de l’établissement d’un lien hertzien s’affranchissent de la courbure de
l’onde électromagnétique en modifiant localement la valeur du rayon terrestre prise dans leurs
calculs et de toutes les variations de l’atmosphère en utilisant un modèle standard de
l’atmosphère standard sur la zone considérée. En prenant le rayon terrestre égal à 4/3 du rayon
terrestre réel, les trajets des ondes électromagnétiques deviennent ainsi rectilignes.

Bien qu’une antenne de faisceau hertzien soit conçue pour concentrer l’énergie de l’onde radio
selon son axe principal (ou lobe principal), une partie de l’énergie est également émise dans des
directions non souhaitées (lobe secondaires). L’ouverture du lobe principal qui dépend de la
fréquence et de la taille de l’antenne peut être de quelques dixièmes de degré à quelques degrés,
justifiant d’autant plus l’appellation de faisceau hertzien

Puisqu’ils permettent à une partie de l’énergie d’être envoyée vers le sol ou le ciel, les lobes
secondaires sont à l’origine de réflexions lorsqu’on a, sous le trajet du lien hertzien, la présence
au sol de grandes surfaces ayant un indice de réfraction différent de l’atmosphère. Ainsi, les
grandes étendues d’eau (mer, lacs, étangs), les toits métalliques (hangars) se transforment en
véritables miroirs pour les ondes électromagnétiques qui viendraient à les heurter. Certains de ces
« miroirs » sont fixes et les ingénieurs savent s’affranchir de leurs effets indésirables, mais les
miroirs mouvants sont plus difficiles à traiter (marée en ce qui concerne la mer, crue et décrue
pour les lacs). Des réflexions plus rares et plus furtives, et donc plus difficiles à prendre en
compte, se produisent parfois de manière surprenante sur des objets mouvants comme les avions
ou les navires.

Le phénomène de propagation par trajets multiples est la conséquence des réflexions dont les
causes ont été expliquées. Dans des conditions normales de propagation, c’est à dire en l’absence
de stratification (c’est le cas lorsque l’air est mélangé par le vent) ou de réflexion, il n’y a qu’un
seul trajet emprunté par l’onde électromagnétique entre une tour hertzienne A et une tour
hertzienne B. Lorsque les conditions de propagation deviennent anormales (heureusement, une
faible partie du temps) il peut y avoir plusieurs trajets. Comme les longueurs de ces trajets sont
différentes, les ondes électromagnétiques arrivant sur le site B possèdent des phases différentes.

Selon la configuration des sites, la fréquence de l’onde électromagnétique et les réflexions en jeu,
il se peut que les ondes reçues par le site B se recombinent de manière constructive ou
destructive. Lorsque les ondes se recombinent de manière destructive, cela se traduit par ce que
l’on appelle des évanouissements. Les évanouissements peuvent être de deux natures : « plats »
ou « sélectifs ». L’affaiblissement plat impacte la totalité du canal de transmission et se traduit
par une baisse du niveau reçu par le site B ou, pire, par une coupure totale. L’affaiblissement
sélectif impacte une partie du canal de transmission. Les affaiblissements peuvent être des
phénomènes excessivement rapides entraînant des perturbations dans les liens hertziens s’ils ne
sont pas munis de systèmes et de fonctionnalités de protection efficaces.
L’explosion du trafic, la conséquence du succès d’Internet et des réseaux
mobiles
L’arrivée d’Internet qui peut être assimilé à une grande Agora (les réseaux sociaux, les
messageries instantanées, etc.), un grand super marché (le e-commerce) et une immense
médiathèque (livres, musiques, presse, Wikipedia, Youtube, etc.) a fait croître l’usage de
nouvelles applications et services.
Ces services et applications sont aujourd’hui également utilisés dans un contexte de mobilité
grâce aux réseaux mobiles de données (2G, 3G, LTE, etc.) et aux diverses technologies qui y sont
déployées (GPRS, EDGE dans les réseaux 2G, HSPA dans les réseaux 3G, etc.).
Le succès des réseaux mobiles de voix et de données dont les déploiements ont commencé dans
les années 80 est un fait. Les débits apportés aux usagers dans un contexte de mobilité n’ont cessé
de croître, à tel point que les quantités d’information à apporter aux sites d’accès radio mobile
(les antennes relais) sont devenues considérables. Les projections montrent que ce trafic ne va
cesser de croître dans les années à venir.
Les figures suivantes donnent la projection de la demande en débit par site selon que le réseau de
l’opérateur mobile considéré est en phase d’introduction, d’évolution ou bien propose des
services avancés.
Il faut donc que les faisceaux hertziens soient à même de prendre en charge cette demande.

Les techniques pour répondre aux défis


De nombreuses techniques sont utilisées pour relever les défis auxquels font face les faisceaux
hertziens aujourd’hui. Ces techniques s’appuient sur une utilisation de plus en plus efficace des
canaux radio couplée à l’emploi de fonctionnalités permettant de s’adapter aux caprices de
l’atmosphère. Toutes ces techniques travaillent main dans la main pour résoudre le paradigme
« transmettre plus en coûtant le moins tout en restant opérationnel le plus longtemps ».

Les Modulations complexes

Plus de capacité dans un canal radio


Pour transmettre une information sur un canal radio, on agit sur un paramètre physique de l’onde
électromagnétique utilisée comme support (on parle d’une onde porteuse).
Une onde électromagnétique étant définie par sa puissance (l’amplitude au carré), sa fréquence,
ainsi que sa phase (par rapport à une référence) on peut agir sur l’une quelconque de ces
caractéristiques pour transmettre une information. Le procédé consistant à ajouter l’information
sur une onde électromagnétique se nomme la modulation.
On module le signal porteur avec le signal à transmettre qui lui-même véhicule l’information. On
parle de modulation d’amplitude lorsque l’on fait varier l’amplitude de l’onde porteuse, de
modulation de fréquence lorsque l’on fait varier la fréquence, et de phase lorsque l’on agit sur la
phase du signal porteur.
Un premier procédé de modulation élémentaire consisterait à couper ou allumer la porteuse selon
un rythme ou intervalles de temps définis, la présence de la porteuse étant alors associée à un 1 et
son absence à un 0. Pour fonctionner, ce procédé nécessite toutefois que l’émetteur et le récepteur
soient synchronisés, ce qui nécessite soit de transmettre une seconde information pour
synchroniser les deux entités soit d’implémenter un dispositif capable de retrouver le rythme au
sein même du signal transmis. C’est cette dernière approche qui est réalisée dans les faisceaux
hertziens.
Un deuxième procédé pourrait consister en l’utilisation de la modulation de fréquence. En
utilisant deux porteuses, les 1 seraient transmis en allumant une porteuse de fréquence F1 et les 0
en allumant une porteuse de fréquence F2. Cette deuxième méthode a le principal défaut
d’utiliser deux porteuses au lieu d’une seule et n’élimine pas la nécessité de la synchronisation ou
récupération de rythme.
Avec ces deux procédés de modulation élémentaires, il faut également augmenter le rythme
d’allumage/extinction pour augmenter le débit d’information transmis. Or il s’avère que le seul
fait de couper/allumer une porteuse selon un rythme donné entraîne un étalement de l’énergie de
l’onde électromagnétique sur une bande de fréquences dont la largeur, ou occupation spectrale,
est liée au rythme lui-même. Ainsi plus un signal porteur est allumé/éteint rapidement et plus il
occupe une largeur de bande de fréquences importante.
Les procédés de modulation élémentaires décrits ci-dessus sont d’autant plus gourmands en terme
de largeur de bande de fréquences (ou spectre) que le débit est élevé. Ce comportement est
rédhibitoire avec le fait que les canaux mis à disposition par l’ARCEP ont une largeur définie et
non extensible. Il est de plus totalement interdit de déborder du canal radio alloué pour ne pas
perturber les canaux adjacents.

Pour pallier les problèmes évoqués dans les exemples ci-dessus, on utilise des procédés de
modulation permettant de confiner l’étalement de l’énergie de l’onde porteuse à la largeur du
canal tout en permettant d’augmenter les débits transmis.
Les modulations les plus couramment utilisées en transmission hertzienne utilisent la modulation
de phase (xPSK - Phase Shift keying) ou combinent la modulation de phase et d’amplitude
(xQAM - Quadrature Amplitude Modulation).
Dans ces modulations, on ne transmet pas des suites de 0 ou 1 mais des suites de symboles eux-
mêmes définis par un ensemble de 1 et de 0.
Pour mettre en avant les avantages de ces modulations, les modulations QAM sont décrites
succinctement ci-dessous.

Les modulations xQAM


Pour une modulation xQAM , « x » donne le nombre d’états autrement dit le nombre de symboles
utilisables pour la transmission. En pratique « x » peut être choisi égal à 4, 16, 32, 64, 128, 256,
512, 1024, 2048, 4096…etc. A ce jour, on ne voit pas de modulation supérieure à 4096 QAM

Pour bien comprendre l’intérêt des modulations QAM, prenons tout d’abord l’exemple d’une
modulation QAM à 4 états soit 4QAM (x=4) pour laquelle il y a 4=22 symboles utilisables.
Chacun d’eux représente 1 paire de bits (00, 01, 10 ou 11). La transmission d’un symbole en
4QAM nécessite ainsi un débit deux fois moins important que le débit binaire du signal utile à
transmettre.
A l’extrême, on trouvera la modulation 4096QAM pour laquelle il y a 4096=212 symboles
utilisables. Chacun d’eux représente 12 bits (000000000000, 000000000001, 000000000010
….111111111111). La transmission d’un symbole en 4096QAM nécessite ainsi un débit douze
fois moins important que le débit binaire du signal utile à transmettre.
Ainsi pour transmettre une suite de 30 bits, 15 symboles sont nécessaires en 4QAM et 3 symboles
seulement en 1024QAM. Pour transmettre une suite de 36 bits, 3 symboles (chacun de 12 bits)
sont nécessaires en 4096QAM.
Le débit symbole, différant du débit binaire, s’exprime en baud.

Chaque symbole est défini et transmis au moyen d’une combinaison unique de l’amplitude et de
la phase de la porteuse.
Le fait de ne transmettre que des symboles plutôt que des bits entraîne une diminution de la
bande de fréquences nécessaire à la transmission du signal utile. Autrement dit, pour un même
encombrement spectral, le débit utile se voit augmenté car le rythme de modification (en
amplitude et phase) de la porteuse est imposé par le débit symbole et non plus par le débit binaire.
Il est à noter que le signal radio est continûment transmis entre chaque symbole. C'est-à-dire que
l’on ne coupe pas l’émission après l’envoi de chaque symbole car cela aurait pour conséquence
de générer des parasites indésirables. A la réception, on s’assure de « n’écouter » le signal qu’aux
instants où le signal radio représente un symbole. C’est la récupération de rythme évoquée dans
la modulation élémentaire décrite préalablement. Ce rythme est aisément récupéré car il est
présent dans le signal radio reçu et un simple asservissement permet de l’obtenir.

On peut visualiser chaque symbole utilisé (par la modulation considérée) sur une figure que l’on
nomme constellation. Cette figure s’obtient en traçant sur un plan complexe l’amplitude et la
phase du signal au cours d’une période suffisamment longue pour que tous les symboles soient
utilisés plusieurs fois.
Sur les figures ci-dessous sont représentées les constellations d’une modulation 64QAM et
256QAM. En rouge figure la trace du signal radio (représentant son amplitude et sa phase au
cours du temps) et en blanc les instants où ce signal est interprété comme symbole par le
récepteur.

Le choix des amplitudes et des phases des symboles s’effectue en répartissant ceux-ci sur la
constellation. Le principal critère retenu pour la répartition des symboles sur la constellation est
que la distance entre deux symboles adjacents soit la même pour tous les symboles.

Limites de l’usage des modulations complexes


Il existe toutefois une limite de l’augmentation des débits transmis au sein d’un canal radio. En
effet, lorsque la puissance du signal reçu baisse (ce qui serait dû par exemple à un
évanouissement plat), le bruit (dû à l’agitation thermique des électrons) présent dans
l’équipement hertzien devient non négligeable. Cela a pour conséquence que les symboles reçus
sont entachés de bruit et que des erreurs de transmission peuvent survenir car l’on peut interpréter
un symbole pour un autre.
Pour éviter ces problèmes, on s’arrange pour que le signal reçu, dans les pires conditions de
propagation, soit toujours très supérieur à celui qui donne un taux d’erreur de 10-6 (1 bit transmis
erroné sur 1 millions). On y parvient en choisissant des antennes d’une taille suffisante pour
apporter cette marge nécessaire (plus une antenne parabolique est grande et plus elle apporte du
gain car elle concentre d’autant plus l’énergie de l’onde radio). L’augmentation de la taille des
antennes a bien sûr ses limites liées à la solidité du support (le pylône ou la tour doivent supporter
le poids et les efforts induits par le vent dans l’antenne), à la place disponible et aux contraintes
environnementales (on ne peut installer d’antenne sur les monuments historiques par exemple).

A quel symbole
attribuer ce point ?

Les systèmes à diversité d’espace ou comment lutter contre les


évanouissements sélectifs
Pour combattre les évanouissements sélectifs, on utilise des systèmes de protection nommés
diversités. Il existe plusieurs types de diversités, les principaux étant la diversité de fréquence et
la diversité d’espace, mais il existe également la diversité angulaire, la diversité de polarisation et
la diversité de chemin.

En diversité de fréquence, on utilise en fait deux liens radio (2 émetteurs associés à leurs antennes
et 2 récepteurs associés à leurs antennes) fonctionnant sur des bandes de fréquence différentes. La
même information est envoyée sur les deux liens simultanément et l’on choisit à la réception le
meilleur signal des deux. Ce système s’appuie sur le fait que, statistiquement, il est peu probable
que les deux canaux radio (chacun étant dans une bande de fréquences différente) soient affectés
simultanément par des problèmes de propagation. La diversité de fréquence a toutefois le défaut
d’utiliser deux canaux radio et de multiplier le nombre d’antennes.

En diversité d’espace, on utilise, sur un des deux sites du lien hertzien, un émetteur (couplé à une
antenne) et, sur le site distant, deux récepteurs (chacun relié à une antenne) écoutant le même
canal radio. Les deux antennes de réception sont séparées d’une distance telle que les signaux
reçus par chacune d’elles soient décorrélés, entraînant le fait que les canaux radio ne sont pas
affectés de la même manière par les problèmes de propagation.
Plusieurs stratégies peuvent ensuite être appliquées (sélection, combinaison ou simple sommation
des signaux).
Dans le cas d’une stratégie de sélection, on choisit le signal le moins perturbé; dans une stratégie
de combinaison, on combine les deux signaux affectés pour obtenir, à l’aide de traitements
appropriés, un signal résultant non affecté (cette stratégie nécessite un traitement complexe et
peut, dans certaines conditions, conduire à la coupure totale du lien, ce qui est une catastrophe).

Dans toutes ces stratégies, les imperfections éventuelles restantes sont corrigées par un dispositif
nommé égaliseur auto adaptatif qui agit en temps réel sur le signal résultant issu du système de
diversité.
Comme les liens hertziens sont pour la plupart bidirectionnels, on installe généralement deux
antennes de réception sur chacun des sites afin d’avoir de la diversité d’espace sur les deux sites.
Bien qu’un seul émetteur par site soit nécessaire dans un système à diversité d’espace, en
pratique on installe deux émetteurs pour la simple raison que les modules radio font à la fois
émetteur et récepteur et sont indissociables. Dans ce cas, un seul des deux émetteurs émet et
l’autre est utilisé pour prendre le relais en cas de panne du premier (il est dit en veille active ou
« hot standby »). On parle dans ce cas de protection 1+1 (1 lien actif + 1 lien secours) avec
diversité d’espace.
On peut considérer que les humains utilisent, pour communiquer entre eux, un système très
élaboré mélangeant de la diversité d’espace, de chemin et angulaire. En effet nous utilisons une
source d’émission (la bouche), deux récepteurs (les oreilles), le cerveau qui assure le choix de la
meilleure stratégie à adopter pour « entendre » le mieux possible et le cou servant à orienter les
oreilles vers le meilleur chemin et/ou angle de réception.

Les systèmes à diversité d’espace peuvent toutefois être modifiés pour augmenter le débit
transmis par le lien hertzien. En effet, plutôt que de laisser un émetteur en veille active (c'est-à-
dire non employé pour transmettre du trafic), on peut l’utiliser pour transmettre un trafic moins
prioritaire. Dans ce cas, pour éviter le brouillage des signaux, on sépare les trafics en exploitant
les deux plans de polarisation sur lesquels une onde radio peut se propager dans l’air ce qui a
pour effet de séparer totalement les signaux. En cas de panne de l’émetteur principal, le trafic
prioritaire circulant sur celui-ci est basculé sur l’émetteur de secours et le trafic non prioritaire
transporté par ce dernier est abandonné. On peut, avec cette amélioration, doubler voire tripler la
capacité d’un lien hertzien durant les moments où il n’y a pas de problème de propagation.

La Modulation Adaptative
Nous avons vu qu’une marge était prise dans l’établissement d’un lien hertzien pour absorber
toutes les variations du signal reçu provoquées par les affaiblissements. Cette marge n’est
consommée que lorsque les conditions de propagation sont chahutées, ce qui ne représente
qu’une très faible partie du temps sur une année. L’idée de la modulation adaptative est d’utiliser
cette marge pour transmettre plus de débit lorsque les conditions de propagation sont favorables,
en prenant une modulation 512QAM ou 1024QAM par exemple. Puis, lorsque les conditions de
propagation ne le permettent plus, de revenir à une modulation moins complexe (64QAM,
16QAM ou 4QAM par exemple). Le système sélectionne en temps réel la modulation la plus
adaptée aux conditions de propagation et effectue les changements de modulation sans introduire
d’erreur de transmission. On dimensionne le lien hertzien de telle manière que le trafic le plus
prioritaire (priorité 1) soit transmis quelles que soient les conditions de propagation. Les trafics
de priorité plus basse utilisent la capacité de transmission restante disponible. Une gestion des
priorités de trafic choisit de ne pas transmettre tout ou partie des trafics moins prioritaires si la
capacité restante du lien ne le permet pas (les faisceaux hertziens aujourd’hui peuvent gérer
jusqu'à 8 niveaux de priorité).
Ce fonctionnement est illustré dans la figure ci-dessous pour un canal de 56 MHz et 4 niveaux de
priorité.
Cette fonctionnalité va être de plus en plus utilisée sur les liens hertziens car elle permet de
transporter plus de débit au sein du canal.

MIMO
Une autre manière d’obtenir plus de débit dans un canal radio unique est d’utiliser la technique
MIMO (Multiple Input Multiple Output). Avec MIMO, on utilise plusieurs émetteurs où chacun
d’entre eux transmet un signal différent en exploitant le même canal radio. En multipliant le
nombre d’émetteurs présents, on multiplie d’autant la quantité d’information transmise au sein du
canal (les phases relatives de chaque flux émis peuvent être quelconques). On sépare les
émetteurs d’une distance (d) qui est fonction de la distance (D) sur laquelle on souhaite
transmettre. Comme la vitesse de propagation d’une onde radio est égale à la vitesse de la
lumière, on peut choisir « d » de telle manière qu’à la distance « D » la différence des longueurs
des trajets empruntés par les ondes radio soit égale à une fraction de la longueur d’onde, ce qui a
pour conséquence d’introduire un déphasage entre les signaux reçus. On utilise ensuite plusieurs
récepteurs séparés d’une distance (d) qui, à l’aide d’un traitement approprié jouant sur des
déphasages relatifs entre les signaux, permet à partir de la « bouillie » reçue d’extraire les signaux
d’origine. On peut également choisir les distances entre émetteurs différentes de celles prises
pour les récepteurs.
Dans le cas d’un système MIMO 2x2 (2 émetteurs, 2 récepteurs), on sépare les antennes d’une
distance (d) de telle manière que la différence de marche entres les flux émis soit d’un quart de
longueur d’onde (soit 90° de différence de phase) à une distance (D). Côté réception, on introduit
un déphasage égal à 90° sur les signaux reçus puis on effectue des combinaisons avec les signaux
déphasés et non déphasés, ce qui a pour effet d’extraire les signaux utiles et d’éliminer les
signaux non utiles comme illustré sur la figure.
Un calcul de géométrie simple donne la valeur de la distance (d) à prendre, lorsque la longueur
du bond hertzien (D) est connue.

Un raisonnement identique illustré sur la figure ci-dessous donne les déphasages à considérer
pour un système MIMO 3x3.

La technique MIMO, tout en apportant plus de débit, impose quelques contraintes d’installation.
On doit bien sûr installer plusieurs antennes (ce nombre peut être divisé par 2 si l’on utilise des
antennes exploitant les deux plans de polarisation sur lesquels une onde radio peut se propager
dans l’air), mais également s’assurer autant que possible du bon alignement de celles-ci et de
leurs bonnes séparations. Il faut également trouver la place nécessaire à l’installation; à titre
d’exemple, la distance (d) pour un lien hertzien de 5km (D) fonctionnant dans la bande 23 GHz
utilisant la technique MIMO 2x2 devra être égale à 5.7m en MIMO 2x2 et 4.7m en MIMO 3x3.
Le traitement réalisé à la réception doit bien sûr être automatique et adaptatif de manière à
compenser en temps réel toutes les variations apportées par l’atmosphère elle-même (mouvement
atmosphérique) et tous les écarts apportés par l’installation (alignement non optimal).

La démonstration d’un système MIMO 4x4 permettant de transmettre 1Gbits/s a été faite devant
les visiteurs du salon MWC à Barcelone en 2011. Ce démonstrateur exploitait : un canal de 28
MHZ dans la bande 10 GHz, des antennes double polarisation (2 antennes à l’émission et 2
antennes à la réception), une modulation 512QAM. Ce même canal utilisé avec la modulation
élémentaire décrite au début de l’article n’aurait permis de transmettre qu’une vingtaine de
Mbits/s soit 50 fois moins.
Une configuration identique est en test en extérieur en Suède depuis février 2010.

Les liens NLOS


Le raccordement hertzien de deux sites en milieu urbain se heurte très souvent à la présence de
nombreux obstacles présents entre les deux sites.
Jusqu’à de récentes études il était généralement admis qu’un lien hertzien ne pouvait fonctionner
correctement que si les sites étaient rigoureusement en ligne de vue (Line of Sight ou LOS) l’un
de l’autre.
Il était également admis que dans les cas où les sites n’étaient pas en visibilité l’un de l’autre
(Non Line of Sight ou NLOS), l’usage d’antennes non directives (pour disperser l’énergie et
favoriser les trajets multiples), de modulation type OFDM (utilisée dans le cas de trajet multiples
importants), et de bandes de fréquences basses (< 6 GHz), étaient incontournables. Ces liens
étaient mis ainsi en œuvre dans ces conditions et les performances observées étaient médiocres.

Ces « croyances » ont été battues en brèche par des expérimentations réalisées en 2012 dans les
cas de propagation illustrés ci-après. Les conclusions de ces expérimentations sont qu’un lien
hertzien exploitant des points de réflexion, de réfraction ou traversant des massifs d’arbres offrent
une bonne capacité et disponibilité si les antennes sont très directives (on concentre l’énergie), si
des modulations du type QAM et des bandes fréquences bien au-dessus de 20 GHz sont
exploitées.

Des liens NLOS d’excellentes performances peuvent ainsi être déployés en milieu urbain en
exploitant des réfractions sur des toits ou des terrasses, ou des réflexions sur des surfaces
d’édifices en bande V (60 GHz) en Bande E (70/80 GHz) mais également dans les bandes plus
traditionnelles tant qu’elles restent supérieures à 20 GHz.
L’utilisation de bandes de fréquence peu ou pas exploitées à ce jour
Pour répondre à la demande croissante de débit, on peut également se tourner vers de nouvelles
bandes de fréquences peu ou pas exploitées à ce jour, et qui permettent d’utiliser des canaux de
largeurs extrêmement importantes. C’est par exemple le cas des bandes E (70/80 GHz) et V (60
GHz).

La bande E (70/80 GHz) autorise l’usage de canaux de largeur 250, 500, 750 1000, 1250 et 2000
MHz qui permettent à ce jour d’obtenir, entre autres, les capacités suivantes :
• 5 Gbit/s de débit en utilisant une modulation 256QAM et un canal d’une largeur 750 MHz
• 10 Gbit/s de débit en utilisant une modulation 128QAM et un canal d’une largeur de 2000
MHz

La bande V (60 GHz) autorise l’usage de canaux de largeur 50, 100, 150, 200 et 250 MHz qui
permettent à ce jour d’obtenir, entre autres, les capacités suivantes :
• 1 Gbit/s de débit en utilisant une modulation 64QAM et un canal d’une largeur de 250
MHz
• 1 Gbit/s de débit en utilisant une modulation 128QAM et un canal d’une largeur de 200
MHz
L’usage actuel des bandes de fréquences dans le monde est donné dans la figure ci-dessous,
montrant les bandes peu ou pas exploitées.
C’est également le cas des bandes W (92–114.25GHz) et D (130–174.8GHz) pour lesquelles
d’importantes activités de recherche sont actuellement conduites dans le monde pour anticiper les
besoins capacitifs futurs. La quantité totale de spectre disponible en bande W et D est, en effet,
proche de 50 GHz, c'est-à-dire cinq fois plus qu'en bande E (70/80 GHz), ce qui est un atout
important pour l'avenir.

Dans les bandes W (92–114.25GHz) et D (130–174.8GHz), l’atmosphère présente une


atténuation similaire à ce que l’on a en bande E (70/80 GHz) et par conséquent les distances
atteignables seront similaires (inférieures à 3km).
En revanche l’atmosphère présente un fort pic d’absorption dans la bande V (60 GHz). Cette
forte absorption limite les distances à quelques centaines de mètres et l’utilisation de la bande V
(60 GHz) aux zones urbaines voire denses urbaines. Pour ces cas d’usage cette forte absorption
est un avantage car l’atmosphère réalise une bulle naturelle autour du lien permettant une
réutilisation de la même fréquence pour des liens localisés sur une même zone sans qu’ils
interfèrent entre eux.

La projection de l’utilisation des différentes bandes de fréquences dans le monde, pour les années
à venir, est illustrée dans la figure ci-dessous.
L’utilisation simultanée de bandes de fréquence de propriétés différentes
Aujourd’hui les équipements fonctionnant dans la bande E permettent d’obtenir des débits très
importants sur des distances inférieures à 2 ou 3 km selon les conditions météorologiques
rencontrées sur la zone considérée.
Il est à noter que ces courtes distances ne sont pas un problème en milieu urbain dense où les
nombreux obstacles n’autorisent pas des distances supérieures à ces valeurs. En revanche les
capacités transmises sur cette bande de fréquences sont celles recherchées en milieu urbain où la
densité d’usagers est extrêmement importante.
En milieu urbain, une quantité importante du trafic d’un grand nombre d’usagers peut ainsi être
transmise par un seul lien hertzien. Ce qui a pour conséquence que ce lien doit être extrêmement
fiable (ou disponible) pour apporter la qualité de service attendue (ou contractée) par les usagers
et ne doit jamais être totalement interrompu.

La disponibilité d’un lien est définie par le pourcentage du temps sur une année pendant lequel le
lien hertzien est parfaitement utilisable (un lien coupé n’étant bien sûr pas utilisable). La valeur
de la disponibilité couramment retenue pour le dimensionnement d’un lien hertzien est de
99.999% du temps sur une année ce qui correspond à une indisponibilité de l’ordre de 5 minutes
sur une année complète.
La disponibilité s’évalue (au préalable de toute installation) en prenant en compte les paramètres
radio de l’équipement et du lien (puissance émise autorisée, gains des antennes, modulation
utilisable, débit souhaité, distance visée, seuils de réception des équipements, etc.), ainsi que les
informations statistiques des évènements météorologiques de la zone où le lien sera installé.

Nous avons vu, au début de ce document, qu’une liaison hertzienne de 50 kilomètres à 6 GHz
n’est pratiquement jamais coupée par la pluie, alors qu’une liaison de 5 kilomètres à 40 GHz peut
être coupée par un simple orage. On peut ainsi augmenter la disponibilité d’un lien très haut débit
en exploitant non pas une mais deux bandes de fréquences ayant des propriétés totalement
différentes (High Band type bande E & Low Band type de celles inférieures à 13 GHz).
Cette technique est différente de celle mise en œuvre dans les systèmes à diversité de fréquences
évoqués plus haut, dans lesquels, la même information est transmise sur deux bandes distinctes
simultanément (la capacité offerte est celle d’une seule bande). Dans le cas décrit ici le trafic est
réparti sur les deux bandes, autrement dit chacune des bandes transmet un signal différent (la
capacité offerte est la somme des capacités offertes par chacune des bandes)

Le diagramme ci-dessous illustre la capacité et la disponibilité offertes par un lien hertzien


1. exploitant deux bandes de fréquences (High Band & Low Band) et la modulation
adaptative activée pour les deux bandes
2. exploitant une bande de fréquences (low band) avec la modulation adaptative activée
3. exploitant une bande de fréquences (low band) avec une modulation fixe

Dans le premier cas, lorsque les conditions météorologiques sont excellentes, les deux bandes de
fréquences offrent toutes deux leurs capacités maximales.
Lorsque les conditions de propagation se dégradent, la modulation adaptative entre en jeu sur la
bande haute (High Band) en réduisant la valeur du débit mais en maintenant le lien opérationnel
(pas de coupure). La bande basse n’est, à ce stade, pas influencée et offre sa capacité maximale.
Si les conditions de propagation continuent à se détériorer rendant la bande haute inexploitable
(plus rien n’est transmis sur la bande haute) la bande basse du fait de sa robustesse assure la
transmission à hauteur de sa capacité.
Lorsque les conditions météorologiques continuent à s’aggraver la modulation adaptative entre en
jeu sur la bande basse.

Dans le deuxième cas, la disponibilité est identique au 1er cas, en revanche les débits offerts sont
nettement inférieurs.

Dans le troisième cas, la disponibilité et la capacité sont bien moins bonnes que dans les deux
premiers cas.
Les activités de recherche au-delà des 100 GHz
Les principales recherches menées dans les bandes de fréquence au-delà de 100 GHz sont
essentiellement dans le domaine technologique.
Elles portent sur l’amélioration des rendements, la réduction du bruit et les interconnexions entre
les puces électroniques.

En effet :
• Les puissances que l’on peut générer et les rendements des amplificateurs radio chutent
lorsque la fréquence augmente. Cet inconvénient peut toutefois être compensé par les très
forts gains que l’on peut obtenir avec les antennes (pour une taille donnée le gain d’une
antenne augmente avec la fréquence).
• Le bruit intrinsèque des équipements augmente avec la fréquence, ce qui limite l’usage
des modulations complexes
• Les techniques d’interconnexions, utilisées à ce jour pour interconnecter les puces
électroniques entre elles, nécessitent d’être totalement repensées car elles ne permettent
pas de travailler à ces fréquences (elles introduisent trop de pertes).

Il est à noter que les équipements fonctionnant dans les bandes W (92–114.25GHz) et D (130–
174.8 GHz) ne seront pas disponibles dans l’immédiat car un certain nombre d’étapes reste
encore à franchir (mise au point et disponibilité massive des composants, standardisation des
bandes, etc.). A titre de comparaison il a fallu un peu plus de 10 ans pour arriver au point où en
sont les solutions fonctionnant en bande E (70/80 GHz) à ce jour.

On peut imaginer qu’une durée équivalente sera nécessaire pour avoir des équipements
commercialement disponibles en bande D (130–174.8GHz). En revanche la disponibilité
d’équipements fonctionnant en bande W (92–114.25GHz) pourrait être plus courte car plus
proche de la bande E (70/80 GHz).

Aucune utilisation significative n'est attendue dans ces bandes avant 2025, les bandes
traditionnelles (6-42 GHz) ainsi que les bandes V (60 GHz) et E (70/80 GHz), pouvant gérer les
besoins jusque-là.
Les activités de recherche sur l’OAM (Orbital Angular Momentum)
Les ingénieurs et techniciens travaillant dans le domaine hertzien oublient souvent qu’à chaque
onde électromagnétique, qu’ils exploitent pour transmettre de l’information, est associé un flux
de corpuscules nommés photons.

La mécanique quantique nous enseigne qu’un photon est un corpuscule auquel est associée une
onde (dualité onde corpuscule). Avant la description quantique, de nombreux résultats
d’expériences ne pouvaient être expliqués que si l’on considérait l’aspect ondulatoire du photon
(fentes d’Young) alors que d’autres ne pouvaient l’être qu’en considérant l’aspect corpusculaire
(effet photo électrique). La mécanique quantique a permis d’unifier au sein d’une même théorie
ces résultats.

Il est possible de montrer qu’un photon peut, comme toute particule matérielle, transporter un
moment angulaire. Deux types de moments angulaires sont alors à considérer : le moment
angulaire de spin (ou SAM pour Spin Angular Momentum) et le moment angulaire orbital (ou
OAM pour Orbital Angular Momentum).
Dans le cas du SAM, le photon peut être considéré comme une particule tournant sur elle-même
dans un sens horaire ou anti-horaire (il n’y a que deux sens de rotation possibles). Le SAM est le
mode de transmission exploité dans les liens hertziens opérationnels à ce jour. Les deux sens de
rotation ne sont autres que les deux polarisations exploitées par les ingénieurs et techniciens radio
dans les équipements actuels.

Dans le cas de l’OAM, le photon peut être considéré comme une particule tournant autour d’un
axe selon une vitesse imposée. Cette vitesse peut prendre tous types de valeurs (c’est à dire que
théoriquement une infinité de possibilités peuvent être considérées). Le photon peut de plus
tourner autour de l’axe dans un sens horaire ou anti-horaire ce qui double le nombre de modes
possibles. En pratique l’OAM pourrait permettre de transmettre une infinité de flux d’information
dans un canal radio unique (différents mode OAM peuvent être transmis simultanément au
travers d’un canal radio unique sans se perturber les uns les autres). Ce domaine reste inexploité à
ce jour dans les équipements hertziens en opération.

De nombreuses recherches (théoriques et pratiques) ont montré qu’il était bien possible de
transmettre de l’information en exploitant l’OAM. Une expérimentation a été réalisée sur une
distance de 442m à Venise par Fabrizio Tamburini.

Source F. Tamburini & al.:10.1088/1367-2630/14/3/033001

Il reste toutefois quelques défis à résoudre pour réaliser des liens hertziens exploitant l’OAM.
En effet, les diagrammes de rayonnement des antennes, ou réseaux d’antennes, permettant de
transmettre des modes OAM montrent qu’aucune puissance n’est transmise dans l’axe de
transmission (ce qui est gênant pour le pointage des antennes) et sont divergents (ce qui est
gênant pour les communications longues distances).
A titre de comparaison, la figure ci-après donne les diagrammes de rayonnement en SAM (image
en haut à gauche) et pour trois différents modes OAM (l=1, l=2, l=4).
Source Bo Thidé & al., Phys. Rev. Lett. 99, 087701 (2007)

Plusieurs méthodes sont étudiées pour pallier la divergence des faisceaux OAM, l’une d’entre
elles consiste à utiliser des lentilles (réalisées avec des méta-surfaces) permettant de réduire celle-
ci.

Source Jianjia Yi & al DOI: 10.1364/OE.26.022019

Conclusion
Des recherches intenses sont toujours réalisées dans le domaine des télécommunications par
faisceaux hertziens, et il est probable que de nouvelles techniques restent encore à explorer,
expérimenter et inventer.
Les principaux défis seront encore l’augmentation de la quantité d’information transmise, mais
aussi la capacité à prendre davantage de décisions sur le trafic transporté en gérant de la manière
la plus optimale l’utilisation de la ressource radio selon la priorité du trafic transporté.
En allant encore plus loin, on pourrait envisager l’emploi d’antennes actives (avec ces antennes,
on serait capable d’orienter le faisceau dans n’importe quelle direction souhaitée sans
intervention mécanique) ce qui permettrait d’asservir le pointage.
Ce pointage automatique pourrait rendre plus aisée l’installation des systèmes MIMO ou
permettre d’envisager l’usage de sites non stabilisés comme par exemple les plateformes de
forage, les navires, les ballons captifs ou les ballons non captifs (comme dans le cas du projet
Loon de Google), ce qui éliminerait l’usage de pylônes et tours de béton. Le succès du faisceau
hertzien réside dans son extrême simplicité à installer (comparé à tous les types de transport
filaire) et à exploiter, ce qui en fait un équipement incontournable pour beaucoup d’opérateurs de
réseaux de télécommunication.

View publication stats

Vous aimerez peut-être aussi