Académique Documents
Professionnel Documents
Culture Documents
1
TABLE DES MATIÈRES
2.6.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6.2 Plateforme choisie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.6.2.1 Plateformes disponibles . . . . . . . . . . . . . . . . . . . . . . . . 31
2.6.2.2 Création de plateforme OpenAirIntarface . . . . . . . . . . . . . . . 32
2.6.2.3 OpenAirInterface . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.6.2.4 Mise en place de la virtualisation . . . . . . . . . . . . . . . . . . . 34
2.6.3 Mise en place de la virtualisation . . . . . . . . . . . . . . . . . . . . . . . . 36
2.6.3.1 Virtualisation d’OAI eNB . . . . . . . . . . . . . . . . . . . . . . . 36
2.6.3.2 Virtualisation de cœur (epc) . . . . . . . . . . . . . . . . . . . . . 38
Conditions préalables . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Extraction d’images des conteneurs . . . . . . . . . . . . . . . . . . . 40
Création des images de conteneur . . . . . . . . . . . . . . . . . . . . 42
Configurer la mise en réseau . . . . . . . . . . . . . . . . . . . . . . . 44
2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2
Table des figures
3
TABLE DES FIGURES
4
Liste des tableaux
2.1 Le tableau 1 synthétise les potentialités et les limites des différentes architectures
C-RAN proposées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5
Introduction général
L’émergence du cloud computing mobile dans les réseaux sans fil a permis le développement de
nouveaux services dans des contextes plus agiles qui doivent également considérer les RANs. Les
terminaux mobiles foisonnent et deviennent omniprésents, des smartphones aux objets connectés
(véhicules, machines, villes, etc.). Par conséquent, le trafic de données a connu une croissance
exponentielle durant ces dernières années qui semble devoir s’accélérer.
Pour faire face à cette augmentation, les opérateurs de réseaux mobiles doivent doubler d’ingé-
niosité pour accroître la capacité de leurs réseaux d’accès. La densification du réseau a été proposée
comme solution à ce problème. Mais cette solution est très coûteuse car elle nécessite l’implémenta-
tion de nouveaux points d’accès. C’est dans ce contexte et afin de limiter les CAPEX et OPEX que
le réseau C-RAN a été proposé offrant l’ensemble des avantages du paradigme Cloud Computing
et virtualisation.
L’opérateur tunisien Tunisie Télécom s’apprête à faire évoluer son réseau pour la préparation
de l’introduction de la 5G. Pour cela, l’équipe technique de Direction des Berges du Lac s’intéresse
à la mise en place du C-RAN et notamment à la virtualisation des BBU. C’est dans ce contexte
que s’insère notre Projet de Fin d’Etudes. Nous sommes amenés à faire. . ... (cahier des charges)
Structure du rapport
Le présent rapport est organisé comme suit : Les listes sont faciles à créer :
— Le premier chapitre expose les notions préliminaires nécessaires à la compréhension du
rapport. Il présente l’évolution des réseaux d’accès ainsi leurs exigences pour répondre à
l’explosion du trafic ainsi que les différentes technologies clés permettant de répondre à
ces exigences. Ce chapitre décrit aussi l’évolution des technologies cloud dans les réseaux
mobiles et montre comment le cloud a intégré les systèmes de communication sans fil à
travers diverses architectures et la notion de virtualisation. A la fin de ce chapitre, nous
présenterons l’objectif et cahier des charges du projet .
— Le deuxième chapitre présentera l’architecture détaillée du C-RAN, puis les étapes de vir-
tualisation d’une BBU dans un VRAN en utilisant une plateforme open source.
— Le dernier chapitre présente les étapes de développement de notre application Web VRAN-
TT pour la visualisation de la virtualisation des BBU pour les ingénieurs de TT ainsi que
sa réalisation illustrée avec des captures d’écran.
1
Chapitre 1
1.1 introduction
Les réseaux de communication mobile ont toujours connu une évolution continue et rapide
depuis leur lancement en tant que réseaux téléphoniques uniquement. D’une génération à l’autre,
les services se sont multipliés et diversifiés pour inclure les données dans un premier temps puis la
vidéo et de nombreux autres services au fur et à mesure.
Ce progrès a été suivi par une croissance exponentielle du nombre d’utilisateurs et des dispositifs
mobiles, et par conséquence, du volume de trafic de données. Grâce aux différentes générations de
réseaux mobiles, l’architecture a été et est toujours en évolution et de nouveaux mécanismes sont
encore proposés pour améliorer la qualité des services et les performances pour l’intégration de
nouveaux services.
Dans ce chapitre, nous allons présenter l’évolution de ces réseaux mobiles vers la 5G, notamment
celle des réseaux d’accès radios sur lesquels notre travail est axé. Nous allons ensuite, décrire
l’évolution de l’architecture de ces réseaux en mettant l’accent sur l’intégration des technologies
cloud.
2
Chapitre 1. 5G, INTERACTON DU CLOUD COMPUTING AU SEIN DES
RESEAUX CELLULAIRES ET PRESENTATION DU PROJET
d’appareils connectés d’ici 2021 prévoient qu’il y aura 1,5 appareil mobile par habitant, c’est-à-
dire que le nombre d’appareils mobiles dépassera le nombre de personnes sur terre en 2021 [2].
De plus, les services proposés sont sde plus en plus innovants et variés. Certains de ces services
sont liés à des aspects essentiels de la vie quotidienne des gens tels que les services de e-banking, e-
health et l’apprentissage en ligne (e-learning), et seront donc d’autres sources importants de trafics
mobile [3]. Il y a aussi les services en ligne qui sont lancés directement par des utilisateurs mobiles ou
par des applications mobiles. Ce type de services évoluent tous les jours et incluent des applications
de plus en plus complexes qui génèrent beaucoup de données telles que la reconnaissance faciale,
le jeu en ligne, la réalité augmentée, la traduction instantanée et le décodage de vidéos.
L’expansion des applications en nombre et en diversité entraîne une augmentation explosive
du trafic des données. Le côté interactif de certaines de ces applications nécessite un réseau plus
performant en termes de latence et de débit (le nom utilisé pour ce type de réseau est l’internet
tactile). Tandis que le monde des réseaux informatiques et celui des télécommunications convergent,
l’explosion du trafic de données a poussé les acteurs du domaine à lancer une nouvelle génération
de réseaux mobiles sous le nom de la 5G.
Parallèlement à cela, les différents acteurs du domaine des réseaux sans fils ont poussé la concep-
tion de cette nouvelle génération de réseau de communication sans fil. Par exemple, l’Internet des
objets (IoT) et son large éventail d’applications qui prolifèrent très rapidement dans le domaine
des services de communication sans fil. La technologie IoT devrait s’élargir à l’avenir et imposer
le déploiement de milliards de périphériques qui doivent compter sur une architecture de réseau
hautement évolutive. En plus de l’évolutivité, le réseau doit offrir un haut niveau de fiabilité car
certaines applications IoT concernent des domaines très sensibles de la société comme la téléméde-
cine, les systèmes cyberphysiques, etc. En outre, avec les applications IoT tels que le smart grid et
la surveillance d’infrastructure critiques (critical infrastructure monitoring), la latence des réseaux
actuels peut être supérieure au délai maximum requis par ce type d’applications.
Ainsi, même si la 4ème génération de réseaux cellulaires a apporté des avancées significatives
en termes de conception et d’évolutivité, la tendance du marché et l’augmentation croissante des
dispositifs et des objets intelligents connectés imposent une nouvelle évolution dans le domaine des
réseaux cellulaires.
3
Chapitre 1. 5G, INTERACTON DU CLOUD COMPUTING AU SEIN DES
RESEAUX CELLULAIRES ET PRESENTATION DU PROJET
ses attendus de la 5G. Les exigences ainsi exprimées par l’ensemble de ces travaux, convergent vers
un même ensemble de défis qui sont les suivants :
— Une plus grande capacité
Le nombre d’appareils mobiles qui devraient être connectés au réseau 5G est de l’ordre
de milliards. Nous nous attendons à ce que le volume de trafic soit plus important de
plusieurs ordres de grandeur par rapport à celui d’aujourd’hui. La demande en capacité
pourrait même attendre plus de 1 000 fois la demande actuelle. La capacité requise pour
gérer un si grand nombre de connexions, y compris la signalisation et le volume de trafic de
données, constitue un défi technique très important. Cette exigence est considérée comme
la plus difficile pour les réseaux 5G. L’objectif de capacité établis par NTTDOCOMO vise à
atteindre une capacité de système 1000 fois supérieure par km2 par rapport à celle du réseau
LTE [9]. Il est bien sûre sous-entendu que cette augmentation de la capacité de traitement
ne devra pas se faire au détriment de la QoS ou de la QoE des utilisateurs mobiles.
— Un débit plus élevé
Etant donné que la 5G est la prochaine évolution des réseaux cellulaires, elle devrait au moins
être en mesure d’offrir un débit plus élevé par rapport à ses prédécesseurs. Cependant, pour
les générations précédentes l’accent a été mis sur le pic du taux de transmission de données
au lieu du débit individuel. Avec la prolifération de nouveaux services et applications qui
peuvent être lancés par les utilisateurs mobiles n’importe quand et n’importe où, les pics de
débit seront moins significatifs. L’accent devrait maintenant être accordé aux scénarios de
la vie réelle. Différents scénarios avec différents débits cibles devraient être étudiés. Selon
[6], un débit supérieur ou égal à 10 Gbps devrait être garanti aux utilisateurs mobiles dans
les environnements intérieur et extérieur denses. Pour les scénarios urbains et suburbains,
Ericsson a fixé un débit cible de l’ordre de 100 Mbps. En outre, un débit minimal de 10 Mbps
devrait être garanti sans interruption et à n’importe quel endroit, même dans les zones peu
peuplées. NTT-DOCOMO s’est fixé comme objectif d’assurer un niveau de QoS uniforme
pour tous les utilisateurs mobiles avec une cible de 1 Gbps de débit maximal partout.
4
Chapitre 1. 5G, INTERACTON DU CLOUD COMPUTING AU SEIN DES
RESEAUX CELLULAIRES ET PRESENTATION DU PROJET
5
Chapitre 1. 5G, INTERACTON DU CLOUD COMPUTING AU SEIN DES
RESEAUX CELLULAIRES ET PRESENTATION DU PROJET
6
Chapitre 1. 5G, INTERACTON DU CLOUD COMPUTING AU SEIN DES
RESEAUX CELLULAIRES ET PRESENTATION DU PROJET
Deux modes d’accès aux appareils sont alors définis : l’accès fermé et l’accès ouvert. Un
autre défi significatif pour la communication D2D est la gestion des interférences. Deux
types d’interférences sont identifiés dans le cas des communications D2D. Le premier est
entre les communications avec l’infrastructure du réseau opérateur et des communications
D2D. Si les deux communications utilisent les mêmes bandes autorisées, les dispositifs de
communication D2D interféreront avec les dispositifs communiquant avec les stations de base
du réseau. Le deuxième type est l’interférence entre les différents équipements qui utilisent
des communications D2D. L’utilisation de ce type de communication dans la même bande
par des appareils voisins entraîne automatiquement des collisions qu’il faut obligatoirement
traiter.
— Réseaux hétérogènes ultra-denses (HetNets)
La 5G connaitra une expansion énorme du nombre d’utilisateurs et une grande diversifica-
tion des technologies opérant sur des bandes différentes. La densification du réseau est un
mécanisme clé pour le 5G et pour l’évolution des réseaux mobiles en général. Elle permet
au réseau de répondre aux exigences de très grande capacité, connectivité et disponibilité.
Pour réaliser des réseaux ultra-denses, l’hétérogénéité des nœuds du réseau jouera un rôle
important [13].
En effet, les réseaux hétérogènes introduisent un aspect dynamique au réseau cellulaire.
Avec le déploiement massif et aléatoire de périphériques à faible puissance d’émission, le
nombre de nœuds du réseau augmente, et le réseau devient ultra-dense. Cette approche
améliorera l’efficacité spectrale car elle réduira la distance entre les stations de base et les
utilisateurs mobiles. Selon un travail de Bhusnan et al. [14], la densification des réseaux est
une combinaison de densification spatiale et d’agrégation spectrale. La densification spatiale
consiste à augmenter le nombre de stations de base déployées dans une zone géographique.
Elle peut être également obtenue en augmentant le nombre d’antennes sur une station de
base.
Plusieurs types de stations de base peuvent coexister dans les réseaux HetNets et elles
peuvent être densément déployées. Toutefois, le déploiement de nouvelles macros cellules
impose des coûts importants à la fois pour les dépenses CAPEX et OPEX. De plus, le
déploiement de nouvelles macros cellules nécessite la planification du site et la recherche
de lieux de déploiement possibles. Par contre, les pico cellules peuvent être déployées plus
facilement et avec un coût beaucoup plus faible. Les pico cellules offrent aussi un accès direct
au réseau de l’opérateur. Un autre type de cellules, les nœuds de relais. Ils peuvent être
déployés là où la liaison filaire n’est pas accessible. Ils ont la caractéristique d’apparaître
comme une station de base pour les appareils mobiles et comme des dispositifs mobiles
pour les stations de base. Enfin, les cellules de petite taille (small cells) telles que les femto
cellules sont les plus faciles à déployer d’une manière intensive. Ce sont des nœuds de faible
puissance et de petite taille qui peuvent être déployés par l’utilisateur. Ils ne nécessitent
pas de planification de site et n’imposent pas d’OPEX et CAPEX significatifs pour les
opérateurs. Les femto cellules permettent aux utilisateurs mobiles d’avoir une station de base
à proximité avec une connexion directe. Ils permettent également de résoudre le problème
de trous de couverture et améliorent la qualité du signal au bord de la cellule et aux milieux
intérieurs (indoor).
Toutefois, les systèmes ultra-denses HetNets présentent également des défis. Par exemple,
le partage de la même fréquence porteuse, entre les cellules macro et femto, entraîne des
interférences. Quant à l’agrégation spatiale, l’agrégation de fragments de bande passante de
différentes bandes de fréquences conduit à des défis de conception des antennes. Le partage
7
Chapitre 1. 5G, INTERACTON DU CLOUD COMPUTING AU SEIN DES
RESEAUX CELLULAIRES ET PRESENTATION DU PROJET
8
Chapitre 1. 5G, INTERACTON DU CLOUD COMPUTING AU SEIN DES
RESEAUX CELLULAIRES ET PRESENTATION DU PROJET
terminal caché se produit lorsqu’un nœud B dans le réseau ne peut pas détecter la présence
d’un nœud A qui transmet des données à la même destination en même temps, conduisant
ainsi à une collision au niveau de la station de base de destination.
— Technologies Cloud pour des réseaux d’accès radio 5G flexibles
Une orientation majeure adoptée par la 5G repose sur l’utilisation du cloud. Exploitant
le concept C-RAN (Centralized Radio Access Network), également appelé Cloud RAN, les
stations de base utiliseront des ressources partagées et un cloud centralisé. C-RAN permet
le déploiement d’un grand nombre de cellules ce qui permet d’améliorer l’évolutivité des
réseaux 5G ainsi que d’augmenter leurs capacité et couverture. L’architecture Cloud RAN
sera détaillée dans la section suivante.
En plus de l’architecture Cloud RAN qui offre les fonctionnalités du réseau d’accès en tant
que service, les services cloud ont été proposé comme une véritable technologie 5G. En effet,
avec la prolifération d’une large panoplie d’applications et de services innovants générant
un grand trafic de données, les appareils mobiles sont confrontés à un défi majeur qui est
l’incapacité d’effectuer les calculs efficacement et de traiter des volumes de données aussi
élevés. La séparation de la partie software de la partie hardware par l’intermédiaire du
cloud computing constitue une solution pour des tels problèmes. En fait, la proposition de
solutions basées sur le cloud dans le domaine informatique a révolutionné l’industrie ces
dernières années [19].
En outre, l’intégration du cloud dans un réseau sans fil a ouvert la porte au déploiement
du Mobile Cloud Computing (MCC). Le MCC consiste à offrir aux utilisateurs mobiles des
capacités de calcul et de stockage supplémentaires localisées dans le cloud. La fourniture de
ressources à la demande crée un nouveau niveau de souplesse et d’élasticité dans les services
réseau.
9
Chapitre 1. 5G, INTERACTON DU CLOUD COMPUTING AU SEIN DES
RESEAUX CELLULAIRES ET PRESENTATION DU PROJET
travers des mécanismes bien définis. Le cloud peut servir plusieurs utilisateurs simultanément en
affectant et en réattribuant les ressources. Des ressources de calcul, stockage, mémoire et d’autres
ressources possibles sont regroupés dans des data centers et ne dépendent pas de l’emplacement de
l’utilisateur. En d’autres termes, les utilisateurs du cloud ne connaissent pas l’emplacement exact
de la source des ressources fournies.
Le regroupement des ressources permet une meilleure gestion et allocation des ressources pour
couvrir un plus grand nombre d’utilisateurs. Dès lors, les mécanismes pour l’allocation et la li-
bération des ressources cloud doivent être suffisamment rapides pour pouvoir s’adapter aux de-
mandes variables. L’élasticité est une caractéristique très importante pour les plates-formes de
cloud computing. Elle leur permet de toujours donner aux utilisateurs l’impression d’avoir accès
à des ressources illimitées. Pour résumer, le cloud computing est caractérisé par des ressources
partagées, une fourniture des services à la demande, un large accès au réseau, l’élasticité rapide et
une tarification mesurée (Pay per use).
Le SaaS est défini comme étant la capacité des utilisateurs d’accéder aux services déployés
par leurs fournisseurs sur le cloud. Les utilisateurs atteignent l’application via une interface sur
leur périphérique. Cependant, ils n’ont aucun contrôle sur l’infrastructure en dessous, y compris
le stockage, les systèmes d’exploitation et les serveurs. SaaS est un marché en croissance où les
applications sont livrées dans un modèle un-à-plusieurs. Déployés sur le cloud, les services sont
gérés d’une manière centralisée et non par les terminaux des utilisateurs. Les mises à jour des
applications sont directement installées par les fournisseurs sur les serveurs cloud.
10
Chapitre 1. 5G, INTERACTON DU CLOUD COMPUTING AU SEIN DES
RESEAUX CELLULAIRES ET PRESENTATION DU PROJET
PaaS donne accès à la plate-forme de développement déployée dans le cloud. Les utilisateurs
ont la possibilité de créer et de déployer leurs propres applications sur le cloud à l’aide d’une plate-
forme qui recouvre un environnement de développement complet (langages de programmation,
bibliothèques, services et outils). Comme dans le cas du SaaS, les utilisateurs n’ont aucun contrôle
sur l’infrastructure cloud sous- jacente. Comme indiqué dans [21], SaaS et PaaS peuvent être
considérés comme des analogues où le premier est un logiciel livré sur le web tandis que le deuxième
fournit la plate-forme pour la création de logiciels sur le web.
IaaS offre aux utilisateurs la possibilité de contrôle et d’approvisionnement des ressources. Ils
leur donnent accès aux ressources du cloud telles que les ressources de traitement, les systèmes
d’exploitation et le stockage, où ils sont capables de déployer des logiciels et des applications et
de lancer des tâches de calcul. Même si les utilisateurs ne contrôlent pas l’infrastructure cloud, ils
peuvent avoir un contrôle sur les ressources, les applications déployées et certains composants du
réseau. En utilisant IaaS, ils n’ont plus à investir dans un matériel coûteux, de plus, le dimension-
nement du matériel est beaucoup plus facile et automatique.
Les services cloud, avec leurs trois modèles définis, peuvent être obtenus à travers différents
types de déploiement cloud. Quatre modèles de déploiement ont été définis : le cloud public, le
cloud privé, le cloud communautaire et le cloud hybride.
Tout d’abord, les services du cloud peuvent être livrés par le biais de clouds publics auxquels
l’accès est accordé publiquement pour tous types d’utilisateurs. Cela n’impose pas d’offrir la même
qualité de service à tous les utilisateurs. Les fournisseurs peuvent toujours proposer différents
11
Chapitre 1. 5G, INTERACTON DU CLOUD COMPUTING AU SEIN DES
RESEAUX CELLULAIRES ET PRESENTATION DU PROJET
plans cloud avec différents coûts en fonction de la quantité de ressources accessibles. Ces clouds
ne peuvent être gérés que par les fournisseurs, ou par les institutions (entreprises, gouvernement,
universités) qui les déploient dans les locaux des fournisseurs de services cloud.
Contrairement aux clouds publics, qui accordent un accès ouvert au grand public, les clouds
privés n’autorisent l’accès qu’à un ensemble fermé d’utilisateurs. Les services cloud privés sont
exclusivement dédiés à un ensemble spécifique d’utilisateurs définis par le propriétaire du cloud.
Ce type de déploiement est largement utilisé par les organisations professionnelles qui possèdent
leurs propres clouds ou utilisent un cloud privé fourni par un fournisseur de services clouds. Les
coûts de déploiement de ce modèle sont certes plus élevés mais il est plus sécurisé.
Un cloud communautaire tel que défini dans [21] est exclusivement utilisé par une communauté
d’organisations partageant les mêmes intérêts et exigences. Un tel cloud peut appartenir à une de
ces organisations, à un fournisseur de cloud ou à une combinaison des deux. Ainsi, ces organisations
partagent les coûts de déploiement ce qui les aidera à réduire leurs dépenses.
Toute combinaison de deux modes d’accès privé, public ou communautaire conduit à un mode
d’accès en cloud hybride. Dans les clouds hybrides, deux clouds ayant deux ou plusieurs modes de
déploiement sont opérationnellement liés. Ce type de déploiement est parfait pour pouvoir répartir
ses moyens en fonctions des avantages recherchés.
1.3.4 La virtualisation
12
Chapitre 1. 5G, INTERACTON DU CLOUD COMPUTING AU SEIN DES
RESEAUX CELLULAIRES ET PRESENTATION DU PROJET
stockage. Les ressources sont disponibles à la demande, ce qui introduit un nouveau niveau de
flexibilité, d’évolutivité et d’automatisation dans le déploiement des services.
La virtualisation est possible grâce à un hyperviseur ajouté au-dessus de la couche matérielle.
Plusieurs machines virtuelles peuvent alors s’exécuter sur la couche hyperviseur, et donc au-dessus
de la couche physique exécutant le système d’exploitation habituel. Les machines virtuelles n’ont
pas accès au matériel, mais à la couche hyperviseur. Par le biais de la virtualisation, plusieurs
machines virtuelles peuvent s’exécuter sur une seule machine physique.
Pour les environnements de cloud computing, la virtualisation est alors un outil clé qui permet
à plusieurs utilisateurs d’exécuter diverses tâches sur le même matériel. Elle crée actuellement une
évolution et une transformation majeures dans l’industrie de la communication en offrant des solu-
tions efficaces qui augmentent l’évolutivité et la flexibilité du réseau. Le concept de virtualisation
est représenté dans la figure 1.2.
1.5 Conclusion
Le nombre d’appareils connectés au réseau sans fil ne cesse d’augmenter. Par conséquent, le
trafic généré explose aujourd’hui. L’architecture de réseau traditionnelle limitée en termes de ca-
pacités, en particulier dans le domaine du calcul, se trouve rapidement inadaptée à de tels change-
ments et à l’augmentation des exigences et des demandes. Ceci a imposé une série de changements
dans l’architecture du réseau afin de satisfaire l’augmentation exponentielle parallèle du trafic de
données et des exigences de traitement.
Dans ce chapitre, nous avons présenté une description de l’évolution vers la future génération
des réseaux sans fil, la 5G, dont les exigences ont été définies afin de répondre à l’évolution de la
demande des utilisateurs. Ensuite, nous avons décrit l’impact de l’intégration du cloud computing
et la virtualisation dans l’architecture des réseaux cellulaires.
13
Chapitre 2
2.1 Introduction
L’importante augmentation du nombre d’utilisateurs mobiles ainsi que l’accroissement de la
quantité de données échangées, à travers les infrastructures de télécommunications, ont poussé les
opérateurs et les manufacturiers réseau à concevoir une nouvelle génération de réseaux mobiles, plus
flexible, plus efficiente en terme de consommation d’énergie et qui pourrait répondre aux contraintes
de performance et de QoS, imposées par les nouvelles solutions IT (IoT, réalité augmentée, etc.).
Ainsi, Cloud Radio Access Network (C-RAN) a été définie pour être la nouvelle architecture d’accès
radio des ré- seaux mobiles 5G. Introduit par IBM sous le nom de Wireless Network Cloud (WNC)
[23], le C-RAN a été par la suite décrit dans [24] comme une architecture « green », conçue pour
pallier à certaines limitations présentes dans l’architecture RAN (LTE-A) actuelle. Pour ce faire,
le C-RAN devrait relever les défis suivants :
— Réduire les dépenses d’investissement (CAPEX), liées à l’acquisition de sites d’installation,
à l’achat d’équipements composant une cellule, à l’installation du réseau d’accès, ainsi que
celles d’exploitation (OPEX), liées aux opérations de maintenance, d’entretien des équipe-
ments et de la mise à jour des systèmes logiciels.
— Réduire la forte consommation d’énergie dans les réseaux d’accès, causée par le déploiement
d’un grand nombre de stations de base, nécessaire pour offrir une meilleure couverture. Pour
cela, le C-RAN doit intégrer des solutions logicielles et matérielles, permettant d’optimiser
la consommation d’énergie tout en améliorant les performances réseau. De plus, de nouvelles
stratégies de déploiement d’antennes doivent être pensées pour améliorer la couverture du
réseau.
— Augmenter la capacité du réseau d’accès afin de prendre en charge le nombre croissant
d’utilisateurs ainsi que les données générées par leurs terminaux mobiles.
— Améliorer la gestion de la mobilité des utilisateurs et l’impact de leur consommation de
données sur les stations de base, se trouvant dans leur zone géographique. Pour ce faire, il
est nécessaire de prendre en considération le taux d’utilisation de chaque station de base,
en fonction de la période de temps, pour déterminer les zones à forte densité d’utilisateurs.
Cette solution aurait également pour objectif d’optimiser la consommation d’énergie en
mettant en veille active les stations localisées dans des zones à très faible densité humaine.
— Ouvrir le réseau d’accès radio aux fournisseurs de services pour le déploiement de solu-
tions logicielles qui permettraient, d’une part, d’offrir aux utilisateurs de nouveaux services,
14
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
Dans l’architecture actuelle des réseaux LTE, l’eNodeB représente l’élément principal de la
partie d’accès radio. Il se charge de la réception/transmission des signaux radio à partir de/vers
les terminaux utilisateurs (UE), de la gestion des ressources radio (Radio Resource Management
(RRM)), de la compression des entêtes IP, de la sécurité, etc. Distribués aux extrémités du ré-
seau, les eNodeB servent de stations de base aux UE ainsi que de relais vers l’EPC et internet.
Dans l’architecture C-RAN (figure29), les eNodeB sont remplacés par de simples antennes radio
qui permettent de réceptionner et/ou de transmettre les signaux radio. Nommées Remote Radio
Head/Unit (RRH/RRU), ces antennes sont déployées au plus près de l’utilisateur et de ses termi-
naux. Les fonctions de traitement de l’interface radio, appelées BaseBand Unit (BBU), sont par
ailleurs séparées des antennes pour être rassemblées et centralisées au sein d’un nouvel élément ap-
pelé BBU pool ou Cloud BBU (C-BBU). A la manière d’un Cloud, le pool BBU permet de traiter
tous les signaux reçus à partir des différentes RRH reliées à lui. Cet élément va alors exécuter les
fonctions BBU en offrant de meilleures performances et en consommant moins d’énergie que les
eNodeB qu’il remplace dans le réseau.
15
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
2.2.2 Fronthau
L’ensemble des RRH sont reliées au pool BBU à travers un réseau FH, lequel permet de
transporter les données IQ généralement encapsulées par le protocole CPRI à travers un lien
point-à-point. Alors que dans une architecture LTE-A, l’échange des signaux entre l’antenne et
la BBU se fait au niveau d’un eNodeB (en interne), cet échange peut être étendu sur plusieurs
kilomètres dans une archi- tecture C-RAN. Par conséquent, l’infrastructure réseau du fronthaul
doit prendre en considération les contraintes strictes, citées ci-dessous :
— Une large bande passante, avec un débit supérieur à 10 Gbit/s, en raison de la charge
supplémentaire apportée par le transport des données IQ à travers le fronthaul [28].
— Une faible latence de transmission nécessaire pour le traitement des signaux par la couche
PHY du réseau d’accès (se trouvant dans le pool BBU). De ce fait, selon [28], le Round Trip
Time (RTT) ne doit pas excéder les 5 µs. Néanmoins, selon [29], cette valeur variera entre
100 µs et 400 µs et dépendra des équipements utilisés ou/et de l’architecture adoptée par
les opérateurs.
— Une synchronisation des horloges de l’équipement radio (Radio Equipment (RE)), se trou-
vant dans la RRH et celle du contrôle de l’équipement radio (Radio Equipment Control
(REC)) qui se trouve dans le pool BBU.
— Une faible fraction de fréquence du signal Fractional Frequency Offset (FFO) qui ne doit
pas dépasser les 2 parties par million (Part Per Million (ppm)) [30], ainsi qu’une faible gigue
(variation de latence au niveau du FH).
Afin de répondre à ces contraintes techniques, un certain nombre de solutions réseau ont été
proposées pour intégrer le fronthaul et transporter le trafic radio entre les RRH et le BBU pool.
Les avantages et les inconvénients de chaque solution sont décrits ci-dessous.
16
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
2.2.2.3 Micro-ondes
Pouvant être utilisée sur de larges bandes de fréquence (70-80 GHz [32]), la transmission par
micro- ondes représente une alternative intéressante pour le transport des données IQ à travers
le FH. Cette solution peut être mise en place dans des stades, campus universitaires ou encore
dans des aéroports, où il est généralement difficile de déployer de la fibre optique. Les micro-ondes
offrent une faible latence et permettent d’atteindre des débits de 10-40 Gbit/s sur de courtes
distances (inférieures à 1.5 km [33]). Néanmoins, Ces performances restent en deçà de celle définies
pour le fronthaul C-RAN. Les micro-ondes restent tout de même une solution envisageable pour
17
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
une utilisation dans le backhaul [34], notamment dans certaines régions où il peut être compliqué
d’établir des connexions filaires.
2.2.2.4 Ethernet
Ethernet représente un standard réseau mature, largement déployé dans les infrastructures
existantes. Alors qu’il constitue le médium de transport principal dans le backhaul, l’adoption de
ce protocole dans le FH est sérieusement envisagée par un grand nombre d’opérateurs et d’équipe-
mentiers qui voient en Ethernet un moyen peu coûteux et efficace de relier les RRH au pool BBU.
En outre, Ethernet présente de nombreux avantages pour le transport des données, tels que :
— Utilisation de fonctions d’opération, d’administration et de maintenance (Operations, Ad-
ministration and Management (OAM)) pour la détection et la localisation d’erreurs, le
diagnostic des données ainsi que l’apport d’informations liées aux performances du réseau.
— Faible coût d’exploitation des équipements Ethernet actuellement déployés dans les réseaux
d’accès des opérateurs, ainsi que la possibilité de les partager avec d’autres infrastructures
pour le transport des données.
— Possibilité de contrôler, gérer et orchestrer le trafic de données transitant dans le réseau
grâce à l’utilisation de technologies de type SDN.
— Transmission des données à très haut débit, pouvant atteindre les 100 Gbit/s entre deux
extrémités du réseau [35].
Bien qu’Ethernet soit une alternative intéressante et moins coûteuse que WDM, cette solution
possède néanmoins des limitations, pouvant restreindre son utilisation dans le FH. La première
limitation est l’absence de synchronisation des horloges qui est nécessaire lors de la transmission
des données IQ entre l’émetteur et le récepteur qui peut conduire à l’apparition d’erreurs de trans-
mission et/ou à la corruption du signal source. La seconde limitation concerne les performances de
latence et de gigue apportées par Ethernet qui restent en deçà du seuil requis pour le transport de
données dans le FH. Ces performances peuvent par ailleurs se dégrader si des nœuds ou switches
intermédiaires se trouvent entre les RRH et la BBU.
Afin d’adapter Ethernet à la transmission radio, un certain nombre de travaux a été mené pour
répondre aux contraintes imposées par le transport des données IQ à travers le protocole CPRI.
Nous citons, comme exemple, le standard Synchronous Ethernet (SyncE), protocole défini par
l’Union Internationale des Télécommunications (International Telecommunication Union (ITU))
sous les recommandations G-8261, G-8262±et G-8264. Le pri±ncipe de SyncE est de fournir une
synchronisation stricte des horloges avec une fraction de fréquence de 4.6 ppm, contre 100 ppm
pour la norme Ether- net IEEE 802.3, dans la couche physique du modèle Open Systems Intercon-
nection (OSI), nécessaire pour le transport des fréquences radio à travers un réseau Ethernet [36].
D’autres standards ont par ailleurs été définis prenant en considération cette synchronisation des
transmissions à travers Ethernet, tels que, IEEE 1588 Precision Time Protocol (PTP) (synchroni-
sation dans la couche liaison) [37] et IETF Network Time Protocol (NTP) (synchronisation dans
la couche réseau) . Une nouvelle spécification du protocole CPRI, appelée eCPRI, est à l’étude
pour intégrer la 5ème génération de réseaux mobiles. Proposé par de grands noms de l’industrie
des télécommunications, tels que, Huawei, Ericsson, Nokia et NEC, eCPRI aura pour objectif de
réduire l’utilisation de la bande passante (de 10 fois), d’exploiter les infrastructures existantes à
travers Ethernet, d’adopter Ethernet comme la principale solution de transport dans le fronthaul,
etc. Des projets de recherche ont été également lancés pour faire converger les architectures 4G et
5G afin de réduire les coûts CAPEX/OPEX liés à la mise en place d’une nouvelle architecture de
réseau d’accès. Nous citons notamment, le projet Elastic Network qui prévoit d’adopter Ethernet
18
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
19
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
20
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
la possibilité de mettre en veille certaines de ces unités, lorsque leur charge de travail est faible.
Les traitements restant peuvent alors être migrés vers d’autres unités au sein du pool pour plus
d’efficience énergétique. Le C-RAN réduit également la quantité d’énergie consommée, lors de la
transmission du signal, grâce à une gestion plus efficace des interférences et un déploiement plus
dense des RRH qui vont alors former de petites cellules dans le réseau.
Réduction des CAPEX-OPEX : le regroupement des BBU en un petit nombre de pools
per- met de réduire leur coût de déploiement, de gestion et de maintenance. De plus, la distribution
des RRH aux extrémités du réseau est plus simple à effectuer en comparaison avec les eNodeB
actuels, ce qui diminuera les dépenses réalisées par les opérateurs dans les infrastructures d’accès.
Le C-RAN pourra également exploiter les installations déjà présentes dans les réseaux mo- biles,
notamment les infrastructures Ethernet déployées dans les réseaux LTE. Enfin, tel que ne l’avons
mentionné précédemment, l’efficience énergétique de l’architecture C-RAN permettra de considé-
rablement baisser les coûts liés à la consommation d’électricité et d’autres énergies nécessaires au
fonctionnement du réseau.
Amélioration de la capacité spectrale : l’architecture C-RAN facilitera la mise en place
de nouveaux mécanismes de détection et d’atténuation d’interférences intercellulaires, grâce no-
tamment à la simplification du partage d’informations (au sein du pool BBU), liées aux signaux
envoyés par les UE actifs et les données liées à l’état des canaux (Canal State Information (CSI)).
Cela garantie une plus grande efficacité spectrale, en comparaison avec l’architecture LTE.
Adaptabilité au trafic de données non-uniforme : la virtualisation des unités de BBU au
sein d’un pool centralisé permet de gérer l’allocation et le partage des ressources entre les BBU.
Par conséquent, les périodes de forte/faible charge, à un endroit particulier du réseau, sont mieux
traitées par le C-RAN. En outre, l’utilisation des ressources est optimisée grâce à la possibilité
d’activer/désactiver des unités BBU ou encore de répartir le traitement dans tout le pool. Enfin,
le load balancing intégré au FH permet de prendre en charge le trafic de données non-uniformes,
généré par des UE en mouvement.
Amélioration des performances réseau : en raison de la séparation des parties RRH
et BBU dans le C-RAN, il est devenu nécessaire de mettre en place une infrastructure réseau
performante dans au sein du FH. En particulier, en termes de bande passante et de latence. Cela
profitera donc aux utilisateurs qui auront accès à des débits élevés (dépassant les 10 Gbit/s) et à
de nouveaux services, lesquels pourront exploiter ces performances et offrir une meilleure QoE aux
les utilisateurs.
21
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
Par la suite, Alcatel-Lucent [42] a proposé le concept de station de base cloud qui exploite les
techniques de virtualisation dans le but d’utiliser moins de ressources de traitement et cela sans
dégrader les performances du système.
En 2013, NTT DoCoMo a commencé à développer une architecture C-RAN avancée pour son
futur réseau mobile LTE-Advanced [43]. En 2013 également, Telecom Italia a souligné l’intérêt
du concept RAN-as-a-Service (RANaaS), qui offre les avantages de l’architecture C-RAN avec
plus de flexibilité [44]. En 2014, Nokia a publié son white paper nommé « Liquid Radio », dans
lequel l’architecture C-RAN centralisée est considérée comme un moyen efficace pour améliorer
l’utilisation du réseau [45].
La principale différence entre ces différentes architectures préconisées par les industriels réside
dans le degré de répartition des fonctionnalités entre le RRH et le BBU pool. Par exemple, China
Mobile Research Institute a proposé une architecture entièrement centralisée et une autre par-
tiellement centralisée [39]. L’architecture entièrement centralisée, montre une approche type pour
déployer le réseau C-RAN, dans laquelle les fonctionnalités PHY, MAC et toutes les couches du
réseau sont transférées vers le BBU pool. Le principal avantage de cette approche est qu’elle est
22
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
entièrement centralisée et que presque aucun périphérique de traitement numérique n’est néces-
saire dans les RRHs, ce qui pourrait les rendre très petits et peu coûteux. Par contre, le taux de
transmission des liens fronthaul requis pour le renvoi I/Q sera relativement élevé. L’architecture
entièrement centralisée peut atteindre les gains maximaux de LSCP, mais ce gain sera atteint au
détriment d’un coût élevé sur les liens fronthaul car tous les signaux I/Q de tous les terminaux
mobiles devront être envoyés au BBU pool en temps opportun. Dans [43], les auteurs rapportent
que la capacité fronthaul requise dans une architecture entièrement centralisée est de l’ordre de 10
Gbps pour un système LTE avec huit antennes de réception et une bande passante de 20 MHz.
Dans l’architecture partiellement centralisée. Les fonctionnalités de la couche PHY sont inté-
grées dans les RRHs alors que les autres fonctionnalités des couches supérieures sont exécutées
dans le BBU pool. Bien que les fortes exigences sur les liens fronthaul soient atténuées dans cette
architecture partiellement centralisée, le LSCP ne peut pas être efficacement soutenu car les fonc-
tionnalités de la couche PHY restent encore dans le RRH, et seul le gain distribué CoMP peut
être atteint. De toute évidence, la capacité fronthaul requise et la capacité de traitement de signal
nécessaires dans le BBU pool diminuent de façon significative lorsque la répartition fonctionnelle
est décalée vers la couche MAC.
La compagnie NTT DoCoMo a de son côté introduit, dans [43], une architecture C-RAN
avancée capable d’utiliser un "carrier aggregation" (CA) entre les porteuses des petites et des
macros cellules. Dans cette architecture, la plupart des fonctionnalités des couches PHY et MAC
sont implémentées dans les RRHs et seules les fonctionnalités des couches supérieures sont déplacées
dans le BBU pool. La solution 3 de la figure 2.3 montre que seules les fonctionnalités du plan de
contrôle sont intégrées dans le BBU pool, ce qui suggère que seul le gain CRRA peut être atteint
bien que les exigences du lien fronthaul puissent être négligées [46].
Contrairement à ces répartitions fonctionnelles fixes, Telecom Italia a proposé le réseau d’accès
en tant que service (RANaaS) dans le but d’introduire une répartition flexible entre les fonction-
nalités au niveau du RRH et au niveau du BBU pool comme le montre la solution 4 de la figure 1.
Cette architecture est plus précisément le résultat du projet européen iJoin [47]. Cette flexibilité
vise à permettre le choix, d’un point de fonctionnement optimal, entre la centralisation complète
23
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
et l’exécution locale [7], qui est échangé avec des gains LSCP plus faibles en termes d’efficacité
spectrale et des exigences de haute capacité du réseau fronthaul. L’avantage d’une division flexible
est de tirer parti des deux extrêmes : gains en efficacité spectrale (SE : Spectral Efficiency) et éner-
gétique (EE : Energy Efficiency) significatifs pour un fronthaul à capacité élevée, et gains SE/EE
faibles pour un fronthaul à faible capacité.
L’élément central de l’architecture RANaaS est la centralisation des fonctionnalités RAN via
une plate-forme informatique ouverte basée sur une infrastructure cloud. Les fonctionnalités RAN
sont ainsi fournies à l’utilisateur comme un service à la demande. Cependant, bien que l’idée
soit très intéressante, la portée de ce projet était limitée aux réseaux LTE à petites cellules.
Cette architecture est présentée dans la figure 2. Dans la partie gauche de la même figure est
illustrée une implémentation LTE traditionnelle où toutes les fonctionnalités jusqu’au contrôle
d’admission/congestion sont implémentées localement au sein de la station de base. Le côté droit
illustre l’approche C-RAN, où seule la couche radiofréquence (RF) est implémentée localement et
toutes les autres fonctionnalités sont centralisées dans le cloud dans le BBU pool.
Dans le but de réduire le coût du réseau fronthaul et atténuer les demandes pour une grande
capacité et un retard minimal, NEC Corporation a proposé en 2016 [48] une architecture C-RAN
introduisant des nouvelles interfaces qui séparent les fonctionnalités des RRHs de celles des BBUs
dans la couche de protocole au-dessus de la couche physique. Deux structure C-RAN sont alors
envisagées : (a) L2 C-RAN dans laquelle le RRH couvre les fonctionnalités de la couche physique et
le BBU couvre le reste des couches, (b) L3 C-RAN dans laquelle le RRH couvre les fonctionnalités
des couches physique, MAC et RLC et le BBU couvre celles des couches PDCP, RRC et RRM.
NEC propose aussi de virtualiser les petites cellules pour supprimer les limites entre elles. Ainsi,
un nouvel espace virtuel est créé pour fournir des services à un nombre limité d’utilisateurs à un
instant donné.
En 2017, Nokia a présenté sa dernière solution Cloud RAN intitulée « AirScale Cloud RAN
» [49]. Il s’agit d’un RAN multicouches qui divise l’architecture de traitement bande de base en
fonctionnalités temps réel (RT) et non temps réel (NRT). Une interface X-Haul permet connecte
les fonctionnalités temps réel et non temps réel. Cette solution vise à permettre aux opérateurs de
migrer facilement vers une architecture Cloud RAN 5G quelques soit leur architecture déployée.
24
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
Cette solution permet d’utiliser différents types de réseaux fronthaul, y compris Ethernet.
25
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
Figure 2.5 – Modèles de « centralisation » des couches protocolaires dans une architecture C-
RAN.
27
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
28
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
cette solution alternative consiste à grouper uniquement les couches protocolaires supérieures à
la couche PHY (L1) dans le pool BBU. La couche L1 est alors déplacée vers les RRH où ses
fonctions permettront de traiter les signaux radio reçus aux extrémités du réseau. Cette division
partielle réduit l’utilisation de la bande passante de 20-50/ par rapport à une centralisation com-
plète, grâce notamment au transport des signaux démodulés à travers le FH [31]. En outre, la
charge des données est également considérablement réduite au niveau du médium de transport.
Enfin, les contraintes de performances (latence, gigue, etc.) imposées par la centralisation totale
sont atténuées dans ce modèle de division.
Le principal avantage de la centralisation partielle demeure le coût de son déploiement/ mainte-
nance (OPEX/CAPEX) dans le FH qui est inférieur au modèle de centralisation complète. Il n’est
en effet plus nécessaire d’établir un réseau de fibre optique pour connecter les RRH au pool BBU,
en raison des contraintes moins fortes requises par la centralisation partielle. Par conséquent, les
infrastructures réseau déjà établies peuvent être réadaptées ou même directement réutilisées pour
déployer un C-RAN. Des projets sont par ailleurs menés par les opérateurs de télécommunications
dans le but de concevoir de nouvelles méthodes et architectures qui permettraient d’exploiter des
solutions largement déployées telles qu’Ethernet pour l’établissement d’un médium de transport
dans le FH. Nous avons notamment mentionné précédemment la spécification eCPRI qui a pour
but d’adapter le standard CPRI à une utilisation à travers Ethernet. Une nouvelle architecture
C-RAN a été également proposée, appelée Next Generation Fronthaul Interface (NGFI).
La centralisation partielle possède néanmoins un certain nombre de limitations en comparaison
à la centralisation complète. Ces limitations sont les suivantes :
— Consommation d’énergie élevée aux extrémités du réseau d’accès, en raison de la présence
de ressources de calcul, utilisées par la couche L1 pour le traitement des signaux radio au
niveau des RRH. Le déplacement de ces ressources vers les stations de base, impliquera un
déploiement plus coûteux et plus complexe, en comparaison avec la centralisation complète.
— Flexibilité réduite, en termes de partage de ressources, entre les unités BBU au sein du
pool. Cela entraîne une baisse d’efficacité dans le traitement collaboratif entre les cellules
du réseau.
— Performances réseau affaiblies au niveau du FH, pouvant impacter le déploiement de certains
services sensibles à la latence réseau,Utilisation inefficace de certaines fonctions avancées de
communication radio telles que CoMP, ainsi qu’une interaction complexifiée entre la couche
physique et la couche L2, notamment lors de l’exécution du mécanisme HARQ.
29
2.6 Procédure de la virtualisation
2.6.1 Principe
30
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
s’appuient sur l’hyperviseur pour les demandes de CPU, de mémoire, de disque dur, de
réseau et d’autres ressources matérielles ; les conteneurs exploitent les capacités au niveau
du système d’exploitation.
— Conteneurs (par exemple LXC, Docker) : les conteneurs préservent l’avantage de la virtua-
lisation en termes de flexibilité (conteneuriser un système ou une application), de provision-
nement des ressources, de découplage, de gestion et de mise à l’échelle. Ainsi, les conteneurs
sont légers car ils n’émulent pas de couche matérielle (partagent le même noyau et donc
l’application est native par rapport à l’hôte) et ont donc une empreinte plus petite que
les machines virtuelles, démarrent beaucoup plus rapidement et offrent des performances
d’exécution proches du bare metal. Cela se fait au détriment d’une isolation moindre et
d’une plus grande dépendance vis-à-vis du noyau hôte.
31
2.6.2.2 Création de plateforme OpenAirIntarface
EURECOM est une école doctorale et un centre de recherche en systèmes des communications,
situé dans le parc scientifique international de Sophia Antipo- lis (France), et au sein du nouveau
Campus Sophia Tech. Elle a été fondée en 1991 en tant que consortium et composé d’un large
éventail de partenaires académiques et internationaux1 industriel. Par la suite, en raison de sa
taille, EURECOM a décidé de se concentrer sur trois activités : réseaux et sécurité, communications
multimédias et communications mobiles.
Observer l’évolution rapide des systèmes sans fil et la demande de solutions ouvertes et flexibles,
a conduit EURECOM à créer, en 2014, l’OpenAir interface software Alliance en tant qu’entité
juridiquement indépendante et sans fins lucratives. De plus, il a décidé de transférer gratuitement
tous les projets 4Gs développés sous une licence de logiciel open source.
2.6.2.3 OpenAirInterface
Le logiciel OpenAirInterface (OAI) fournit une implémentation open source et conforme aux
normes d’une pile 3GPP 4G LTE qui s’exécute sur un processeur x86 de base et un périphérique
radio USRP. OAI a été initialement développé par Eurecom mais est désormais géré par l’Ope-
nAirInterface Software Alliance (OSA), une organisation française à but non lucratif qui fournit
des logiciels et des outils open source pour la recherche sans fil 4G et 5G. Le logiciel OAI fournit
une implémentation LTE expérimentale complète (3GPP Releases 8 et 9, et partiellement 10 et
11) qui s’exécute en temps réel et est capable de fonctionner avec des combinés LTE commerciaux
(UE). Le logiciel OAI couvre la pile de protocoles complète des normes 3GPP LTE et inclut les
implémentations d’EUTRAN (à la fois eNB et UE) et EPC (MME, S+P-GW et HSS).
La disponibilité du code source OAI est gratuite à des fins de recherche non commerciale et
universitaire. Les implémentations eNB et UE sont concédées sous licence OAI Public License v1.1,
qui est une version modifiée de la licence Apache v2.0, avec une clause de brevet modifiée qui per-
met aux contributeurs de mettre des licences de brevet à la disposition de tiers dans des conditions
justes, raisonnables et conditions non discriminatoires (FRAND). L’implémentation EPC (MME,
S+P-GW et HSS) est concédée sous licence Apache v2.0.
Le logiciel de couche physique eNB implémente 3GPP 36.211, 36.212, 36.213 et fournit les fonc-
tionnalités suivantes :
32
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
33
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
— Nous devons désactiver p-state et c-state sous Linux, nous devons donc ajouter intel_pstate=disable
options de démarrage Linux, c’est à dire :
GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_pstate=disable"
34
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
35
Nous devons maintenant désactiver le démon à la demande, sinon après le redémarrage, les
paramètres seront écrasés.
36
Ensuite, allez dans le référentiel configurez l’environnement pour inclure le référentiel OAI.
Pour ce faire, nous exécutez la commande ci-dessous. Il est toujours nécessaire d’avoir le référentiel
OAI inclus dans notre environnement chaque fois que nous créez ou exécutez le logiciel OAI eNB.
figure conf
Puis en va utilisation d’OAISIM (outil de simulation/émulation) et excitez le commande suivant :
37
Il faut vérifier par le commande ifconfig
38
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
39
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
— Configuration du réseau
Par défaut, le trafic des conteneurs connectés au réseau de pont par défaut n’est pas transmis
au monde extérieur. Pour activer le transfert, nous devons modifier deux réglages. Ce ne sont pas
des commandes Docker et elles affectent l’hôte Docker noyau [53].
Extraction d’images des conteneurs Actuellement les images sont hébergées sous le compte
utilisateur rdefosseoai. D’abord tirez lzq image de oai-hss ,oai-mme,oai-spgwc et oai spgwu-tiny
40
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
41
Création des images de conteneur
— Initialiser la base de données Cassandra
Démarrer et initialiser une base de données cassandra
— Paramètres DNS
Notre hôte EPC Docker a sa propre passerelle –> nous devons la fournir en tant que "serveur
DNS local".
42
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
43
Configurer la mise en réseau L’objectif est de pouvoir pinger les conteneurs MME et SPGW-
U depuis le(s) serveur(s) eNB
44
Chapitre 2. ARCHITECTURE C-RAN ET MISE EN PLACE DE LA
VIRTUALISATION
2.7 Conclusion
A travers ce chapitre, nous avons exposé une vue détaillée du Cloud Radio Acceess Network
(C- RAN), en présentant tout d’abord le principe de base de ce concept qui consiste à séparer
l’unité radio (Remote Radio Head (RRH)) de l’unité de traitement (BaseBand Unit (BBU)), géné-
ralement regroupées en un seul élément (eNodeB) dans une architecture RAN-LTE traditionnelle.
En outre, nous avons énuméré les principaux défis à relever par le C-RAN, en perspective des
besoins exprimés par la nouvelle génération de réseaux mobiles, en termes de performance, flexi-
bilité, coût et efficience énergétique. Nous avons par ailleurs décrit les fonctions de chacun des
éléments composant le C-RAN, en détaillant les solutions pouvant être intégrées dans les RRH,
BBU et le réseau FH. Nous avons également indiqué les avantages apportés par cette architecture
aux opérateurs, d’une part, notamment en termes de flexibilité, coût et partage des ressources,
ainsi qu’aux utilisateurs, d’autre part, en termes de QoS, performance et disponibilité. Enfin, nous
avons présenté les deux modèles de centralisation définis dans le C-RAN, la centralisation complète
et la centralisation partielle, en décrivant leurs architectures respectives, en détaillant le schéma de
division de la couche L1 entre la RRH et la BBU ainsi qu’en donnant les avantages et les limitations
de chacun de ces modèles.
45
Chapitre 3
3.1 Introduction
Ce chapitre consiste le dernier volet du rapport ayant pour objectif d’exposer le travail achevé.
Pour ce faire, nous allons présenter dans premier temps l’environnement matériel et logiciel sup-
portant notre application. Par la suite, nous présentons la plateforme de développement et les
choix technologique. Ensuite, nous allons passer en revue les différentes taches réalisées à travers
quelques interfaces qui décrivent toutes étapes de mettre en œuvre.
46
Chapitre 3. Développement d’application web C-RAN TT
Acteur Rôle
S’authentifie
Ajouter une BBU
Modifier une BBU
Supprimer BBU
Administrateur Ajouter un pool
Modifier un pool
Supprimer un pool
Consulter les informations de pool
Consulter les informations de BBU
Télécharge les performances aux cours d’exécution
47
3.2.2 Besoins fonctionnels
Les besoins fonctionnels sont les besoins spécifiant un comportement d’entrée/sortie du système,
l’application doit permettre de :
— Gérer les données d’administrateur
— Ajouter un admin.
— Modifier un admin.
— Supprimer un admin.
— Gérer les données concernant les BBUs et les BBUs pools
— Gestion des BBU :
— Consulter une BBU.
— Chercher à une BBU.
— Ajouter une BBU.
— Modifier une BBU.
— Supprimer une BBU.
— Gestion des BBUs pools :
— Consulter un pool.
— Chercher à un pool.
— Ajouter un pool.
— Modifier un pool.
— Supprimer un pool.
3.3 Conception
3.3.1 Diagramme de cas d’utilisation
Les diagrammes de cas d’utilisation sont des digrammes UML qui représentent les services les
plus importants rendus par un système.
48
Chapitre 3. Développement d’application web C-RAN TT
49
Chapitre 3. Développement d’application web C-RAN TT
3.4 Réalisation
La réalisation d’application est l’un des objectifs principaux de notre projet, dans ce cadre nous
présentons les outils de développements que nous avons utilisés et aussi les interfaces de notre site
web.
50
Chapitre 3. Développement d’application web C-RAN TT
51
Chapitre 3. Développement d’application web C-RAN TT
52
Chapitre 3. Développement d’application web C-RAN TT
53
— Modifier un admin
On va modifier le prénom de l’admin2 (admin2 admin ==> admin2 add)
54
— Supprimer un admin
On a decide maintenant de supprimer l’admin2
55
— Ajouter un BBU pool
Ces interfaces concernent l’ajout d’un BBU pool.
56
Chapitre 3. Développement d’application web C-RAN TT
57
— Supprimer une BBU pool
On a decide maintenant de supprimer BBU pool de beja
58
— Ajouter une BBU
Voici le formulaire de l’ajout de BBU "BBU3"
59
— Supprimer une BBU
La suppression de BBU3 est aussi possible
3.5 Conclusion
Ce chapitre représente une récapitulation de tous les travaux élaborent pendant ce projet de
conception et de développement ainsi qu’une présentation des résultats atteints.En effet, nous avons
décrit les environnements matériels et logiciels sur lesquels nous avons construit notre application
.Nous avons ensuite passé à la présentation de quelques interfaces de notre application .
60
Conclusion général
La prolifération du domaine des services multimédias mobiles a conduit à une explosion du trafic
des données mobiles. Les systèmes de télécommunication sont alors de plus en plus confrontés aux
problèmes de dégradation des performances, en particulier lors des pics de charge du réseau. Malgré
les efforts effectués en termes de dimensionnement de leurs réseaux, les opérateurs ne peuvent plus
faire face à cette augmentation exponentielle.
L’intégration du cloud dans l’architecture du réseau d’accès, à travers le Cloud RAN, a été
proposée comme solution potentielle pour remédier à ce problème. En effet, le réseau Cloud RAN
permet d’augmenter la capacité du réseau grâce à la virtualisation de la station de base et le
partage des ressources cloud. Malgré son potentiel important, plusieurs défis restent à résoudre
pour mettre en place cette solution et améliorer la QoS pour les abonnés.
Dans cette projet, nous nous sommes focalisés sur la virtualisation de BBU avec le plateforme
OAI et l’évaluation des performances des systèmes C-RAN dans un contexte 5G. Nous avons
vérifié les performances de notre approche par des simulations dans une application web pour gère
la performance et la gestion des BBUs.
61
Bibliography
[1] oberlo, "Trafic Internet mobile : quelle part du trafic Internet est mobile ?," [Online]. Available:
https://www.oberlo.fr/blog/trafic-internet-mobile.
[2] 3GPP, "Report of 3GPP RAN Workshop on Release 12 and onwards," Jun 2012.
[3] 2. W. P. “Cisco Visual Networking Index: Global Mobile Data Traffic Forecast Update, "Cisco. [Online].,"
[Online]. Available: http://www.cisco.com/c/en/us/solutions/collateral/service-provider/visual-
networking-index-vni/mobile-white-paper-c11-520862.html. [Accessed: 16-Mar- 2017]..
[4] A. O. e. al, "Scenarios for 5G mobile and wireless communications: the vision of the METIS project," IEEE
Commun. Mag., vol. 52, no. 5, pp. 26–35, May 2014.
[6] A. O. e. al., "The Foundation of the Mobile and Wireless Communications System for 2020 and Beyond:
Challenges, Enablers and Technology Solutions,," in 2013 IEEE 77th Vehicular Technology Conference (VTC
Spring), pp. 1-5, 2013.
[7] Ericsson, "5G radio access, capabilities and technologies,," Apr 2016. [Online]. Available:
https://www.ericsson.com/res/docs/whitepapers/wp-5g.pdf.
[8] Nokia, "5G use cases and requirements.," [Online]. Available: http://resources.alcatel-
lucent.com/asset/200010..
[10] N. DOCOMO, "5G Radio Access: Requirements, Concept and Technologies,," [Online]. Available:
https://www.nttdocomo.co.jp/english/binary/pdf/corporate/technology/whitepaper_
5g/DOCOMO_5G_White_Paper.pdf.
[11] G. Intelligence, "Understanding 5G: Perspectives on future technological advancements in mobile,," Dec
2014. [Online]. Available: http://www.gsma.com/network2020/wp-
content/uploads/2015/01/Understanding- 5G-Perspectives-on-future-technological-advancements-in-
mobile.pdf.. [Accessed 22 Avril 2021].
[12] T. L. Marzetta, "Noncooperative Cellular Wireless with Unlimited Numbers of Base Station Antennas,,"
IEEE Trans. Wirel. Commun., vol. 9, no. 11, p. 3590–3600, Nov 2010.
[13] G. Y. L. A. L. S. A. A. a. R. Z. L. Lu, "An Overview of Massive MIMO: Benefits and Challenges," IEEE J. Sel. Top.
Signal Process., vol. 8, no. 5, p. 742–758, Oct 2014.
[14] A. G. a. R. K. Jha, "A Survey of 5G Network: Architecture and Emerging Technologies," IEEE Access, vol. 3, p.
1206–1232, 2015.
[15] N. B. e. al, "Network densification: the dominant theme for wireless evolution into 5G," IEEE Commun.
Mag., vol. 52, no. 2, p. 82–89, Feb 2014.
[16] Z. P. a. F. Khan, "An introduction to millimeter-wave mobile broadband systems," IEEE Commun. Mag., vol.
49, no. 6, p. 101–107, Jun 2011.
[17] J. G. A. e. al., "What Will 5G Be?," IEEE J. Sel. Areas Commun., vol. 32, no. 6, p. 1065–1082, Jun 2014.
[18] T. S. R. e. al., "Millimeter Wave Mobile Communications for 5G Cellular: It Will Work!,," IEEE Access, vol. 1,
p. 335–349, 2013.
[20] "Mobile-Edge Computing – Introductory Technical White Paper,," Sep 2014. [Online]. Available:
https://portal.etsi.org/portals/0/tbpages/mec/docs/mobile- edge_computing_-
_introductory_technical_white_paper_v1%2018-09-14.pdf. [Accessed 02 Jun 2021].
[21] P. M. a. T. Grance, "The NIST Definition of Cloud Computing," The NIST Definition of Cloud Computing, Sep
2011. [Online]. Available: http://nvlpubs.nist.gov/nistpubs/Legacy/SP/nistspecialpublication800-145.pdf.
[Accessed 02 Jun 2021].
[23] "Understanding the Cloud Computing Stack: SaaS, PaaS, IaaS.," [Online]. Available:
https://support.rackspace.com/white-paper/understanding-the-cloud- computing-stack-saas-paas-iaas/.
[25] Intel, "Virtualization and Cloud Computing, Steps in the Evolution from Virtualization to Private Cloud
Infrastructure as a Service.," Aug 2013.
[26] B. M. M. Kiran, "Rapport expérimental sur la mise en place d'un environnement de cloud computing à
l'Université de Bradford," Dec 2014. [Online]. Available: https://www.researchgate.net/figure/illustration-
of-the-concept-of-Virtualization-7_fig1_269636339.
[27] Y. S. L. Z. Z. e. a. LIN, "Wireless network cloud : Architecture and system requirements," IBM Journal of
Research and Development, pp. 1-4, 2010.
[28] I. R. C. H. S. e. a. T. g. a. s. CHIH-LIN, "a 5G perspec- tive," IEEE Communications Magazine, pp. 66-73, 2014.
[29] V. N. H. L. B. L. D. Dao, "Conception de transmission multipoint coordonnée (CoMP) pour les Cloud-RAN
avec des contraintes de capacité de transport frontal limitées," [Online]. Available:
https://www.researchgate.net/figure/Cloud-RAN-architecture_fig1_282266765.
[30] H. T. C. L. N. C. N. N. A.-L. C. S. Ericsson AB, "Common Public Radio Interface (CPRI); Interface Speci-
fication," 2015. [Online]. Available: http ://www.cpri.info.
[32] A. C. H. L. Y. Y. e. a. CHECKO, "Cloud RAN for mobile networks—A technology overview," IEEE
Communications surveys & tutorials, pp. 405-426, 2015.
[33] I. R. C. H. S. e. a. CHIH-LIN, "Toward green and soft : a 5G perspective," IEEE Communications Magazine,
pp. 66-73, 2014.
[34] N. J. C. P. T. P. e. a. GOMES, " Fronthaul evolution : from CPRI to Ethernet," Optical Fiber Technology, pp.
50-58, 2015.
[35] J. C. D. W. Y. e. a. LI, "Performance evaluation of cloud-ran system with carrier frequency offset," In :
Globecom Workshops (GC Wkshps) , pp. 222-226, 2012.
[36] A. CHECKO, "Cloud Radio Access Network architecture. Towards 5G mobile networks," Technical University
of Denmark, 2016.
[39] J. e. E. J. HANSRYD, "Microwave capacity evolution," Ericsson review, pp. 22-27, 2011.
[40] D. D. D. D. J. e. a. LAW, "Evolution of Ethernet standards in the IEEE 802.3 working group," IEEE
Communications Magazine, pp. 88-96, 2013.
[41] J.-L. G. M. J. S. e. a. FERRANT, " Synchronous Ethernet : A method to transport synchronization," IEEE
Communications Magazine, 2008.
[42] J. e. L. K. EIDSON, "IEEE 1588 standard for a precision clock synchronization protocol for networked
measurement and control systems," In : Sensors for Industry Conference, pp. 98-105, 2002.
[43] L. S. Z. Z. Q. W. a. R. K. S. Y. Lin, "Wireless network cloud:Architecture and system requirements," pp. 1-4,
jan 2010.
[44] C. Mobile, "C-RAN, The Road Towards Green RAN," oct 2011. [Online]. Available:
http://labs.chinamobile.com/cran/wp- content/uploads/CRAN_white_paper_v2_5_EN.pdf.
[45] H. W. a. Y. Zhao, "C-RAN Bearer Network Solution - ZTE Corporation," [Online]. Available:
http://wwwen.zte.com.cn/endata/magazine/ztetechnologies/2011/No6/articles/201111/t20111118_2639
75.html.
[46] L. G. e. al, "Architecture of GPP based, scalable, large-scale C-RAN BBU pool," in 2012 IEEE Globecom
Workshops, p. 267–272, 2012.
[47] B. H. e. al, "Radio base stations in the cloud," vol. 18, p. 129–152, Jun 2013.
[48] N. DOCOMO, "5G Radio Access: Requirements, Concept and Technologies," Jun 2014. [Online]. Available:
https://www.nttdocomo.co.jp/english/binary/pdf/corporate/technology/whitepaper_
5g/DOCOMO_5G_White_Paper.pdf.
[49] D. S. e. al, "RAN as a service: Challenges of designing a flexible RAN architecture in a cloud-based
heterogeneous mobile network," in 2013 Future Network Mobile Summit, pp. 1-8, 2013.
[51] O. S. O. S. a. S. S. S. S. H. Park, "Fronthaul Compression for Cloud Radio Access Networks: Signal processing
advances inspired by network information theory," IEEE Signal Process, pp. 69-79, Nov 2014.
[53] N. Corporation, "NFV C-RAN for Efficient RAN Resources Allocation," 2016.
[64] docker, "Activer le transfert des conteneurs Docker vers le monde extérieur," [Online]. Available:
https://docs.docker.com/network/bridge/#enable-forwarding-from-docker-containers-to-the-outside-
world.
[65] P. M. a. T. Grance, "The NIST Definition of Cloud Computing," Sep 2011. [Online]. Available:
http://nvlpubs.nist.gov/nistpubs/Legacy/SP/nistspecialpublication800-145.pdf.