Vous êtes sur la page 1sur 16

4

Etude d’une solution Cloud


Computing IaaS – OpenStack
Objectifs Spécifiques :
Che chapitre vise à acquérir chez l’apprenant comment mettre en place un environnement
Cloud Computing IaaS en utilisant OpenStack. Ce chapitre présente aussi en détail les
différents composants d’OpenStack ainsi que les différents mécanismes de placement des
machines virtuelles sur les machines physiques de l’infrastructure.

Eléments de contenu :
• Présentation d’OpenStack • Quantum
• Architecture d’OpenStack • Cinder
• Horizon • Glance
• KeyStone • Swift
• Nova • Déploiement Single Node
• Déploiement Multi Node

Méthodologie et Moyens
• Exposé moyennement :
o Tableau
o Polycopiés de cours
o Exposé PowerPoint
Page | 1
Chapitre 4 : OpenStack

1. Définition
OpenStack est un ensemble de logiciels open source permettant de déployer des infrastructures de
Cloud Computing (Infrastructure as a Service). OpenStack possède une architecture modulaire
composée de plusieurs projets corrélés (Nova, Swift, Glance, etc…) qui permettent de contrôler les
différentes ressources des machines virtuelles telles que la puissance de calcul, le stockage ou
encore le réseau inhérent au centre de données sollicité.

Le projet est porté par la Fondation OpenStack, une organisation non-commerciale qui a pour but
de promouvoir le projet OpenStack ainsi que de protéger et d'aider les développeurs et toute la
communauté OpenStack.

Les principaux contributeurs de ce projet sont Rackspace (fournisseur de plate-forme de Cloud


Computing) et la NASA. Rackspace fournit les outils de gestion de fichiers dans le Cloud tandis
que la NASA fournis les outils de gestion de l'IaaS issus du système Nebula.

L'objectif d'OpenStack est de rendre le Cloud simple à mettre en œuvre et très extensible. Ubuntu,
l'une des distributions Linux les plus populaires, a annoncé que sa version 11.04, baptisée Natty
Narwhal, supportera nativement OpenStack.

2. Architecture – Vue Conceptuelle d’OpenStack


OpenStack possède une architecture modulaire qui comprend de nombreux composants. Afin de
mieux comprendre comment OpenStack fonctionne, il sera utile d'analyser brièvement les éléments
qui le composent.

Concevoir un environnement de Cloud Computing en utilisant OpenStack est une grande réussite.
Cela nécessite une bonne compréhension des exigences et des besoins des utilisateurs du Cloud
pour déterminer la meilleure configuration possible pour y répondre. OpenStack offre une grande
flexibilité pour répondre à vos besoins.

Pour concevoir, déployer et configurer OpenStack, les administrateurs doivent comprendre


l'architecture logique. La figure suivante peut vous aider à visualiser tous les composants intégrés
dans OpenStack et la façon dont ils interagissent les uns avec les autres.

Page | 2
Chapitre 4 : OpenStack

Figure 1 : Architecture conceptuelle d’OpenStack

2.1 Horizon
Horizon fournit une interface Web pour les services OpenStack. Actuellement, il comprend tous
les services OpenStack ainsi que certains projets incubés. Il a été conçu comme une application
web sans état et sans données, il ne fait rien de plus que d'initier des actions dans les services
OpenStack via des appels d'API et d'afficher des informations renvoyées par les autres services
d’OpenStack. Il ne conserve aucune donnée sauf les informations de session dans son propre cache
de données. Il est conçu pour être une implémentation de référence pouvant être personnalisée et

Page | 3
Chapitre 4 : OpenStack

étendue par les opérateurs pour un Cloud particulier. Il constitue la base de plusieurs Clouds
publics, notamment HP Public Cloud.

Horizon est basé sur une série de modules appelés panneaux qui définissent l'interaction de chaque
service. Ses modules peuvent être activés ou désactivés, en fonction de la disponibilité du service
du Cloud particulier. En plus de cette flexibilité fonctionnelle, Horizon est facile à personnaliser
avec les feuilles de style (CSS).

Actuellement, Horizon est implémenté comme une application Web Python qui s'exécute
normalement dans serveur web Apache. Par conséquent, vous pouvez le traiter comme n'importe
quelle autre application Web, à condition qu'il puisse atteindre les serveurs (y compris leurs points
de terminaison) sur le réseau.

La plupart des fournisseurs de Cloud fournissent un thème spécifique à une entreprise particulière
pour la mise en œuvre de son tableau de bord.

Figure 2 : OpenStack – Horizon


Page | 4
Chapitre 4 : OpenStack

2.2 Keystone
D'un point de vue architectural, Keystone présente le service le plus simple de la composition
OpenStack. C'est le composant principal qui fournit un service d'identité et il intègre des fonctions
d'authentification, des services de catalogue et des politiques pour enregistrer et gérer différents
locataires et utilisateurs dans les projets OpenStack. Les demandes d'API entre les services
OpenStack sont traitées par Keystone pour garantir que l’utilisateur ou un service est en mesure
d'utiliser le service OpenStack demandé. Keystone effectue de nombreux mécanismes
d'authentification tels que le nom d'utilisateur/mot de passe ainsi qu'un système basé sur
l'authentification par jeton. De plus, il est possible de l'intégrer à un répertoire backend existant tel
que LDAP (Lightweight Directory Access Protocol) et PAM (Pluggable Authentication Module).

Un exemple similaire de la vie réelle est l’accès à un catalogue de jeux. Vous pouvez acheter une
carte de jeux et profiter en jouant un certain nombre de jeux pendant une certaine période de temps.
Avant de commencer à jouer, vous devez fournis votre carte pour avoir accès au catalogue de jeux.
Chaque fois que vous souhaitez essayer un nouveau jeu, vous devez vous enregistrer sur la machine
du jeu. Cela va générer une requête, qui est mappée à un système d'authentification central pour
vérifier la validité de la carte et de sa garantie, pour profiter du jeu demandé. Par analogie, le jeton
de Keystone peut être comparé à la carte de jeux. Le service d'identité est considéré comme un
système d'authentification central et commun qui donne accès aux utilisateurs.

2.3 Swift
Bien qu'il ait été brièvement affirmé que Swift serait mis à la disposition des utilisateurs en même
temps que les composants OpenStack, il est intéressant de voir comment Swift a renforcé ce que
l'on appelle le stockage dans le Cloud. Au cours de la dernière décennie, la plupart des entreprises
n'ont pas caché leurs craintes au sujet d'une partie critique de l'infrastructure informatique : le
stockage où les données sont conservées. Ainsi, l'achat de matériel coûteux pour être dans la zone
de sécurité était devenu une habitude. Il y a toujours certains défis auxquels sont confrontés les
ingénieurs de stockage et parmi ces défis, le plus important consiste à minimiser les temps d'arrêt
tout en augmentant la disponibilité des données. Malgré l'émergence de nombreuses solutions
intelligentes pour les systèmes de stockage au cours des dernières années, nous devons encore

Page | 5
Chapitre 4 : OpenStack

apporter des modifications à la manière traditionnelle. Swift a été introduit pour remplir cette
mission.

Notez que Swift est un composant de stockage objets qui présente de nombreux avantages :

• Aucun point central n'indique aucun point unique de défaillance (SPOF)


• Récupération automatique en cas d'échec
• Très évolutif pour l'accès aux données en pétaoctets grâce à un redimensionnement
horizontale
• Meilleure performance, obtenue en répartissant la charge sur les nœuds de stockage
• Un matériel peu coûteux peut être utilisé pour les clusters de stockage redondants

2.4 Glance
En tant qu’utilisateur d’OpenStack, il faut savoir quelle est la différence entre Glance et Swift ?
D’une part, il est important de distinguer les composants d'interaction du système afin qu'ils soient
plus faciles à dépanner et à utiliser dans les environnements de production. D'un autre part, il est
important de satisfaire les besoins et les conditions qui dépassent les limites de votre infrastructure
informatique.

Pour éviter toute confusion, tout simplement Swift et Glance sont des systèmes de stockage.
Cependant, la différence entre les deux est dans ce qu'ils stockent. Swift est conçu pour être un
système de stockage objets où vous pouvez conserver des données telles que des disques virtuels,
des images des VMs, l'archivage de sauvegarde, etc., tandis que Glance stocke des métadonnées
d'images. Les métadonnées peuvent être des informations telles que le noyau, les images de disque,
le format de disque, etc. Glance a été conçu à l'origine pour stocker des images de VMs. La
première version d'OpenStack inclus seulement Nova et Swift (nom de code Austin publié le 21
Octobre 2010), Glance a été intégré à la deuxième version (nom de code Bexar publié le 23 Février
2011).

L’objectif de Glance est d'être un registre d'images. Utiliser Glance pour stocker des images de
disque virtuel est une fonctionnalité très importante. D'un point de vue architectural, des méthodes
plus avancées pour interroger les informations d'image via l'API Image Service fournie par Glance
via un système de stockage d'images indépendant tel que Swift apportent des performances plus

Page | 6
Chapitre 4 : OpenStack

importantes et des services de base bien organisés. De cette façon, un client (peut être un utilisateur
ou un service externe) sera capable d'enregistrer une nouvelle image de disque virtuel, par exemple,
pour le diffuser à partir d'un entrepôt hautement évolutif et redondant.

2.5 Cinder
Il existe un autre moyen d'avoir du stockage dans OpenStack. En effet, la gestion du stockage par
bloc persistant a été intégré dans OpenStack en utilisant Cinder. Sa capacité principale à présenter
le stockage au niveau des blocs fournit des volumes bruts qui peuvent être intégrés dans des
volumes logiques dans le système de fichiers et montés dans la machine virtuelle.

Certaines des fonctionnalités offertes par Cinder sont présentés comme suit :

• Gestion du volume : permet la création ou la suppression d'un volume de stockage


• Gestion des instantanés : permet la création ou la suppression d'un instantané des volumes
• Vous pouvez attacher ou détacher des volumes à partir d'instances
• Vous pouvez cloner des volumes
• La création de volume à partir d'instantanés est possible via Cinder
• Vous pouvez copier des images sur des volumes et vice versa

Plusieurs options de stockage ont été proposées dans OpenStack. D’où la question suivante : Quel
type de stockage sera le meilleur pour vous ? Avec un processus de prise de décision, une liste des
avantages et des inconvénients devrait être faite. Ce qui suit est un tableau très simple qui décrit la
différence entre les types de stockage dans OpenStack pour éviter toute confusion lors du choix de
l'option de gestion de stockage pour votre future conception d’architecture :

Type de stockage
Stockage objets Stockage en bloc
Performance - Oui
Stockage de base de données - Oui
Restauration des données de Oui Oui
sauvegarde

Page | 7
Chapitre 4 : OpenStack

Configuration pour les fournisseurs - Oui


de volume
Persistance Oui Oui
Accès Partout Depuis une VM
Stockage d'image Oui -

Tableau 1 : Type de stockage

Il est très important de garder à l'esprit que, contrairement aux services Glance et Keystone, les
fonctionnalités Cinder sont fournies en orchestrant les volumes via des pilote configurables telles
que les pilotes d'IBM, NetApp, Nexenta et VMware.

Si Cinder s'avère être une solution idéale ou un remplacement de l'ancien service nova-volume qui
existait avant la sortie de la version Folsom d’OpenStack sur le plan architectural, il est important
de savoir que Cinder a organisé et créé un catalogue de périphériques de stockage par bloc avec
plusieurs caractéristiques différentes. Cependant, il est évident de considérer la limitation de la
redondance du stockage des produits et de l'autoscaling.

La spécification de Cinder mentionnée ci-dessus révèle sa caractéristique de non-verrouillage des


données, où il est possible de changer le backend facilement ou d'effectuer une migration de
données entre deux backends de stockage différent. Par conséquent, une meilleure architecture de
conception de stockage, dans ce cas, l'utilisation de Cinder amènera à une haute évolutivité
d’OpenStack.

2.6 Nova
Nova est le composant de base le plus original d'OpenStack. D'un point de vue architectural, il est
considéré comme l'un des composants les plus compliqués d'OpenStack.

Nova exécute un grand nombre de services, qui sont collaborées pour répondre à une requête de
l'utilisateur dans l'exécution de VM. L’architecture de Nova en tant qu'application distribuée
nécessite une orchestration pour effectuer des tâches entre les différents éléments qui composent
Nova.

Page | 8
Chapitre 4 : OpenStack

2.6.1 nova-api
Le composant nova-api accepte et répond à l'utilisateur final et calcule les appels d'API. Les
utilisateurs finaux ou d'autres composants communiquent avec l'interface de l'API Nova pour créer
des instances via l'API Compute d’OpenStack ou l'API EC2.

2.6.2 nova-compute
Le composant nova-compute est principalement un démon worker qui crée et termine les instances
VM via les API de l'hyperviseur (XenAPI pour XenServer, Libvirt KVM et l'API VMware pour
VMware).

Il est important de décrire comment fonctionne un tel processus. Les étapes suivantes délimitent ce
processus :

1. Acceptez les actions de la file d'attente et exécutez les commandes système telles que le
lancement des instances KVM pour les supprimer lors de la mise à jour de l'état dans la
base de données.
2. Travailler en étroite collaboration avec nova-volume pour remplacer et fournir des
périphériques de blocs iSCSI ou Rados dans Ceph. Ceph est une plate-forme logicielle de
stockage open source pour le stockage de type objet, bloc et stockage de fichiers dans un
environnement de stockage hautement disponible.

2.6.3 nova-volume
Le composant nova-volume gère la création, la fixation et le détachement de N volumes pour les
instances des machines virtuelles (similaire à EBS d'Amazon).

2.6.4 nova-network
Le composant nova-network accepte les tâches de mise en réseau de la file d'attente et exécute
ensuite ces tâches pour manipuler le réseau (comme la configuration d'interfaces réseau, utilisation
des ponts ou la modification des règles de la table IP).

Page | 9
Chapitre 4 : OpenStack

2.6.5 nova-scheduler
Le composant nova-scheduler prend en charge la requête d'une instance de machine virtuelle de la
file d'attente et détermine où elle doit s'exécuter (en particulier sur quel hôte du serveur de calcul
elle doit fonctionner). Au niveau de l'architecture de l'application, le terme planification ou
planificateur appelle une recherche systématique de la meilleure configuration pour une
infrastructure donnée afin d'améliorer ses performances.

Nova fournit également des services de console qui permettent aux utilisateurs finaux d'accéder à
la console de l'instance virtuelle via un proxy tel que nova-console, nova-novncproxy et nova-
consoleauth.

En effectuant un zoom sur les composants généraux d'OpenStack, nous constatons que Nova
interagit avec plusieurs services tels que Keystone pour l'authentification, Glance pour les images
et Horizon pour l'interface Web. Par exemple, l'interaction avec Glance est centrale ; le processus
via une API peut télécharger n'importe quelle requête vers Glance et nova-compute télécharge des
images pour lancer des instances.

2.7 Queue
La file d'attente fournit un concentrateur central pour transmettre des messages entre des démons.
C'est là que les informations sont partagées entre différents daemons Nova en facilitant la
communication entre les processus discrets de manière asynchrone.

Tout service peut facilement communiquer avec n'importe quel autre service via les API et mettre
en file d'attente un service. Un avantage majeur du système de mise en file d'attente est qu'il peut
mettre en mémoire tampon une charge de travail importante. Plutôt que d'utiliser un service RPC,
un système de file d'attente peut mettre en file d'attente une charge de travail volumineuse et donner
une cohérence éventuelle.

2.8 Neutron
Neutron fournit un véritable service de réseau en tant que service (NaaS) entre les périphériques
d'interface gérés par des services OpenStack tels que Nova. Neutron présente plusieurs
caractéristiques qui sont présentées comme suit :

Page | 10
Chapitre 4 : OpenStack

• Il permet aux utilisateurs de créer leurs propres réseaux, puis de les attacher à des interfaces
pour leurs serveur virtuels
• Son architecture permet aux utilisateurs de tirer parti de l'équipement de base ou de
l'équipement pris en charge par le fournisseur
• Les extensions permettent d'intégrer des services réseau, logiciels ou matériels
supplémentaires

Neutron possède de nombreuses fonctionnalités réseau de base qui ne cessent de croître et de se


développer. Certaines de ces fonctionnalités sont utiles pour les routeurs, les commutateurs virtuels
et les contrôleurs de réseau SDN.

Neutron introduit de nouveaux concepts, dont les suivants :

• Port : Les ports Neutron se réfèrent aux connexions du commutateur virtuel. Ces
connexions sont les instances et les services réseaux attachés aux réseaux. Lorsqu'elles sont
connectées aux sous-réseaux, les adresses MAC et IP définies des interfaces qui sont
connectées à ces sous-réseaux.
• Réseaux : Neutron définit les réseaux comme des segments de réseau isolés de la couche
2. Les opérateurs traitent les réseaux comme des commutateurs logiques implémentés par
les outils de pont sous Linux, OpenvSwitch ou d'autres logiciels. Contrairement aux réseaux
physiques, cela peut être défini par les utilisateurs finaux dans OpenStack.
• Routeurs : les routeurs fournissent des passerelles entre différents réseaux.
• IPs privées et flottantes : les adresses IP privées et flottantes désignent les adresses IP
attribuées aux instances. Les adresses IP privées sont visibles dans l'instance et font
généralement partie d'un réseau privé dédié à un locataire. Ce réseau permet aux instances
du locataire de communiquer lorsqu'il est isolé des autres locataires. Les adresses IP
flottantes sont des adresses IP virtuelles que Neutron mappe aux adresses IP privées via le
mécanisme de translation d’adresses (NAT). Les adresses IP flottantes sont affectées à une
instance afin qu'elles puissent se connecter à des réseaux externes et accéder à Internet. Ils
sont exposés en tant qu'IP publiques, mais le système d'exploitation de l'invité n'a aucune
idée de l'attribution d'une adresse IP.

Page | 11
Chapitre 4 : OpenStack

Dans l'orchestration de bas niveau de la couche 1 à la couche 3 de Neutron, des composants tels
que l'adressage IP, le sous-réseau et le routage peuvent également gérer des services de haut niveau.
Par exemple, Neutron fournit l'équilibrage de charge en tant que service (LBaaS) en utilisant
HAProxy pour répartir le trafic entre plusieurs instances de nœuds de calcul.

2.9 Ceilometer
Le service de télémétrie d'OpenStack s'appelle Ceilometer. Il permet de collecter différentes
métriques sur l'utilisation du cloud. Par exemple il permet de récolter le nombre d'instances lancé
dans un projet et depuis combien de temps. Ces métriques peuvent être utilisées pour fournir des
informations nécessaires à un système de facturation par exemple. Ces métriques sont aussi
utilisées dans les applications ou par d'autres composants d'Openstack pour définir des actions en
fonction de certains seuils comme avec le composant d'orchestration.

2.10 Heat
Heat est le composant d'orchestration d'Openstack. Il permet de décrire une infrastructure sous
forme de modèles. Dans Heat, ces modèles sont appelés des stacks. Heat utilise ensuite ces modèles
pour déployer l'infrastructure décrite sur Openstack. Il peut aussi utiliser les métriques fournies par
Ceilometer pour décider de créer des instances supplémentaires en fonction de la charge d'une
application par exemple.

3. Quotas
Les Quotas sont des mécanismes utilisés dans les différents API d’OpenStack pour limiter le
nombre de ressources qu’un utilisateur peut créer ou utiliser. Ces limites se traduit en termes de :

• Bande passante réseau


• Nombre de sous réseaux
• Nombre de ports
• Nombre de routeurs virtuels
• Nombre des adresses IP Flottantes
• Nombre de groupes de sécurité

Page | 12
Chapitre 4 : OpenStack

• Nombre de machines virtuelles


• Nombre de volume virtuels
• Etc.

Les quotas sont configurés soit dans un fichier spécifique soit au niveau de la bases de données. Si
l’utilisateur désire que tous les projets créés sous OpenStack auront les mêmes quotas alors il doit
les configurer au niveau de fichier de configuration quantum.quotas.ConfDriver,

Si chaque projet a ses propres quotas, alors les quotas sont stockés dans la bases de données
quantum.db.quotas_db.DbQuotasDriver

4. Placement des VMs


Pour créer une machine virtuelle sur une machine physique dans l’infrastructure géré par
OpenStack, le démon Nova Scheduler utilise un ou plusieurs filtre configurés par l’administrateur
de l’infrastructure dans le fichier de configuration nova.conf. Parmi ces filtres on peut citer :

• Chance : Choisir d’une manière aléatoire n’importe quelle machine physique qui peut
prendre en charge le déploiement de la VM
• Simple : Choisir la machine physique qui contient le minimum des VMs en cours
d’exécution.
• Filter-(Choix) : Choix peut être CPU, RAM ou IO.
o Filter-CPU : Choisir la machine physique qui contient le maximum des processeurs
virtuelles disponible.
o Filter-RAM : Choisir la machine physique qui contient le maximum de la quantité
de la RAM disponible.
o Filter-IO : Choisir la machine physique qui contient le minimum de trafic
d’entrée/sortie.

5. Déploiement
Cette section a pour objectif de présenter comment peut-on déployer un environnement IaaS de
Cloud Computing utilisant OpenStack. Deux types de déploiement sont possible :

Page | 13
Chapitre 4 : OpenStack

• Déploiement Single Node


• Déploiement Multi Node

5.1 Déploiement Single Node


La pile complète d’OpenStack peut être installée sur votre propre machine afin de tester votre cloud
personnel ce qui peut être intéressant pour découvrir les différentes fonctionnalités d’OpenStack.

Pour installer OpenStack sur une seule machine, il faut satisfaire les prérequis suivants :

• Disposer des droits d'administration.


• Disposer d'une connexion à Internet configurée et activée.
• Un processeur supportant la virtualisation matérielle (KVM)
• Disposer d'un espace disque au minimum de 20 GO
• Disposer d’au moins de 3 GO RAM disponible

Pour ce type de déploiement, l’utilisateur a le choix soit d’installer chaque composant d’OpenStack
manuellement, ce qui rend le processus d’installation très pénible et difficile à réaliser, soit
d’utiliser un utilitaire qui automatise ce processus d’installation comme DevStack.

DevStack est un utilitaire d'installation d’OpenStack scripté maintenu pour les développeurs pour
prototyper et déboguer ces services sous OpenStack. Il est également pratique pour les opérateurs
de tester les concepts, de nouveaux services et des configurations. C'est un bon début pour les
débutants d'OpenStack pour comprendre comment installer et utiliser OpenStack.

5.2 Déploiement Multi Node


L’architecture d’un déploiement Multi Node nécessite au moins deux nœuds (hôtes) pour lancer
une simple machine virtuelle ou une instance. Les services optionnels comme le Stockage par Blocs
et le Stockage Objet nécessite des nœuds additionnels (Voir Figure 3).

Page | 14
Chapitre 4 : OpenStack

Figure 3 : Déploiement Multi Node d’OpenStack

Ce type de déploiement met en évidente les machines suivantes :

• Contrôleur : Le nœud contrôleur héberge le service d’Identité, le service d’Image, la partie


management du Compute et du réseau, plusieurs agents réseau, et le Dashboard. Il inclut
également les services support comme une base de données SQL, la file de message, et
NTP. En option, le nœud contrôleur peut faire tourner des parties de services de Stockage
par Blocs, de Stockage Objet, d’Orchestration et de Télémétrie. Le nœud contrôleur
nécessite au minimum deux interfaces réseau.
• Compute : Le nœud compute exécute la partie hyperviseur de Compute qui fait fonctionner
les instances. Par défaut, le nœud Compute utilise l’hyperviseur KVM. Le nœud compute

Page | 15
Chapitre 4 : OpenStack

héberge également un agent du service réseau qui connecte les instances aux réseaux
virtuels et fournit des services de firewall aux instances via les groupes de sécurité. Vous
pouvez déployer plus d’un nœud compute. Chaque nœud nécessite au minimum deux
interfaces réseau.
• Stockage par Bloc : Le nœud optionnel de Stockage par Blocs contient les disques que les
services de Stockage par Blocs et de Systèmes de Fichiers Partagés provisionne pour les
instances. Pour simplifier, le trafic du service entre les nœuds compute et ce nœud utilise le
réseau de management. Les environnements de production devraient implémenter un réseau
de stockage séparé pour accroitre la performance et la sécurité. Vous pouvez déployer plus
d’un nœud stockage. Chaque nœud nécessite au minimum une interfaces réseau.
• Stockage Objet : Le nœud optionnel de Stockage Objet contient les disques que le service
de Stockage Objet utilise pour stocker les comptes, les conteneurs et les objets. Pour
simplifier, le trafic du service entre les nœuds compute et ce nœud utilise le réseau de
management. Les environnements de production devraient implémenter un réseau de
stockage séparé pour accroitre la performance et la sécurité. Ce service nécessite deux
nœuds. Chaque nœud doit avoir au minimum une interface réseau. Vous pouvez déployer
plus de deux nœuds de stockage objet.
• Réseaux : Choisir une des options suivantes de réseau virtuel :
o Réseau Option 1 : Réseaux fournisseurs - L’option de réseaux fournisseurs déploie
le service Réseau d’OpenStack de la façon le plus simple possible avec
essentiellement les services de couche-2 (bridging/switching) et une segmentation
des réseaux en VLAN. Principalement, il fait le lien (bridge) entre les réseaux
virtuels et les réseaux physiques et s’appuie sur l’infrastructure réseau physique
pour les services de couche-3 (routing). De plus, un service DHCP fournit les
informations d’adresse IP aux instances.
o Réseau Option 2 : Réseaux libre-service - L’option de réseaux libres-services
améliore l’option de réseaux fournisseurs avec des services de couche-3 (routing)
qui permettent la création de réseaux libres-services utilisant des techniques de
segmentation overlay comme VXLAN. Essentiellement, cela permet de router les
réseaux virtuels vers les réseaux physiques via le NAT. De plus, cette option sert
de base aux services avancés comme LBaaS et FWaaS.

Page | 16

Vous aimerez peut-être aussi