Académique Documents
Professionnel Documents
Culture Documents
Réalisé par :
Classe : 2ATEL2
Encadré par
M.BAHLOUL FAOUZI
2
Table des matières
1 Description du projet 9
1.1 Le Cloud Computing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.2 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.3 Les services du Cloud Computing . . . . . . . . . . . . . . . . . . . 10
1.1.4 Services du Cloud Computing . . . . . . . . . . . . . . . . . . . . . 11
1.1.5 Modèles de déploiement du Cloud Computing . . . . . . . . . . . . 13
1.2 Caractéristiques des services du Cloud Computing . . . . . . . . . . . . . 15
1.3 Virtualisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Centre de donnéess virtuel (Virtual Data Center, VDC) . . . . . . . . . . 17
1.5 Etat de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.1 Architecture Fat-Tree . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.2 Architecture Spine-Leaf . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.3 Description du probléme . . . . . . . . . . . . . . . . . . . . . . . . 18
Conclusion générale 43
Bibliographie 44
4
Table des figures
6
Liste des tableaux
7
Introduction général
Ce projet est divisé en trois parties. Dans le premier chapitre, nous présenterons notre
projet dans son intégralité, et nous aborderons certains concepts fondamentaux liés au
Cloud Computing. Le deuxième chapitre contient une description détaillée de notre solu-
tion. Dans le troisième chapitre, nous examinerons les aspects de simulation et d’analyse
de la méthode, ainsi que la manière d’évaluer ses performances.
8
Chapitre 1
Description du projet
Introduction
L’évolution du Cloud Computing et l’augmentation de la demande de ses services
motive les entreprises à investir dans ce domaine. Dans ce premier chapitre, nous allons
passer en revue quelques concepts fondamentaux liés au Cloud Computing .
1.1.2 Historique
Le concept du Cloud Computing est né dans les années 1990, notamment en 1991, avec
le lancement d’Internet et la mise en place du CERN( Conseil Européen pour la Recherche
Nucléaire) ; le premier logiciel basé sur le Web. L’idée a ensuite avancé avec l’introduction
de nouvelles solutions informatiques, comme le lancement du navigateur Mosaic en 1993
et du navigateur Netscape en 1994. La découverte d’eBay et d’Amazon en 1995 a encore
accéléré le processus. Ainsi l’introduction de l’assistant numérique Palm en 1996 a donné
un nouvel élan. Enfin, l’arrivée de Google en 2000 a favorisé la véritable émergence du
cloud computing.[1]
9
1.1.3 Les services du Cloud Computing
Les services offerts par le Cloud Computing se catégorisent en trois grands modèles de
services comme illustré à la figure 1.1 :
10
modelser.PNG
Habituellement, pour pouvoir utilisé un logiciel , il est nécessaire de l’installer sur l’or-
dinateur. Grâce à un logiciel SaaS, on n’a rien à installer ; au contraire, on l’utilise à dis-
tance : il "tourne" sur des serveurs dans les centres de données du fournisseur. La plupart
du temps, l’accès à ces programmes se fait par l’intermédiaire d’un navigateur web, de sorte
qu’il suffit seulement d’une connexion internet.
L’avantage évident de ce modèle est sa facilité d’utilisation : en quelques clics de souris,
vous pouvez commencer à utiliser le logiciel. On peut ainsi s’affranchir des contraintes de
téléchargement et d’installation, ainsi que des problèmes de stockage...
12
Figure 1.2 – Trois modèles de services cloud [1]
• Cloud privé (interne) : Le terme "cloud privé" fait référence à un serveur, un centre
de données ou un réseau distribué qui est entièrement dédié à une seule organisation. Il
est caractérisé par son haut niveau de sécurité, qui est soutenu par une connexion VPN
(Virtual Private Network).
• Cloud public (externe) : Le " cloud public " fait référence à un service géré par
un fournisseur tiers qui peut inclure des serveurs dans un ou plusieurs centres de données.
Au contraire des clouds privés, les clouds publics sont partagés par un certain nombre
d’organisations. L’utilisation de machines virtuelles permet à plusieurs entreprises de par-
13
tager des serveurs indépendants. C’est ce qu’on appelle une "architecture mutualisée" :
plusieurs sites louent de l’espace sur le même serveur.
• Cloud hybride (interne et externe) : Le "cloud hybride", comme son nom l’in-
dique, permet aux organisations d’utiliser à la fois le cloud computing privé et public pour
atteindre leurs objectifs spécifiques.
Le cloud public est conservé comme solution de backup en cas de panne du cloud privé.
14
1.2 Caractéristiques des services du Cloud Computing
Le cloud computing combine cinq caractéristiques essentielles afin de fournir des ser-
vices dans des conditions techniques et économiques très avantageuses :
• Accès réseau large bande (Universel) : Quel que soit le client utilisé (par exemple,
un serveur, un PC, un client mobile, etc.), les services cloud sont disponibles pour l’utili-
sateur à l’échelle mondiale et facilement sur le réseau. En fait, les plus grands fournisseurs
mondiaux répartissent leurs centres de traitement des données dans le monde entier pour
assurer une disponibilité de 99,99% et un accès aux systèmes en moins de 50 millisecondes
depuis n’importe quel endroit de la planète.
• Elasticité ou mise à l’échelle rapide : L’une des caractéristiques les plus importantes
du cloud computing est l’élasticité des ressources. Les ressources peuvent être rapidement
et automatiquement déployées et mises à l’échelle en fonction de la demande, en toute
quantité et à tout moment. Par exemple, la configuration d’une nouvelle instance de ser-
veur prend quelques minutes, tandis que son arrêt et son redémarrage ne prennent que
quelques secondes.
1.3 Virtualisation
La virtualisation est un concept fondamental dans le domaine du cloud computing. En
effet les techniques utilisées dans le cloud sont basées sur la virtualisation des ressources
15
informatiques telles que le matériel, les logiciels, le stockage et les composants de réseau.
Il existe deux type d’hyperviseur : hyperviseur type 1 ou bare metal et hyperviseur type
2 ou host metal. La figure 1.3 explique la différence entre ces deux types d’hyperviseur.
Un hyperviseur «host metal» : est un logiciel qui s’exécute à l’intérieur d’un autre sys-
tème d’exploitation, appelé système "hôte".
16
1.4 Centre de donnéess virtuel (Virtual Data Center,
VDC)
Les centres de données cloud sont devenus une infrastructure populaire pour l’héber-
gement d’une variété de services d’application pour les locataires. Le centre de données
virtuel (VDC) est proposé comme un service qui permet de louer à la fois des machines vir-
tuelles (VM) et de la bande passante réseau afin de fournir une agilité et une élasticité dans
l’utilisation des ressources pour les services en nuage.
Suite à cette observation, de nombreuses recherches ont récemment proposé d’offrir des
ressources sous forme de centres de données virtuels (VDC). Une solution qui permet aux
fournisseurs d’infrastructures d’améliorer leurs bénéfices sans avoir à réaliser de nouveaux
investissements.
Un centre de données virtuel est composé de machines virtuelles (VM) qui sont reliées
entre elles à l’aide de commutateurs virtuels, de routeurs et de connexions avec une bande
passante garantie. Cela permet aux FSC (fournisseur de service Cloud) d’améliorer les
performances de leurs applications et la qualité de service (QoS).
17
Figure 1.5 – Architecture Fat-Tree
Le centre de données virtuel est une trés bonne solution qui permet d’offrir la bonne
qualité de service aux clients et d’économiser l’utilisation des ressources physiques.
18
Figure 1.6 – Architecture Spine-Leaf
Dans notre projet, nous focalisons sur le problème d’optimisation des ressources qui
sont dédiés pour l’utilisation en cas d’échec. C’est-à-dire, on cherche la manière de dési-
gner les éléments physiques remplaçants le fonctionnement des ressources principales si
un endommagement au niveau de ces derniers s’apparaît. Nous concentrons d’abord au
problème d’allocation des machines virtuelles et des liens virtuels composant les requêtes
VDC dans une architecture Spine Leaf. Par la suite, nous abordons la deuxième partie du
problème qui est la phase de backup pour ces VDCs. Cette phase consiste à allouer des
machines virtuelles (VMs) et des liens virtuelles (VLs) de secours d’un ou d’un ensemble
de VDCs vérifiant une certaine condition.
Conclusion
Dans ce premier chapitre, nous avons introduit le projet dans son intégralité, tout en
exposant certains concepts fondamentaux liés au Cloud Computing et en indiquant les
problèmes d’allocation et de backup des ressources.
19
Chapitre 2
Introduction
Le cloud computing a récemment réussi à devenir un modèle populaire et rentable pour
l’hébergement de services en ligne à grande échelle dans les centres de données. Cependant,
les affaiblissements matériels (serveur, commutateur, processeur...) sont inévitables, ce
qui peut toucher le fonctionnement, la fiabilité et la performance du service. Notre défi
consiste à modéliser une solution qui garantit la survivabilité des centres de données
virtuelles d’une manière optimale. D’autre part, on cherche à inventer une seule solution
qui combine les différents éléments concernés par l’architecture Cloud. Dans ce chapitre,
nous allons présenter nos hypothèses, notre solution, notre conception d’algorithmes et
les phases d’allocations des machines virtuelles ainsi ses liens virtuels en tenant compte
de ses remplaçants (Backups).
Lors de réception d’une demande d’hébergement d’un service sur l’infrastructure Cloud,
on traduit cette demande sous forme des centres de donnés virtuels (VDCs). Un centre de
données virtuelles est un environnement d’infrastructure virtuel qui abstrait les ressources
20
physiques dans l’objectif à distribuer différents clients de manière flexible et selon la de-
mande. Il est constitué par des machines virtuelles (VMs) de différents tailles (S, M, L)
reliées entre elles par des liens virtuels (VL, Virtual Link). Ensuite, on génère notre algo-
rithme qui est capable d’allouer les machines virtuelles de chaque VDC en garantissant la
bande passante nécessaire pour la communication entre elles. Enfin, notre algorithme dé-
termine les VMs de backups ainsi ses liens virtuels de backups jugés selon un caractère spé-
cial basé sur nos hypothèses.
Comme les machines virtuelles se classifient en 3 catégories (S, M, L), Le tableau 2.1
suivant manifeste les différentes classes de machines virtuelles avec ses caractéristiques.
Pour clarifier les données de notre problème, soit l’exemple suivant qui représente un
centre de données virtuel composé par cinq VMs. Le tableau 2.2 décrit le type de chaque
VM de ce VDC.
21
VM VM1 VM2 VM3 VM4 VM5
Taille S M L S S
Après avoir classifié les caractéristiques de chaque VM, nous allons citer maintenant
les liens entre ces différents VMs. Soit la figure 2.2 suivante qui décrit les relations entre Les
VMs d’un VDC ainsi la valeur de la bande passante de chaque relation.
Figure 2.2 – Présentation des liaisons et de la valeur de la bande passante entre les VMs
d’un VDC
Ces différents liens sont exprimés dans une matrice illustrée dans la figure 2.3. Par
exemple, la machine virtuelle d’indice avec la machine virtuelle d’indice 4 avec une bande
passante de 125Mbps.
22
La prochaine étape consiste à allouer les machines virtuelles dans des machines phy-
siques d’une manière qu’elles peuvent communiquer entre elles. Pour cela, nous allons
citer nos hypothèses d’abord. Ces hypothèses sont un ensemble des propositions sur l’état
des données de notre problème afin de le bien modéliser.
2.1.2 Hypothèses
Avant de présenter notre algorithme, nous considèrons les hypothèses suivantes :
Notre problème principal consiste à héberger les backups de VMs et de PLs d’une
manière optimale en se basant sur les hypothèses et les données présentées. Dans la partie
suivante, nous allons modéliser nos ressources virtuelles et physiques dans un modèle
descriptif sur les relations entre elles.
23
Figure 2.4 – Exemple d’allocation d’un VDC dans un centre des donnés
Dans ce travail, nous avons déjà considéré que chaque commutateur Leaf a un commu-
tateur de backup qui est en mode en veille. Cette hypothèse nous amène à ignorer la dis-
cussion sur les backups de PLs entre la couche Leaf et les PMs. En effet, on ne tient compte
dans notre modèle que des PLs entre la couche Spine et la couche Leaf ainsi tous les PMs de
Data Center.
Puisque notre centre de discussion est les machines physiques et les liens physiques, la
matrice de modélisation doit tenir compte de ces deux différents types de matériel. Alors,
nous présentons la matrice de modélisation sous forme de matrice des nombres complexes.
Nous désignons les PMs et les PLs respectivement comme la partie réelle et la partie ima-
ginaire de cette matrice. L’indice de chaque ligne présente l’indice de PM et l’indice de PL
dans un centre de données.
Lors de réception de requête de VDC, qu’on suppose d’indice n, on ajoute une colonne
des valeurs nulles à la matrice de modélisation. Ensuite, dès l’allocation de chaque VM de
VDC dans le k-ième PM, on met la valeur 1 sur la position de n-ième ligne, k-ième colonne
de la matrice de modélisation. Après la phase d’allocation des PMs, le même principe se
fait dans la phase d’allocation des liens. Lorsque on réserve une bande passante entre les
VMs de deux racks différents sur k-ième PL, on ajoute i (avec i un nombre complexe i*i=-
1) à la valeur existant dans la position de n-ième ligne, k-ième colonne de la matrice de mo-
délisation.
Figure 2.5 – Présentation des liaisons et des valeur de la bande passante entre les VMs
d’un exemple de trois VDCs
En premier lieu, on énumère les PMs et les PLs, c’est-à-dire, on met à chaque ressource
physique un indice comme il est illusté dans la figure 2.6.
On suppose que les VMs de différents VDCs s’hébergent dans les PMs comme il est indi-
qué dans la figure 2.7.
25
Figure 2.7 – Exemple d’allocation de trois VDC dans un centre des donnés
26
Pour établir la communication entre les VMs, on cherche le chemin qui réserve la bande
passante nécessaire. La figure 2.9 présente notre exemple où on a alloué les chemins entre
les machines virtuelles.
Figure 2.9 – Allocation des chemins entre les VMs des trois VDCs
Figure 2.12 – Matrice de modélisation en relation avec les PMs et les PLs
Après la phase de modélisation, il nous reste que la phase de backup. Dans la par-
tie suivante, nous allons présenter la théorie de Backup et la façon dans laquelle nous
hébergerons les backups des VMs et les backups des VLs.
28
2.2 Phase de Backup :
L’objectif de cette partie est de présenter comment on va définir les backups des VDCs.
La solution immédiate consiste à réserver à chaque VM de VDC un VM de backup. De
même pour les liens physiques, on désigne à chaque lien virtuel un lien virtuel de backup.
Dans ce travail, on considère un groupe des VDCs. Tout d’abord, on a déjà supposé
que les PMs et les PLs ne tombent pas au même temps. Ceci nous conduit à penser
qu’à un intervalle de temps donné, un seul PM ou PL va tomber en panne. Au bout de
cet intervalle de temps, le reste de PMs et de PLs fonctionnent correctement. On déduit
alors que les VDCs qui ne partagent pas les mêmes ressources physiques avec les VDCs
défaillants (c’est-à-dire les VDCs indépendants), peuvent avoir le même VM et VL de
backup avec ces derniers. Le critère de l’indépendance qui nous amène à regrouper les
VDCs est le résultat de nos suppositions sur l’état de centre des données.
Tenant l’exemple de trois VDCs cités dans la partie précédente, on veut déterminer la
relation d’indépendance entre VDC1 et VDC3. On fait le produit matriciel de la partie
réelle de transposée de la première colonne (qui représente la colonne de VDC1) avec la
troisième colonne (qui représente la colonne de VDC3) de notre matrice M comme il est
expliqué dans la figure 2.13. Le résultat de calcul est 1, différent de 0. Donc on en déduit
que le VDC1 et le VDC3 sont dépendants au niveau de PM. Ce qui est bien approuvé
dans la figure 2.9 où VM2 de VDC1 et VM1 de VDC3 sont alloué sur la même PM3.
29
Figure 2.13 – Produit matriciel entre le transposée de la première colonne et la troisième
colonne de la partie réelle de la matrice M
La figure 2.15 est une représentation de processus de calcul dans le cas général où on
prend deux VDCs l’une d’indice k et l’autre d’indice n pour tester leurs dépendances au
niveau de PL et PM.
30
Figure 2.15 – Produit matriciel entre la transposée de la première colonne et la troisième
colonne de la partie imaginaire de matrice M
31
Figure 2.16 – Détermination de VR de chaque VDC à partir de la partie réelle de la
matrice de modélisation
Cette méthode nous améliora le temps d’exécution puisque nois allons filtrer une quan-
tité de calcul inutile. Elle ne détermine le critére d’indépendance au niveau de PM et PL
que s’il est nécessaire. Si on veut tester l’indépendance de deux VDCs l’un d’indice n et
l’autre d’indice k au niveau de Rack, on effectue le produit matriciel entre le transposé de
VRn et VRk. La figure 2.17 présente le résultat de ce calcul en interprétant les différents
cas. Par exemple, si on obtient un 0 comme résultat, on déduit directement que les deux
VDCs sont indépendant au niveau de PM car ils sont indépendants au niveau de Rack.
De plus, ces deux VDCs ne peuvent pas avoir un lien virtuel commun parce qu’il est im-
possible pour un seul lien physique d’associé deux Racks différents. En effet, nous avons
réussi une méthode très simple et qui combine les deux aspects ; indépendance au niveau
de PM et l’indépendance de PL d’une maniére trés optimale.
32
Figure 2.17 – Interprétation de résultat du produit matriciel entre le transposé de VRn
et VRk
Conclusion
Dans ce chapitre, nous avons présenté la modélisation et la conception de notre algo-
rithme en travaillant sur les problèmes d’allocation de backup des machines virtuelles et
des liens virtuels. Le but principal de ce chapitre est de développer notre approche qui
se base sur différentes hypothèses. Le chapitre suivant sera consacré sur l´évaluation de
l’algorithme et la simulation.
34
Chapitre 3
Introduction
Après la conception et la mise en œuvre de notre algorithme, il est temps de le vali-
der et de procéder à des simulations avec différents scénarios d’exécution. Pour ce faire,
nous allons d’abord fournir l’environnement de travail, puis étudier les performances par
l’exécution de plusieurs simulations, et enfin, nous présenterons les principaux résultats.
3.2 Simulations
Les résultats de simulation sont essentiellement déterminés par la topologie choisie.
L’architecture adoptée pour toutes les simulations est une architecture de taille moyenne
comportant 5 commutateurs dans la couche Spine, 10 commutateurs dans la couche Leaf
et 10 machines physiques par Rack, pour aboutir enfin à 100 machines physiques en
totalité. Les cinq commutateurs de la couche Spine sont reliés entre eux par des liens de
bande passante de 10 Gbps. Chaque commutateur de cette couche est connecté avec les
commutateurs de la couche Leaf par des liens de bande passante de 1 Gbps. On illustre
cette architecture par la figure 3.1.
35
Figure 3.1 – Représentation de l’architecture
Les machines physiques utilisées sont de même nature, et le tableau 3.1 ci-dessous pré-
sente leurs caractéristiques.
Paramétres Valeur
CPU 64 coeurs
RAM 196 Go
DISK 1000 Go
Bande Passante 1 Gbps
36
Pour ce faire, nous avons créé un programme qui génère les demandes VDC d’une ma-
nière automatique et dans un ordre aléatoire. Il suffit de spécifier le nombre de VDC sou-
haité pour que l’algorithme génère les demandes. Les informations sur les différents VDCs
sont sauvegardées dans un fichier Excel (.xlsx).
Afin d’obtenir des résultats plus fiables, nous avons répété l’exécution de l’algorithme
cent fois dont les simulations seront présentées dans la suite. De façon plus simple, si nous
fixons le nombre de VDC à 30, nous allons générer 30 demandes VDCs et nous répétons
l’exécution 100 fois avant de calculer une moyenne pour s’assurer que les résultats sont
stables et précis.
3.4 Scénarios :
3.4.1 scénario 1 :
Le temps d’exécution est parmi les meilleurs paramètres d’efficacité d’un programme.
La figure 3.2 représente la moyenne de variation du temps d’exécution de l’algorithme par
rapport au nombre de VDCs traités. Nous avons calculé ce temps d’exécution pour des
demandes de VDCs entre 10 et 340 sur 100 essais. Le temps d’exécution est proportionnel
avec le nombre de VDC. C’est-à-dire plus que nous recevons de demandes d’hébergement
des machines virtuelles plus que le temps d’exécution augmente. Pour une demande de
50 VDCs le programme s’exécute avec une valeur moyenne de 0.012ms et pour 100 VDCs
le temps d’exécution devient 0.038ms pour aboutir enfin à 0.32ms pour une demande de
340 VDCs.
Dans ce deuxième scénario, nous focalisons sur le taux d’utilisation d’un serveur phy-
sique. Nous avons déjà utilisé 100 serveurs physiques regroupés sur 10 racks dans l’architec-
ture Spine Leaf. Chaque serveur est caractérisé par son CPU (cœurs), sa RAM (Go), son
DISK (Go) et sa bande passante (Mbps). Nous avons calculé le taux d’exploitation des res-
sources physiques en fonction de nombre de VDCs.
Les résultats de simulation sont représentées dans les figures 3.3, 3.4, 3.5 et 3.6.
Notre algorithme a ainsi réussi à bien exploiter les termes des ressources physiques.
38
Figure 3.5 – Utlisations moyenne du DISK en variation avec le nombre de VDCs
3.4.3 scénario 3 :
Une fois nous avons hébergé les machines virtuelles dans les machines physiques, nous
passons dans ce scénario à déterminer le nombre de VMs de backup en fonction du nombre
total des VMs.
La figure 3.7 présente la variation moyenne du nombre de VMs de backup en fonction du
nombre de VMs de différents VDCs.
39
Figure 3.7 – Utilisation moyenne du nombre de machines virtuelles de backup en fonction
du nombre total de VMs
L’analyse de la figure 3.7 montre que notre algorithme est capable de gagner plus de
ressources matérielles dans les centres des données. La vaste marge de nombre de VMs
totale par rapport au nombre de backup en augmentant le nombre de VDCs est trés
clair. Pour être plus précis, selon les valeurs numériques, pour 340 VDCs effectués, 18
VMs de backup en moyenne sont utilisées, grâce au fait que plusieurs machines virtuelles
partagent un seul backup. Ce résultat met en valeur l’intérêt de l’algorithme proposé.
3.4.4 scénario 4 :
Dans ce scénario, nous étudions les liens virtuels de différents VDCs et ses backup entre
la couche Spine et la couche Leaf. Dans la figure 3.8, on illustre la variation du nombre
de VLs totale et du nombre de VLs de secours en fonction du nombre de VDCs généré.
40
Figure 3.8 – Utilisation moyenne du nombre de liens virtuels de backup en fonction du
nombre total de VLs
3.4.5 scénario 5 :
Dans ce dernier scénario, nous allons comparer le temps de l’exécution de notre solution
proposée avec le temps de génération des requêtes VDCs. La figure 3.9 présente le résultat
de temps d’exécution en moyenne pour les deux différents aspects. En effet, ce graphe
confirme la rapidité et l’efficacité de notre conception d’algorithmes même par rapport
au temps de réception des requêtes VDCs. De plus, on peut discuter le terme de la pente
de deux courbes où on admet 0.0045 pour la courbe de génération des requetes VDCs,
or, on trouve 0.00087 en moyenne pour la courbe de temps d’exécution de l’algorithme.
Pour clarifier un peu notre intérêt, si on oriente vers un nombre de VDCs plus grand,
nous serons sûrs que le temps d’exécution de notre solution proposée est très inférieur au
temps de réception des demandes d’hébergement.
41
Figure 3.9 – Temps d’exécution de l’algorithme de solution proposée en comparaison
avec le temps de génération des requêtes VDCs
Conclusion
Dans ce dernier chapitre, nous avons désigné un ensemble de scénarios pour tester les
performances de l’algorithme proposé. Les résultats de différentes simulations montrent
bien que cet algorithme est puissant et efficace en termes de consommation de ressources
et de temps d’exécution.
42
Conclusion générale
Les fournisseurs d’infrastructure en tant que service (IaaS) de cloud computing sont
devenus une alternative à la hausse du coût total de possession des infrastructures infor-
matiques dans de nombreuses entreprises. Le problème du VDC est récemment devenu un
sujet brûlant dans les centres des données, car un placement approprié peut apporter une
grande contribution pour fournir un service cloud à valeur ajoutée de haute qualité aux
utilisateurs finaux. Ainsi, l’approche de backup s’intervient dernièrement pour améliorer la
qualité de service.
Dans ce projet, nous avons abordé principalement la gestion des ressources physiques
en discutant les parties virtuelles. Nous avons développé une solution pour l’allocation de
backup des machines virtuelles et des liens virtuels. Nous avons pu comprendre cela de
manière plus pratique à travers les simulations et les scénarios effectués dans le troisième
chapitre. D’ailleurs, nous avons cité la conception del’algorithme et l’enchaînement du
travail qui est basé sur des hypothèses dans le deuxième chapitre. Le deuxième chapitre
est l’épine dorsale de notre travail. C’est une modélisation de problème d’une part et une
représentation de démarche de notre solution d’autre part. Sans oublier l’intérêt de premier
chapitre qui est une description de problème et représentation des éléments fondamentaux
de Cloud Computing.
L’objectif de notre travail est quasiment atteint grâce aux résultats des simulations.
La réduction de nombre de VLs et VMs pour le backup est remarquable. Nous avons
pu comprendre cela de manière plus pratique à travers les simulations et les scénarios
effectués dans le troisième chapitre. Il serait intéressant de compléter cette étude sur le
plan expérimental à travers un centre de données réel.
43
Bibliographie
[2] P. M. Mell and T. Grance, “Sp 800-145 : the nist definition of cloud computing,”
tech.rep., National Institute of Standards Technology, https ://bit.ly/2NM71mU, 2011
S. Chhabra and V. S. Dixit, “Cloud computing : State of the art and security issues,” ACM
SIGSOFT Software Engineering Notes, vol. 40, no. 2, pp. 1–11, 2015.
[3] S. Chhabra and V. S. Dixit, “Cloud computing : State of the art and security issues,”
ACM SIGSOFT Software Engineering Notes, vol. 40, no. 2, pp. 1–11, 2015.
[4] C. Gong, J. Liu, Q. Zhang, H. Chen, and Z. Gong, “The characteristics of cloud
computing,” in 2010 39th International Conference on Parallel Processing Workshops,pp.
275–279, IEEE, 2010.
[5] Robert P Goldberg. Survey of virtual machine research. Computer, 7(6) :34–45, 1974.
[6] B. Cully et al., "Remus : High Availability via Asynchronous Virtual Machine Replica-
tion," in Proc. USENIX NSDI’08, San Francisco, USA, Apr. 2008.
[7] Qi Zhang, Mohamed Faten Zhani, Maissa Jabri, Raouf Boutaba David R. Cheriton
School of Computer Science, University of Waterloo, Canada. Venice : Reliable Virtual
Data Center Embedding in Clouds, 2019.
44