Académique Documents
Professionnel Documents
Culture Documents
“ Je dédie ce travail,
”
- HOSNI
I
Remerciements
Je tiens à manifester ma plus grande gratitude envers tous ceux qui de loin ou de près
ont accordé leur temps précieux à ce travail.
Toute ma reconnaissance à mon Encadreur de Master, Mr. Sofien Mhatli, qui n’a
épargné aucun effort pour m’orienter et guider mes pas. Ses précieux conseils et la rigueur
scientifique exigée dont il a profondément le souci, ont été pour beaucoup dans mes tra-
vaux.
Mes vifs remerciements vont également à Dr. Nejib Khalfaoui, pour le temps pré-
cieux qu’elle m’a consacré, durant ces années, pour l’élaboration de ce travail. Ses conseils
permanents et judicieux, ses encouragements incessants et constants, ses remarques per-
tinentes et enrichissantes ainsi que sa confiance sans faille ont été pour moi d’un recours
inestimable et d’un appui sans égal.
A Messieurs les membres du jury qui m’ont fait l’honneur d’évaluer ce travail et lui ont
accordé une attention critique dont j’apprécie la pertinence, la profondeur et la portée, je
leur exprime très respectueusement ma reconnaissance.
II
Résumé
Mots clés : .
III
Abstract
Keywords : .
IV
Table des matières
Dédicace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I
Remerciements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II
Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IV
Introduction générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 État de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 La virtualisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Mécanisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2 Avantages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.3 Réseau virtuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Concepts et définitions du Cloud Computing . . . . . . . . . . . . . . . . . 18
2.3.1 Définitions et généralités . . . . . . . . . . . . . . . . . . . . . . . 18
V
Table des matières
2.3.2 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.3 Caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.4 Les catégories des services . . . . . . . . . . . . . . . . . . . . . . 20
2.4 Les modèles de déploiement . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4.1 Le Cloud public . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.2 Le Cloud privé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.3 Le Cloud hybride . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5 Les avantages et les inconvénients du Cloud . . . . . . . . . . . . . . . . . 23
2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4 Implémentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Environnement du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.1 Choix technique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.2 Étapes de déploiement et de configuration de l’appliance vCenter
Server 5.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.3 Migration du Data center vers le Cloud . . . . . . . . . . . . . . . . 43
4.2.4 Configuration de plateforme Amazon . . . . . . . . . . . . . . . . 44
4.3 Gestion de bucket sur Amazon S3 . . . . . . . . . . . . . . . . . . . . . . 46
4.3.1 Définition de bucket . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3.2 Création d’un Bucket . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.3.3 Copie d’objets dans le même compte Amazon S3 . . . . . . . . . . 47
4.4 La migration avec CLOUDENDURE . . . . . . . . . . . . . . . . . . . . . 48
4.4.1 Tester le lancement . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.5 Serveur de migration de Service . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5.1 Installation du connecteur de migration de serveur . . . . . . . . . 53
4.5.2 Configuration du connecteur . . . . . . . . . . . . . . . . . . . . . 53
4.5.3 processus de migration lui-même et comment AWS SMS le gère . . 55
4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5 Sécurité de la Solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.2 Sécurité Data Center du CRDA . . . . . . . . . . . . . . . . . . . . . . . . 60
5.2.1 Comment garantir la sécurité d’un datacenter ? . . . . . . . . . . . 60
5.2.2 La Solution Firewall du CRDA Jendouba . . . . . . . . . . . . . . 60
VI
Table des matières
Conclusion générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
VII
Table des figures
VIII
Table des figures
IX
Liste des tableaux
X
Introduction générale
L’énorme croissance du commerce électronique, des médias sociaux et des divers ser-
vices Web 2.0 a considérablement accru la demande de ressources de calcul. Des entreprises
comme Google, Amazon et Microsoft ont rapidement réalisé que, financièrement, il est
plus aisé de construire de très grands centres de données pour leurs besoins que de nom-
breux petits. Il est beaucoup plus rentable d’acheter des ressources comme l’électricité,
la bande passante et le stockage en grandes quantités. Dans un grand centre de données,
il devient plus facile de maximiser la quantité de travail par rapport à un coût dépensé
(partager les composants d’une manière plus efficace, améliorer la densité physique et
virtuelle des serveurs,...).
Le cloud computing est donc un nouveau moyen adapté à livrer les prestations de
service. C’est aussi un pool de ressources. On peut y stocker de très grandes quantités de
données, y trouver autant de ressources logicielles et matérielles dont on a besoin. Il offre
toute une nouvelle série de caractéristiques qui le rend attrayant. Ce nouveau paradigme
suppose que chaque composant d’une application ou d’un logiciel devient un service ou
une partie d’un service. Il offre des services à la demande, de grande capacité de calcul et
de stockage...Néanmoins, il suscite encore beaucoup d’interrogations liées à l’interopéra-
bilité, à la sécurité et à la portabilité.
Le Cloud computing, un concept en plein essor, offre une agrégation de services Cloud
assurant l’interopérabilité, la portabilité et la haute disponibilité. Le défi réside essen-
tiellement dans le partage des rôles entre les différents acteurs (Cloud provider, Cloud
broker, Network Provider, utilisateur…) vis-à-vis de l’exécution des différentes étapes de
déploiement des services.
1
Introduction générale
proposer une solution cloud comme extension et ou backup de la solution déjà déployer
dans le data center en prémisse. Dans le but d’achever cette proposition, nous allons étu-
dier dans le premier chapitre l’architecture existante déjà déployée ainsi que ses services
offerts.
Dans le deuxième chapitre, nous allons présenter les travaux existant dans la littérature
qui traitent le problème de ..
dans le troisième chapitre, nous allons étudier et déployer une solution cloud (AWS,
Azure.) qui peut être soit une extension ou backup de la solution déjà déployé, tout en
garantissant une connexion sécurisé entre le data center et le cloud.
L’objectif de notre travail consiste à fournir des outils pour la description des services
dans un environnement Cloud, des requêtes utilisateurs et des « Virtual Appliance » tout
en s’appuyant sur le standard OVF (Open Virtualization Format) de DMTF (Distributed
Management Task Force). L’utilisation de standard permet de palier aux problèmes de
vendor lock-in, de portabilité et d’interopérabilité entre Cloud. Il est aussi question dans
cette recherche de concevoir et développer une architecture de déploiement de services
« Virtual Appliance » dans un environnement de Cloud.
2
Chapitre 1
3
Chapitre 1. Contexte général et spécification des besoins
• 144000 Ha de plaines
4
Chapitre 1. Contexte général et spécification des besoins
Formation
Elle détermine les thèmes de formation qui convient aux agents du CRDA, s’engage
à faire la consultation, dépouillement et le choix du formateur juge capable selon des
caractéristiques bien déterminés et celui qui présente l’offre la moins distante.
5
Chapitre 1. Contexte général et spécification des besoins
Elle suit les matériels informatiques au sein du CRDA sur tout le territoire du gou-
verneras, suit son inventaire et la classification selon les modèles, suit l’entretien préventif
annuel, entretien pour l’installation des logiciels, suit les applications crées par la cellule
informatique.
Acquisition
Elle adresse les fiches techniques selon les dernières nouveautés sur le matériel infor-
matique, lance la consultation, gérer le dépouillement et choisit le plus performant et le
moins disant. Outils utilisés :
• Les logiciels utilisés sont : Ressources logiciels Durant mon projet j’ai utilisé une
panoplie d’outils informatiques à savoir (VmwareESXI, VMware vSphere Client,
VMware vCenter, Windows Server 2008R2 Windows 7 Pro, Ubuntu 20.04LTE, SQL
Server 2008, OpenStack, aws, cloudendure, serveur de migration de service).
1.1.5 Problématique
La solution proposée doit offrir tous les outils dont le commissariat régional de dévelop-
pement agricole a besoin pour assurer le bon déroulement des tâches et la communication
inter/intra départements avec la haute disponibilité des serveurs du data center.
6
Chapitre 1. Contexte général et spécification des besoins
Directory », d’un« ERP » et d’un « WORKFLOW » qui leur sont propres. La figure 1.2
illustre l’architecture du Data Center de CRDA Jendouba.
• Deux serveurs « Cisco Unified Communications Manager » (CUCM) qui gèrent l’en-
semble des postes téléphoniques.
• Deux serveurs Cisco Unity Connection pour la messagerie vocale et le routage in-
telligent des appels
• Une Gateway voix 2921 pour la connexion au réseau téléphonique public (PSTN)
via un Trunk SIP au Siège CRDA.
• Une Gateway voix 2921 ayant comme fonction SRST pour la connexion au réseau
téléphonique public (PSTN) via une carte FXO à Annexe CRDA.
• Une Gateway voix 2921 ayant comme fonction SRST pour la connexion au réseau
téléphonique public (PSTN) via une carte FXO au Direction Agriculture Ghardi-
maou.
7
Chapitre 1. Contexte général et spécification des besoins
• Une Gateway voix 2921 ayant comme fonction SRST pour la connexion au réseau
téléphonique public (PSTN) via une carte FXO au Direction Agriculture Bousselem.
• Des postes téléphoniques IP Cisco 3905, 7861, 8831, 8845 et9971
8
Chapitre 1. Contexte général et spécification des besoins
1. Deux machines virtuelles pour CUCM avec une capacité de 1000 utilisateurs.
2. Deux machines virtuelles pour IM & Presence d’une capacité de 1000 utilisateurs.
3. Deux machines virtuelles pour CUC avec une capacité de 1000 utilisateurs.
les capacités requises pour héberger ces machines sont représentées par le tableau 1.3
9
Chapitre 1. Contexte général et spécification des besoins
Tab. 1.3 : Les capacités requises pour héberger les machines virtuelles
1.2.7 Paramètres IP
Le VLAN pour le management des différents équipements Voice sera le VLAN 14 qui
desservira le réseau 192.168.14.0/24. Ainsi, les adresses définies pour le management du
serveur UCS sont représenté par le tableau 1.4
Le VLAN des serveurs UC sera aussi le VLAN 12 (VLAN-UC) qui aura l’adressage
192.168.12.0/24. La répartition des adresses serveurs est détaillée dans le tableau 1.5.
10
Chapitre 1. Contexte général et spécification des besoins
Besoins fonctionnels
Pour réussir la tâche du recueil des besoins fonctionnels, nous avons commencé par
interviewer les différents employés de la société selon un questionnaire semi-directif. Ces
interviews nous ont permis d’identifier les besoins fonctionnels suivants :
• La migration vers une plateforme virtuelle pour optimiser les ressources et garantir
la fiabilité du système
• La continuité de l’activité
• Le déploiement d’une plateforme du Cloud Computing privée pour offrir des services
à tous les sites du CRDA.
11
Chapitre 1. Contexte général et spécification des besoins
1.3 Conclusion
Dans ce premier chapitre, nous avons présenté l’entreprise d’accueil à savoir le CRDA
de Jendouba. Puis, nous avons présenté le système déjà mis en place et nous avons proposé
une solution. En fin nous avons distingué les différents besoins que notre application a
imposée. Ces besoins seront détaillés dans le chapitre de conception.
12
Chapitre 2
État de l’art
13
Chapitre 2. État de l’art
2.1 Introduction
Au niveau de ce chapitre, nous allons présenter les notions fondamentales de la vir-
tualisation et du Cloud Computing. Nous commencerons par expliquer son principe, les
différents services qu’il fournit, ses modèles de déploiement ainsi que ses avantages et
inconvénients. Par la suite, nous allons présenter les différentes solutions du Cloud Com-
puting existantes et nous allons choisir la solution que nous allons adopter.
2.2 La virtualisation
La virtualisation recouvre l’ensemble des techniques matérielles et ou logiciels qui
permettent de faire fonctionner sur une seule machine plusieurs systèmes d’exploitation,
plusieurs instances différentes et cloisonnées d’un même système ou plusieurs applications,
séparément les uns des autres, comme s’ils fonctionnaient sur des machines physiques
distinctes. Les intérêts de la virtualisation sont : l’utilisation optimale des ressources,
l’économie sur le matériel par mutualisation, l’allocation dynamique de la puissance de
calcul, la facilité d’installation, de déploiement et de migration des machines virtuelles.
La figue 2.1 représente une comparaison entre architecture physique et vertualisée.
2.2.1 Mécanisme
Un système d’exploitation principal appelé « système hôte » est installé sur un serveur
physique unique. Ce système sert d’accueil à d’autres systèmes d’exploitation.
Un logiciel de virtualisation appelé « hyper viseur » est installé sur le système d’exploita-
tion principal. Il permet la création d’environnements clos et indépendants sur lesquels
seront installés d’autres systèmes d’exploitation « systèmes invités ».Ces environnements
sont des « machines virtuelles ».
Un système invité est installé dans une machine virtuelle qui fonctionne indépendamment
des autres systèmes invités dans d’autres machines virtuelles. Chaque machine virtuelle
dispose d’un accès aux ressources du serveur physique (mémoire, espace disque…).
2.2.2 Avantages
La virtualisation des systèmes informatiques présente de nombreux avantages :
14
Chapitre 2. État de l’art
La mise en oeuvre d’une machine virtuelle (Virtual machine ou VM) nécessite l’ajout
d’une couche logicielle à la machine physique. Cette couche d’abstraction se place entre
le matériel et le système d’exploitation et s’appelle hyper viseur ou moniteur de machine
virtuelle (VMM), elle est représentée par la figure 2.2.
Virtual Machine(VM)
Une machine virtuelle est un environnement d’exécution virtuel créé à partir d’une
image présentant un modèle pour instancier cette machine. Le cycle de vie d’une machine
virtuelle comporte six phases : create, suspend, resume, save, migrate et destroy. Les
15
Chapitre 2. État de l’art
machines virtuelles représenté par la figure 2.3 et tournant sur un même noeud physique
sont gérées et contrôlées par le VMM.
16
Chapitre 2. État de l’art
La figure 2.5 décrit l’infrastructure virtuelle avec ces différentes entités nécessaires
pour le déploiement et la gestion des machines virtuelles. Elle est basée effectivement sur
la présence de l’hyper viseur et du gestionnaire de l’infrastructure.
17
Chapitre 2. État de l’art
18
Chapitre 2. État de l’art
2.3.2 Historique
Le Cloud computing est un concept assez récent. Sa première énonciation date de
1960 (John McCarthy), mais sa réelle mise en application a commencé au début des
années 2000. Salesforce.com fut le premier hébergeur de Cloud en 1999, suivi en 2002 par
Amazon.
Le Cloud Computing met en oeuvre l’idée de l’informatique utilitaire du type service
public, proposée par John McCarthy en 1961 qui suggère que la technologie informatique
partagée pourrait construire un bel avenir dans lequel la puissance de calcul et même les
applications spécifiques pourraient être vendues comme un service public.
L’apparition du Cloud Computing vient d’une évolution de certaines technologies telles
que la virtualisation du matériel informatique, les services web, ou l’architecture orientée
services SOA (Service OrientedArchitecture).
La virtualisation a été la première pierre de l’ère du Cloud Computing. En effet, cette
notion permet d’optimiser les ressources matérielles en les partageant entre plusieurs
environnements dans le but de pouvoir exécuter plusieurs systèmes « virtuels » sur une
seule ressource physique et fournir une couche supplémentaire d’abstraction du matériel.
Le Cloud computing est donc la juxtaposition de ces technologies pour passer à la vitesse
supérieure sur l’exploitation de données à travers Internet.
2.3.3 Caractéristiques
Le Cloud computing s’appuie sur une architecture client-serveur, il possède des carac-
téristiques qui le distinguent des autres technologies :
• Les ressources et les services fournis aux clients sont souvent virtuels et partagés
par plusieurs utilisateurs.
• Les serveurs qui forment le Cloud sont hébergés dans des data ‘‘centers’’ externes.
19
Chapitre 2. État de l’art
• Les services sont fournis selon le modèle “pay-per-use” où la facturation est calculée
en fonction de la durée et de la quantité de ressources utilisées.
• Ces spécificités font de la technologie Cloud Computing une nouvelle option qui offre
à ses utilisateurs la possibilité d’accès à des logiciels et à des ressources informatiques
avec la flexibilité et la modularité souhaitées et à moindre coûts.
• Application en tant que service (SaaS, Software as a Service). La figure 2.7 illustre
les différentes catégories de services d’un Cloud computig
C’est le service de plus bas niveau du Cloud computing. Il permet de disposer d’une
infrastructure à la demande, pouvant héberger et exécuter des applications, des services
ou encore stocker des données.
20
Chapitre 2. État de l’art
L’IaaS offre une grande flexibilité, avec une administration à distance, et permet d’installer
tous types de logiciels. En revanche, cette solution nécessite la présence d’un administra-
teur système au sein de l’entreprise, comme pour les solutions classiques.
Parmi les prestataires d’IaaS, on peut citer : Amazon avec EC2 ou Orange Business Ser-
vices avec Flexible Computing.
La plate-forme en tant que service, située juste au-dessus de l’IAAS, est la plate-forme
d’exécution, de déploiement et de développement des applications. C’est une solution
complète sans téléchargement ou installation de logiciels destinés aux développeurs, res-
ponsables informatiques ou utilisateurs finaux disponible immédiatement via Internet.
PaaS se distingue des hébergeurs classiques par une grande abstraction de la plate-forme.
Le système d’exploitation et les outils d’infrastructure sont sous la responsabilité du four-
nisseur tandis que le consommateur a le contrôle des applications et peut ajouter ses
propres outils.
C’est une architecture à très haute disponibilité basée sur des centres de données répartis
dans le monde entier, et garantissant une grande résistance aux sinistres (inondations,
incendies,etc…).
21
Chapitre 2. État de l’art
Les serveurs hébergeant les services sont localisés dans les bâtiments de l’entreprise.
Ces serveurs sont accessibles à travers un réseau sécurisé, interne et fermé
L’infrastructure est exploitée par l’entreprise mais les ressources physiques sont hé-
bergées chez un prestataire. Dans ce cas, l’infrastructure est accessible via des réseaux
sécurisés de typeVPN.
22
Chapitre 2. État de l’art
- Facturation à la consommation.
Advantages
- Version toujours à jour et identique pour tous les utilisateurs (cas du SaaS).
- Budget élevé : les besoins senban de passante peuvent faire explorer le budget.
2.6 Conclusion
Au niveau de ce chapitre nous avons clarifié le concept de la virtualisation et du Cloud
Computing en mettant en relief l’utilisation, les avantages et les inconvénients. Cela nous a
conduits à déterminer notre besoin pour mettre en place une plateforme de virtualisation
et du Cloud.
23
Chapitre 3
Processus de développement Et
méthodologie
24
Chapitre 3. Processus de développement Et méthodologie
3.1 Introduction
Comme bonne pratique, il est fortement recommandé de choisir une méthode d’orga-
nisation des phases de développement du projet pour assurer un maximum d’efficacité.
Pour ce projet, nous avons choisi de suivre le modèle sashimi qui est une évolution du
modèle en cascade. Dans ce qui suit, nous allons expliquer en quoi consiste ce modèle.
• Le projet est voué à une utilisation massive (les employer de tout le groupe) des
tests qui pourraient amener à la modification de l’architecture.
• Le projet est dans le contexte du Cloud Computing, la solution devra tirer avantage
de l’environnement Cloud.
• Les scenarios de test devraient être revus à chaque fois où les phases du processus
d’implémentation seront changées.
Dans la figure 3.1 nous présentons un aperçu sur les quatre étapes de notre méthode.
25
Chapitre 3. Processus de développement Et méthodologie
1. Spécification des besoins : l’extraction et l’analyse des attentes d’un projet est la
partie la plus importante du modèle en cascade. Pour reconnaitre les buts d’un pro-
jet, il faut avoir une communication avec le client et analyser les risques qu’implique
le projet
3. Implémentation : parmi les raisons pour les quelles cette phase de ce modèle
est si importante, est que cette partie est celle qui consume le plus de temps et
la plus couteuse dans la vie du projet. Une erreur à ce niveau va impliquer une
des deux résultats suivants : retravailler cette partie ou un client mécontent. Même
si elle aboutit, elle peut conduire à un retard. Comme nous utilisons le modèle
sashimi, la phase d’implémentation est imbriquée avec les phases de spécification
des besoins et la conception jusqu’à ce que cette phase réponde aux exigences des
étapes précédentes.
Durant le projet, le chef de projet doit planifier, suivre et contrôler les activités de chaque
étape. Ceci rend cette méthode plus systématique utilisée pour gérer un projet.
26
Chapitre 3. Processus de développement Et méthodologie
Eucalyptus
OpenNebula
OpenNebula, purement open source permet de déployer des Cloud privés, hybrides
et publics. Ecrite en C++, Ruby et Shell, elle supporte les plateformes de virtualisation
Xen, KVM et VMware ainsi que le service “on-demand” d’Amazon EC2. Le projet est
publié sous licence Apache 2.0. Parmi ses fonctionnalités : gestion centralisée des machines
virtuelles et des ressources physiques, répartition des charges, extension des capacités par
ajout de serveurs physiques. Beaucoup de ces solutions sont avant tout des solutions
d’infrastructure permettant une gestion simplifiée d’architectures matérielles complexes.
CloudStack
CloudStack, issu du rachat de Cloud.com par Citrix, a été conçu pour permettre le
déploiement et la gestion d’importants réseaux de machines virtuelles. Il supporte les prin-
cipaux moteurs de virtualisation à savoir : vSphere, Oracle VM, KVM, Xen, mais aussi
les services de Cloud d’Amazon.
27
Chapitre 3. Processus de développement Et méthodologie
OpenStack
OpenStack est un logiciel libre qui permet la construction de Cloud privé et public.
Il est aussi une communauté et un projet en plus d’un logiciel qui a pour but d’aider les
organisations à mettre en œuvre un système de serveur et de stockage virtuel. Il s’installe
sur un système d’exploitation libre comme Ubuntu ou Debian et se configure entièrement
en ligne de commande. C’est un système robuste et qui a fait ses preuves auprès des
professionnels du domaine. En comparaison avec les autres produits, OpenStack semble
avoir la plus grande et la plus active communauté. Les membres de la communauté sont
toujours prêts à aider les autres à trouver des solutions aux problèmes qui se posent
Choix de l’IaaS
Dans les sections précédentes, nous avons présenté une liste des solutions permettant
la création d’un Cloud. Il est à présent question de faire le choix de celui qui nous convient
le mieux. Notre choix s’est fixé sur la solution OpenStack pour les raisons suivantes :
• La solution est arrivée à un niveau de maturité suffisant : une nouvelle version tous
les six mois.
• Actuellement, elle est à sa neuvième version.
• La conception modulaire d’OpenStack permet une évolutivité souple.
• Il est ainsi possible d’ajouter des ressources ou des composants pour adapter la
plate-forme aux évolutions des besoins en conservant une interface uniforme pour
l’utilisateur final.
C’est la solution open source la plus utilisée. La figure 3.2 illustre le pourcentage d’utilisa-
tion des solutions open source pour la mise en place d’un environnement Cloud et montre
que la plus grande part de marché utilise la solution OpenStack
28
Eucalyptus OpenStack OpenNebula CloudStack
Date de sortie Mai 2008 Octobre 2010 Mars 2008 Mai 2010
Licence Propriétaire , GP L v3 Licence Apache Licence Apache Licence Apache
Langage de C++,C, Ruby,
Java, C et Python Python, JavaScript, XML Java, C
programmation Java, Shell script
Xen, KVM, VMware KVM, Xen, ESXi
Hyperviseur Xen, KVM Xen, KVM, VMware
et Hyper- V et BareMetal
Systèmes
d’exploitation Linux Linux, Windows Linux Linux
supportés
Modèle de
Cloud public et privé Cloud public et privé Cloud privé Cloud privé et public
déploiement
Difficile à installer
Facile à installer
Dépend de l’environnement plusieurs composants Manuelle, installation facile sur
Installation avec les paramètres
réseau et matériel et plusieurs fichiers les distributions supportées
par défaut
de configuration
Aboutie, produit complet avec Niveau de maturité
Avancée, deuxième version stables
Maturité une interface de gestion web avancé avec sa neuvième Manque de maturité
Solutions supportée Par Debian
fonctionnelle. version
de configuration.
et très détaillée. intégralité.
29
Chapitre 3. Processus de développement Et méthodologie
Après avoir choisi OpenStack comme IaaS, il nous reste le choix du l’hyper viseur qui
se fera parmi ceux compatible à savoir Xen, KVM, vSphere, Hyper-V. Quelques hyper
viseurs Xen : Xen est un hyper viseur de type 1 (BareMetal) qui a débuté comme un pro-
jet de recherche dans l’université du Cambridge au Royaume-Uni. La société XenSource
a été créée et en a poursuivi le développement. Il est intégré Partiellement dans la partie
principale du noyau linux depuis la version 3.0.
A- KVM :
KVM (Kernel-based Virtual Machine) est un hyper viseur libre de type 1 (BareMetal)
pour Linux développé par Red hat. KVM et est intégré dans le noyau Linux depuis la
version 2.6.201.
B- vSphere/ESXI :
VMware vSphere est un logiciel d’infrastructure de Cloud computing de l’éditeur VM-
ware, c’est un hyper viseur de type 1 (BareMetal).
C- Hyper-V :
Hyper-V, également connu sous le nom de Windows Server Virtualization, est un système
de virtualisation basé sur un hyper viseur 64 bits de la version de Windows Server 2008.
30
Chapitre 3. Processus de développement Et méthodologie
3.3.5 Conception
Nous allons commencer par la conception de l’architecture réseau globale qui présente
la mise en place et qui assure la communication entre les sites. Architecture global du
CRDA Jendouba est representé par la figure 3.3.
31
Chapitre 3. Processus de développement Et méthodologie
VMware vSphere représenté par la figure 3.4 est constituée des couches de virtualisation,
de gestion et d’interfaces.
Relations entre les couches de composants de VMware vSphere :
• Couche de virtualisation :
La couche de virtualisation de VMware vSphere inclut des services d’infrastructure
et d’application. L’infrastructure fournit, entre autres, les services de traitement
et de stockage et les services réseau extraient, agrègent et allouent les ressources
matérielles ou d’infrastructure. Les services d’infrastructure comprennent les types
suivants :
• Services de traitement :
Inclut les fonctions VMware qui permettent de ne pas tenir compte des ressources
serveur hétérogènes sous-jacentes. Les services de traitement agrègent ces ressources
sur un grand nombre de serveurs discrets les affectent aux applications.
• Services de stockage :
Il s’agit de l’ensemble de technologies qui permettent d’utiliser et de gérer efficace-
ment le stockage dans les environnements virtuels.
32
Chapitre 3. Processus de développement Et méthodologie
• Services de réseau :
Il s’agit de l’ensemble de technologies qui simplifient et améliorent la gestion de
réseau dans les environnements virtuels.
• Couche de gestion :
VMware vCenter Server est le point central de la configuration, du provisionnement
et de la gestion des environnements informatiques virtualisé.
• Couche d’interfaces :
Les utilisateurs peuvent accéder au centre de données VMware vSphere via des
clients à interface graphique, tels que vSphere Client ou vSphere Web Client. En
outre, ils peuvent accéder au centre de données via des machines clientes qui utilisent
des interfaces de ligne de commande et des kits SDK pour la gestion automatique.
33
Chapitre 3. Processus de développement Et méthodologie
34
Chapitre 3. Processus de développement Et méthodologie
35
Chapitre 3. Processus de développement Et méthodologie
3.5 Conclusion
36
Chapitre 3. Processus de développement Et méthodologie
37
Chapitre 3. Processus de développement Et méthodologie
38
Chapitre 4
Implémentation
4.1 Introduction
Les chapitres précédents, ont abordés une étude théorique et conceptuelle d’un cloud
computing. D Le présent chapitre donne les étapes de mettre en œuvre la solution proposée
et la configuration pratique de plateforme choisi. Premièrement, on a parlé comment faire
pour s’inscrire dans la plateforme de cloud d’Amazon Web Service. On a fait une fait une
explication détaillée de configuration et l’exploitation de plateforme dans notre solution,
tel que la gestion de bucket, stockage, contrôle et récupération de données.
Le PC joues le rôle d’un Superviseur pour l’application et d’un client pour le plateforme
Amazon.
39
Chapitre 4. Implémentation
10. Suivez les instructions qui s’affichent dans l’écran d’accueil pour ouvrir une fenêtre
de navigateur -dans l’URL illustrée.
40
Chapitre 4. Implémentation
41
Chapitre 4. Implémentation
42
Chapitre 4. Implémentation
43
Chapitre 4. Implémentation
• Amazon Lambda.
44
Chapitre 4. Implémentation
45
Chapitre 4. Implémentation
3. Dans la boîte de dialogue Créer bucket, dans la zone Nom bucket, tapez un nom
pour votre bucket.
• Le nom que nous choisissez doit être unique parmi tous les noms buckets
existants dans Amazon S3. Une façon d’aider à assurer l’unicité est de préfixer
vos noms buckets avec le nom de votre organisation.
• Le nom du bucket est visible dans l’URL qui pointe vers les objets que nous
allons Mettre dans votre bucket. Pour cette raison, bucket choisir un nom de
compartiment qui reflète les objets dans le bucket.
46
Chapitre 4. Implémentation
• Pour assurer une approche unique, des règles de nommage pour les buckets
AmazonS3 entre les régions et d’assurer noms buckets sont conformes aux
conventions de nommage DNS, les noms de buckets doivent se conformer aux
exigences suivantes.
-Peut contenir des lettres minuscules, des chiffres(.), et traits d’union(-).
-Doit commencé par un chiffre ou une lettre.
-Doit être comprise entre 3 et 63 caractères.
-Ne doit pas être formatée comme une adresse IP (par exemple, 192.168.5.4).
-Ne doit pas contenir de soulignement (_ ).
-Ne doit pas se terminer par un trait d’union.
-Ne peut pas contenir deux, périodes adjacentes.
-Ne peut pas contenir des tirets à côté de périodes (par exemple, my-.bucket.com
et my.-bucket sont invalides).
47
Chapitre 4. Implémentation
placement source, sélectionnez Créer un nouvel emplacement et, dans la liste déroulante
Type d’emplacement, sélectionnez Amazon S3.
Dans les étapes suivantes, nous avons exécuter une commande via l’AWS CLI pour créer
l’emplacement du compartiment S3 source pour DataSync (la configuration d’un em-
placement entre comptes n’est actuellement pas prise en charge dans la console AWS
DataSync).
Notez l’ARN de l’utilisateur ou du rôle IAM que nous avons utilisé pour créer l’emplace-
ment DataSync à partir de l’AWS CLI et entrez-le dans la stratégie de compartiment S3
source suivante. Copiez l’ARN du rôle IAM que nous avons créé pour l’emplacement du
compartiment S3 source.
Maintenant, connecté au compte source. Ouvrez la stratégie de compartiment S3 source et
appliquez la stratégie suivante pour accorder des autorisations au rôle IAM pour accéder
aux objets.
Maintenant, on va lancez l’AWS CLI et utilisez la même identité IAM que celle que nous
avons spécifiée dans la stratégie de compartiment S3 source créée à l’étape précédente.
Par exemple, si j’utilise un ID de clé d’accès et une clé d’accès secrète avec l’AWS CLI,
cela renvoie à un utilisateur IAM. À partir de l’AWS CLI, saisissez la commande suivante
pour obtenir l’ARN de l’identité utilisée :
48
Chapitre 4. Implémentation
49
Chapitre 4. Implémentation
Ce processus crée la nouvelle instance EC2 avec le volume migré. Cela a été fait en 7
minutes. Et j’ai trouvé la nouvelle instance EC2 dans la console AWS. C’était très rapide.
J’ai remarqué qu’il y avait une instance dans l’état Terminé. C’est normal. C’est l’instance
de convertisseur temporaire. Le temps de conversion était inférieur à 2 minutes. Et cette
instance de conversion a été arrêtée par la suite.
50
Chapitre 4. Implémentation
J’ai noté l’adresse IP publique de la nouvelle instance qui vient d’être lancée dans la région
de paris. Et j’ai pu me connecter à l’instance sans aucun problème. Cela signifie que le
test de migration a réussi.
51
Chapitre 4. Implémentation
Notez que l’instance de réplication était toujours active. Il était encore utilisé pour
synchroniser la machine source.
J’ai noté l’adresse IP publique de la nouvelle instance qui vient d’être lancée dans la région
de Paris. Et j’ai pu me connecter à l’instance sans aucun problème. Cela signifie que le
test de migration a réussi.
Ce processus m’a permis de soulever et déplacer le serveur. Le lift-and-shift est toujours la
première étape du parcours vers le cloud. Et cet outil a permis de le compléter efficacement.
Je tiens à mentionner que le processus présentait de nombreux avantages. Par exemple, j’ai
52
Chapitre 4. Implémentation
utilisé le même outil pour télécharger les données dans le cloud et orchestrer la migration.
J’ai également pu tester le processus avant le basculement. C’est très important car cela
élimine les éventuelles erreurs de migration. La période d’indisponibilité a été très courte.
De plus, je n’ai pas eu à adapter le disque pour démarrer dans le cloud, car cela était géré
par l’outil. Et ce processus me permet d’automatiser la migration de plusieurs serveurs à
la fois.
De l’autre côté, j’ai eu quelques problèmes avec l’agent. Et l’ensemble du processus de
migration comporte de nombreuses étapes. Mais c’est devenu ma motivation pour écrire
et partager cet article. J’espère que cela nous aider à migrer vos serveurs de manière
prévisible. En fin de compte, la migration vers le cloud ne devrait pas être un problème.
53
Chapitre 4. Implémentation
54
Chapitre 4. Implémentation
55
Chapitre 4. Implémentation
Une fois qu’un connecteur est installé et correctement enregistré, accédez à la console
AWS SMS et choisissez Connecteurs, Importer le catalogue de serveurs pour rassembler
votre liste complète de serveurs. Cela peut prendre un certain temps pour que votre ca-
talogue de serveurs soit entièrement rempli et affiché dans le tableau.
Sélectionnez le type de licence pour les AMI qui seront créées à partir de la tâche de
réplication. Les serveurs Linux ne peuvent utiliser que BYOL (Bring Your Own License),
et les serveurs Windows peuvent utiliser soit des licences fournies par AWS, soit BYOL.
Lorsque nous terminé, choisissez Suivant.
Configurez les paramètres de la tâche de réplication, puis choisissez Suivant. On va faire
en sorte que les exécutions de réplication démarrent immédiatement ou les programment
pour qu’elles démarrent à une date et une heure ultérieure, jusqu’à 30 jours à compter de
l’heure actuelle.
Une fois la conversion terminée, le processus de migration passe à la dernière étape pour
créer une AMI pour la copie ponctuelle de cette exécution de réplication
Test avant le basculement réel
56
Chapitre 4. Implémentation
57
Chapitre 4. Implémentation
4.6 Conclusion
Nous avons présenté dans le présent chapitre, les différents modules implémentés dans
notre projet, enrichi par des captures écran, afin d’éclairci les explications aux lecteurs.
Le cloud computing joue un rôle très important dans web service parce qu’il est l’élément
responsable de créer les softwares et hardwares virtuel. Comme tout travail de développe-
ment, nous n’allons jamais satisfaire par notre travail, nous cherchons toujours les lacunes
pour améliorer et pour donner mieux
58
Chapitre 5
Sécurité de la Solution
59
Chapitre 5. Sécurité de la Solution
5.1 Introduction
Amazon Web Services (AWS) propose une plate-forme de cloud computing évolutive,
conçue avec un haut niveau de disponibilité et de sécurité de fonctionnement, offrant
les outils que je me permettent d’exécuter une vaste gamme d’applications. Garantir la
confidentialité, l’intégrité et la disponibilité des systèmes et données est une priorité pour
AWS, tout comme le maintien de la confiance et de côté crda le data center comporte
d’une solution Firewall UTM Sophos avec la haute disponibilité.
60
Chapitre 5. Sécurité de la Solution
61
Chapitre 5. Sécurité de la Solution
Un besoin de forte disponibilité pour les services réseaux offerts par l’architecture
de sécurité, et notamment les services Web accessibles depuis Internet peut également
conduire à la mise en place d’architectures dites de « haute disponibilité » impliquant
deux équipements firewall. Toutefois, dans ce cas, il s’agit d’équipements de même type,
et généralement dotés d’un logiciel et de connexions réseau spécifiques, dédiées à la ges-
tion de la redondance.
62
Chapitre 5. Sécurité de la Solution
Sécurité Endpoint
Plus les menaces se complexifient, plus la pression pour mettre en place une solution
Endpoint adaptée augmente. Cependant, avec un marché de la sécurité saturé de solutions
multiples et variées, chacune prétendant être la meilleure, il est devenu difficile de prendre
une décision éclairée. les technologies clés de la sécurité Endpoint pour la mettre en place
une protection adaptée à notre besoins. les résultats de test indépendants à faire les bons
choix parmi les différents éditeurs du marché.
63
Chapitre 5. Sécurité de la Solution
Sophos Central est un multiplicateur de force pour notre équipe. La solution nous per-
met de gérer notre pare-feu, les postes, les serveurs, les mobiles et d’autres produits Sophos
à partir d’une seule console tout en profitant de l’intégration de la Sécurité Synchronisée.
64
Chapitre 5. Sécurité de la Solution
d’utilisation d’Internet Blocage des proxies anonymes Analyse du trafic chiffré HTTPS
Economie de la bande passante Prévention de la perte de donnée
65
Chapitre 5. Sécurité de la Solution
Cette infrastructure est conçue et gérée en suivant les bonnes pratiques et les normes
de sécurité, mais également avec les besoins spécifiques du cloud à l’esprit. AWS utilise des
contrôles redondants et multicouches, la validation et le test en continu, et une grande
part d’automatisation afin de garantir que l’infrastructure sous-jacente est protégée et
surveillés Sécurité de la Solution
66
Conclusion générale
les plateformes les plus connus. Les plateformes actuelles tel que (OpenStack, OpenNe-
bula, MS Azure, AWS…) sont les plus connus pour faire une cloud computing efficace. De
notre part, on a choisi Amazon Web Service pour plusieurs raisons, y compris : Simplicité
d’utilisation, Flexibilité, Rentabilité, Fiabilité, Evolutivité et hautes performances, Sécu-
rité, AWS est une plateforme très puissante qui offre plusieurs services, comme exemple
(EC2, Lambda, S3…). Et comme nous ne pouvons pas exploiter tous ces services, nous
avons choisi le service de stockage dans le cloud.
S3 est le meilleur choix pour l’exploiter. Protection des données, durabilité et fiabilité
des données et suppression authentification multi-facteurs, ces derniers et autres sont les
points forts de notre choix. Le travail présenté dans ce mémoire essaye de se bénéficier au
maximum des notions de cloud computing, et plus précisément, sur la réalisation d’une
solution numérique pour le CRDA Jendouba sur le cloud, en profitons des avantage de
service de stockage de données distant et la gestion de métadonnées.
67
Conclusion générale
• Transfert les serveurs du CRDA vers le cloud. Développer plusieurs services et ap-
plications sur le cloud
• Connecter et partager les ressources de cloud avec d’autre solution cloud des autres
CRDA.
68