Académique Documents
Professionnel Documents
Culture Documents
Rapport MBINA MBOUMBA Wilde
Rapport MBINA MBOUMBA Wilde
DEDICACE
Je dédie ce travail à :
Mon cher père MBOUMBA Alain
Ma chère mère MPAPPEE Danielle
Qu'aucune dédicace ne puisse exprimer mes sentiments sincères pour eux, pour leur infinie
patience, leurs encouragements indéfectibles, leur aide, la preuve de leur profond Amour et de
leur soutien, mon respect pour leurs grands sacrifices.
Merci infiniment
REMERCIEMENTS
C’est avec un grand plaisir que je réserve cette page, en signe de profonde reconnaissance à
tous ceux qui m’ont aidé à la réalisation de ce travail.
Je tiens à exprimer mes vifs remerciements au Docteur PAMBA CAPOCHICHI Eugène
pour son dévouement, son soutien et ses contributions tout au long de ce travail.
Je ne manquerai pas d’exprimer ma profonde gratitude à l’égard de mon encadrant en milieu
professionnel, le Directeur des Systèmes d’Information, Monsieur BANGOYE TITSE
François, pour son dévouement, son soutien et son apport tout au long de la préparation de ce
mémoire et bien sûr à toutes les équipes de la Société de Patrimoine du Service Public de
l'Eau Potable, de l'Energie Électrique et de l’Assainissement (SP).
Je n’oublierai pas l’ensemble des enseignants de l’EGIS qui ont contribué à notre formation ;
qu’ils trouvent ici toute notre gratitude.
Aussi, je remercie infiniment ma fiancée, MENGUE M’ELLA, qui m’accompagne dans
toutes les épreuves de ma vie.
Enfin, je tiens à remercier tous les membres du jury d’avoir accepté d’évaluer mon travail.
RESUME
De nos jours les entreprises doivent fournir plus de servir et la plupart de temps avec des
budgets en permanence baissent. Elles doivent être suffisamment souples et réactives pour
répondre efficacement aux besoins de l’activité qui est la source des revenus de l'entreprise.
Le système traditionnel de gestion d’une infrastructure serveur qui consiste à octroyer un
serveur physique à une application est devenu totalement obsolète. De nombreuses entreprises
optent pour la virtualisation des serveurs.
A l’instar de toutes ces entreprises, la Société de patrimoine a décidé de virtualiser son
architecture serveur. L’objectif dans ce mémoire est de proposer une architecture de
virtualisation de serveur totalement redondant.
La problématique est par conséquent la suivante : Comment la virtualisation de serveur
peut-elle réformer et améliorer l’infrastructure serveurs de la Société de Patrimoine ?
Pour répondre à cette problématique, premièrement, les concepts de virtualisation sont
abordés de manière concise, et ce, dans l’unique but de présenter aux lecteurs les biens fondés
de cette technologie. Ensuite nous avons mis en place une architecture de stockage SAN HP
P2000. C’est sur cette dernière que nous avons configuré le cluster de basculement Hyper-V.
Ce dernier permet à des machines virtuelles de basculer, sans interruption de service, sur un
autre hôte en cas des défaillances de l’hôte qui les exécutent. Une fois le cluster en place nous
avons installé tous les serveurs essentiels que ne disposait pas la Société de Patrimoine.
La virtualisation de l’infrastructure serveur de la Société de patrimoine nous a permis de
restructurer notre environnement serveur. Nous avons ainsi migré notre contrôleur de
domaine qui était sous Windows 2008, vers la version 2016 ; elle nous a doté aussi des
serveurs d’antivirus, de stockages et sauvegarde. Nous obtenons finalement une architecture
totalement agile. Si dans le future nous avons besoin d’un nouveau serveur en quelques
minutes il suffit de créer une machine virtuelle et la mettre en production.
ii
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
ABSTRACT
Businesses these days have to provide more service and most of the time with constantly
shrinking budgets. They must be sufficiently flexible and reactive to respond effectively to the
needs of the activity which is the source of the company's income. The traditional system for
managing a server infrastructure, which consists of granting a physical server to an
application, has become totally obsolete. Many companies are opting for server virtualization.
Like all these companies, the Society of Patrimoine has decided to virtualize its server
architecture. The objective in this rapport is to propose a fully redundant server virtualization
architecture.
The problem is therefore the following: How can server virtualization reform and improve the
server infrastructure of the Heritage Company?
To answer this problem, first, the concepts of virtualization are approached in a concise
manner, and this, for the sole purpose of presenting to readers the merits of this technology.
Then we implemented an HP P2000 SAN storage architecture. It is on the latter that we have
configured the Hyper-V failover cluster. The latter allows virtual machines to failover,
without interruption of service, to another host in the event of failures of the host which runs
them. Once the cluster was in place, we installed all the essential servers that Society of
Patrimoine did not have.
The virtualization of Society of Patrimoine’s server infrastructure allowed us to restructure
our server environment. We therefore migrated our domain controller, which was under
Windows 2008, to the 2016 version; it also provided us with antivirus, storage, and backup
servers. We finally obtain a totally agile architecture. If in the future we need a new server in
a few minutes, just create a virtual machine and put it into production.
iii
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
2.2 Problématique..................................................................................................................13
3.4.5 Installation et Configuration des serveurs ProLiant DL380 Gen9 et connexion à la baie
de stockage HP P2000 FC G3........................................................................................................59
5.2 Suggestions.................................................................................................................................84
CONCLUSION........................................................................................................................................85
Références......................................................................................................Erreur ! Signet non défini.
Glossaire...............................................................................................................................................vii
Liste des figures.....................................................................................................................................ix
Liste des tableaux.................................................................................................................................xii
Annexe 1 : Installation et configuration Windows serveur 2019.........................................................xiii
Annexe 2 : Installation d’une machine virtuelle dans un cluster de basculement...............................xvi
3
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
INTRODUCTION GENERALE
De nos jours, les directions des systèmes d'information sont véritablement confrontées au
dilemme entre fournir chaque année davantage de services et recevoir des budgets de plus en
plus réduits. Elles doivent être suffisamment souples et réactives pour répondre efficacement
aux besoins de l’activité qui est la source des revenus de l'entreprise.
La quantité de données générées est également en constante augmentation, tandis que les
contraintes légales liées aux plans de continuité d'activité et de protection des données
accroissent la charge de travail des équipes informatiques. De nombreux centres de données
(Data Centers) sont affectés par des pénuries chroniques d'espace entraînant de nouvelles
difficultés lorsque des machines supplémentaires sont exigées par les métiers qui font face à
de nouveaux besoins. En outre, l'énergie est actuellement un autre sujet d'intérêt, les
entreprises n'ayant parfois pas la capacité ou la volonté de se doter de plus d'électricité pour
des raisons écologiques.
Il ressort clairement de ce qui précède que les méthodes classiques actuellement utilisées dans
les directions des systèmes d'information doivent évoluer et qu'une refonte des systèmes
d'information est donc nécessaire. La virtualisation utilise un logiciel qui simule les
fonctionnalités du matériel afin de créer un système virtuel. Elle est efficace pour supporter
les besoins métiers évoqués ci-dessus, tout en réduisant les coûts, tant pour l'acquisition
d'équipements, que pour l’énergie électrique et la maintenance.
C’est dans ce contexte que la Société de Patrimoine du Service Public de l'Eau Potable, de
l'Energie Électrique et de l'Assainissement (SP), souhaitait revitaliser et virtualiser son
infrastructure système et disposant déjà d'une infrastructure SAN HPE StorageWorks P2000
G3 FC, achetée il y a deux ans mais jamais configurée par manque de connaissances internes,
nous a demandé de procédé à la virtualisation de ses serveurs.
La solution proposée doit répondre aux objectifs suivants :
Configurer la baie HP P2000 G3 FC ;
Mettre en place un cluster de basculement de serveurs virtuels. Ce dernier nous
permettra non seulement d'installer certains serveurs virtuels indispensables que SP
ne possède pas, tels que le serveur de fichier et d’antivirus, mais également de
libérer de l’espace dans la salle des serveurs et d’économiser de l'énergie ;
Fournir une infrastructure système de virtualisation de machine virtuelle
redondante ;
Mettre en place une solution de sauvegarde de serveurs.
Pour réaliser notre travail, nous aborderons plusieurs notions telles que la virtualisation des
serveurs, les clusters de basculements de machines virtuelles, les procédés de sauvegarde et
la configuration des équipements SAN.
4
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
Afin de bien organiser notre mémoire, nous l’avons subdivisé en cinq chapitres :
Dans le premier chapitre, nous présenterons la structure d’accueil, analyserons la
problématique et analyserons l'existant.
Le deuxième chapitre sera consacré à l’état de l’art sur la virtualisation, dans lequel nous
expliciterons les différents concepts de la virtualisation.
Le troisième chapitre fera un focus sur la mise en place de la solution visée. Nous
aborderons l'environnement matériel et logiciel. Nous décrirons également les étapes de la
mise en place de la solution. Et nous enrichirons cette partie de quelques scénarios de
fonctionnement de notre nouvelle architecture.
5
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
6
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
Dans cette partie, nous présenterons premièrement la structure d’accueil à travers son
historique, ses missions et son organisation. Deuxièmement, nous décrirons l’architecture de
son infrastructure système existante dans le but de le comprendre et d’en sortir la
problématique.
1.1.1 Historique de la SP
1.1.2 Missions de la SP
7
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
1.2 Organisation de la SP
9
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
Nous avons été reçus à la Direction des Système d’Information. Ce département est constitué
de trois services à savoir : Service Helpdesk, Service application et le Service Infrastructures,
Réseaux et Sécurité. Nous avons été affectés au service Infrastructures, Réseaux et Sécurité
au poste de chargé Infrastructures, Système et Sécurité.
Chargé Chargé
Techniciens Techniciens
Infrastructure Infrastructure Chargé Applications
Helpdesk Helpdesk
Sytème et Sécurité réseau
CISS CIR CA TH TH
10
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
Cette partie donne non seulement un descriptif général sur le projet à mettre en œuvre, mais
aussi couvre l'ensemble des spécifications de l'infrastructure Système Informatique et
technologique de la structure d’accueil. Elle contient tous les détails sur cette infrastructure
système.
11
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
SVR-AD ;
SVR-SAGE-COMPTA ;
SVR-SAGE-PAIE ;
Contrôleur AP & WDS.
Pour la messagerie, nous utilisons le service Microsoft 365 Business Premium online. Le
tableau ci-dessous présente plus en détails la constitution de tous les serveurs de la SP :
Système
Nom du Serveur Type Caractéristiques Services Installés
d’exploitation
ProLiant ML10 Gen9 3,30
Serveur GHZ, 16GO ram, Intel
SVR-PAIE Serveur Sage Paie Windows 2012
physique Xeon® CPU-E3-1225 V5,
Socket (1), Port (1)
ProLiant ML30 Gen9 3,00
Serveur GHZ, 16GO Ram, Intel Serveur Sage de
SVR-COMPTA Windows 2012
physique Xeon® CPU-E3-1225 V5, Comptabilité
Socket (1), Port (2)
Exchange Online,
Microsoft 365 Azure AD, OneDrive,
Service
Business Service Microsoft cloud Outlook, SharePoint, Microsoft 365
cloud
Premium Teams, Word, Excel,
PowerPoint…
12
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
2.2 Problématique
Face à ces problèmes cités ci-dessus, La problématique est par conséquent la suivante :
Comment la virtualisation de serveur peut-elle réformer et améliorer l’infrastructure
serveurs de la Société de Patrimoine ?
Nous tenterons d’apporter une réponse précise et concise à cette problématique dans les
chapitres suivants.
13
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
Dans le premier chapitre, nous avons présenté la structure d'accueil, ce qui nous a
permis de définir le contexte de notre stage. Dans ce chapitre, nous débuterons par une
présentation générale de la virtualisation, ensuite, nous aborderons les types de virtualisation.
Puis nous examinerons les avantages de la virtualisation et terminerons par les techniques de
redondance.
Chaque périphérique virtuel, qu'il s'agisse d'un disque, d'une interface réseau, d'un
LAN, d'un commutateur, d'un processeur ou d'une RAM, correspond à une ressource
physique sur le système informatique physique. De ce fait, les machines virtuelles hébergées
par le serveur sont considérées par l'ordinateur hôte comme des applications nécessaires pour
dédier ou répartir ses ressources. Il existe de nombreux domaines d’application à la
virtualisation, et il s’agit généralement de la virtualisation de serveur, de poste de travail,
d’application, de stockage et du réseau.
directement au matériel et Windows est en quelque sorte modifié pour être un niveau au-
dessus de l'instance Hyper-V.
Les hyperviseurs de type 1 sont ceux que l'on déploie en entreprise lorsque l'on souhaite
monter une infrastructure basée sur la virtualisation.
De ce fait, plus de ressources sont utilisées étant donné qu’on fait tourner
l’hyperviseur et le système d’exploitation qui le supporte. Naturellement, moins de ressources
sont disponibles pour les machines virtuelles et les performances sont moindres, car il faut
passer par l'OS principal. L'avantage est qu'il est possible d'exécuter plusieurs hyperviseurs
simultanément, car ils ne sont pas liés à la couche matérielle. Néanmoins, dans certains cas, ce
n'est pas si simple, il peut y avoir des conflits. Le véritable avantage réside cependant dans le
fait que l'on peut non seulement utiliser sa machine pour ses tâches habituelles, mais aussi
l'utiliser comme hyperviseur en cas de besoin, par exemple pour mettre en place une VM pour
quelques tests.
Les hyperviseurs de type 2 incluent les solutions suivantes : Oracle VirtualBox, gratuit à
installer sur Windows et Linux, VMware Workstation (payant) et sa version gratuite,
VMware Workstation Player. Sur MacOs, l’on peut installer VMware Fusion.
Évidemment, ces hyperviseurs de type 2 sont idéaux pour tester sur une machine existante,
tout comme Hyper-V peut l'être sur Windows 10. L’hyperviseur de type 2 n'est pas destiné à
la production.
VM VM VM VM
Autres
Applications
Hyperviseur Hyperviseur
Type 2 Type 2
OS
Ressources Matérielles
d'exploitation puisse y être installé. Par conséquent, la virtualisation d'un serveur ou d'un
poste de travail réel est la même. Les principales solutions de virtualisation de serveurs sont :
Les clés de registre et le système de fichiers ne constituent en rien des copies de ceux
du système d’exploitation sur lequel l’application est exécutée. Ils contiennent simplement les
modifications effectuées par l’application pour pouvoir fonctionner. L’application n’aura
donc accès qu’à ses propres versions de fichiers de configuration système. Sur le même
principe, elle ne pourra agir que sur sa propre base de registre. Aucun conflit avec d’autres
applications n’est donc à craindre. D’où le concept de bulle applicative étanche.
Les employés mobiles ont besoin d’un accès complet aux ressources informatiques
(applications ou données), quel que soit le lieu où ils se trouvent ;
Le nombre de périphériques à gérer explose ; il existe, en outre, une variété toujours
plus importante de dispositifs. Nous sommes par exemple confrontés à un nombre
croissant de demandes provenant des employés, relatives à une connexion de tablettes
au réseau local de l’entreprise ;
Les tâches en relation avec la gestion des ordinateurs de bureau doivent être simplifiées
et rationalisées, afin d’éviter que les administrateurs soient systématiquement détournés
des tâches stratégiques, d’autant plus que les besoins des utilisateurs se diversifient.
Les coûts relatifs à certaines tâches clés, comme la configuration des stations de travail
ou le déploiement de mise à jour, de correctifs ou de mise à niveau, doivent être réduits
;
Les employés attendent de leur employeur qu’il favorise l’usage de dispositifs
personnels, tels que les smartphones, les laptops ou les tablettes. Cette tendance, de
plus en plus fréquente au sein des sociétés, est qualifiée de « consumérisation » ;
L’accroissement de la mobilité des employés, l’explosion du nombre de périphériques
et la « consumérisation » augmentent les risques liés à la sécurité.
présentés par la suite aux serveurs concernés. Ainsi, qu'une entreprise ait acheté des NAS, des
baies de stockage iSCSI et/ou des baies de stockage en fibre optique, que ces appareils soient
équipés de disques SATA, SAS ou SSD ou qu'ils aient été produits par différents fabricants,
l'entreprise peut centraliser tout l'espace de stockage disponible et le gérer à partir d'un seul
outil.
Un environnement récent peut également être pérennisé par ce biais (dans le cas, par
exemple, d’une fusion de sociétés ayant donné lieu à l’existence au sein de la nouvelle
structure de baies de stockage hétérogènes issues des anciennes entreprises). Enfin,
l’administration du stockage peut être réalisée à partir d’une seule et unique console.
Les coûts indirects tels que l'administration et la consommation d'énergie sont bien plus
élevés que l'achat du serveur lui-même et peuvent représenter jusqu'à trois fois le coût
d'acquisition de l'infrastructure matérielle. Les entreprises perdent beaucoup d'argent en raison
du coût élevé de la maintenance de leur infrastructure. Elle crée des inefficacités
opérationnelles qui entravent l'innovation et la gestion de nouveaux projets indispensables au
développement de l'entreprise. Dans ce contexte, la virtualisation permet aux responsables
informatiques de s'engager à moderniser les systèmes d'information de leur entreprise tout en
réduisant les coûts et en répondant aux exigences susmentionnées. Les entreprises distinguent
en principe deux types de coûts :
CAPEX (Capital Expenditures), qui sont des dépenses liées aux investissements et
immobilisations (i.e. matériel divers, logiciels, etc.) ;
OPEX (Operational Expenditures), lorsqu’il s’agit des dépenses liées au
fonctionnement de la société (i.e. expertise, prestation, conseil, gestion de projets,
etc.).
quelques serveurs physiques consomment plus d'énergie qu'un seul serveur renforcé
(hyperviseur).
La virtualisation réduit efficacement le nombre d'alimentations, de processeurs et de
disques durs. Cependant, ces éléments génèrent et dissipent de grandes quantités de
chaleur. Il convient de garder à l'esprit que la consommation d'énergie est étroitement
liée au refroidissement et au débit d'air. La réduction du nombre des éléments ci-
dessus réduira en conséquence l'énergie dépensée pour le refroidissement de
l'installation.
La flexibilité offerte par la virtualisation du stockage permet d'ajuster les besoins en
capacité de stockage en fonction du nombre de baies dont on a besoin. La réduction du
nombre d'emplacements réduit également la consommation d'énergie. A l'heure où les
considérations environnementales sont aussi une priorité, ces économies d'énergie
s'avèrent être un argument supplémentaire pour défendre le budget alloué à la gestion
des systèmes d'information.
Optimisation de la restauration
La virtualisation réduit le temps de récupération dans la réalité. Par temps de
récupération, nous entendons le temps moyen nécessaire pour s’assurer qu’un système
indisponible en raison d’une panne quelconque peut être réutilisé par l’utilisateur. Il
est souvent fait référence à la notion de RTO (Recovery Time Target). La
virtualisation réduit considérablement ce temps en fournissant aux administrateurs
système des sauvegardes instantanées ou des machines virtuelles entières. En effet, la
restauration avec une copie en direct du système s'avère beaucoup plus rapide que
l'installation d'un nouveau système. Par ailleurs, cela obligera l'administrateur système
à fouiller dans une masse de sauvegardes croissantes pour restaurer le système en
fonctionnement normal.
Cette technologie est particulièrement efficace tant que les données utilisées par
la solution existant sur le serveur ne sont pas stockées sur le même disque logique que
l'environnement restauré, sous peine de perdre ultérieurement les données de mise à
jour (surtout si la sauvegarde de la VM en question date de plusieurs jours). Il est donc
nécessaire de doter le serveur virtuel d'un emplacement logique supplémentaire sur le
SAN qui contiendra les données et pourra être utilisé sans problème par la machine
récupérée, une fois celle-ci opérationnelle.
Il convient également de préciser qu'une machine virtuelle peut être considérée
comme très fiable car elle ne repose sur aucun matériel physique susceptible de
tomber en panne. Par conséquent, une sauvegarde de machine virtuelle sera toujours
un point de restauration stable et fiable pour le matériel physique sous-jacent. Certains
produits, tels que VMware et Hyper-V, permettent de convertir une machine physique
en machine virtuelle. Cette méthode, communément appelée sauvegarde P2V
(physique vers virtuelle), permet aux administrateurs système de mettre en production
des machines virtuelles pour remplacer rapidement et de manière fiable les serveurs
physiques défaillants p une fraction des coûts négligeables, et réduit considérablement
les interruptions de service.
Optimisation de la sauvegarde
Les professionnels traitent souvent les sauvegardes comme un projet complexe,
fortement dépendant du système d'exploitation présent sur la machine, du composant
matériel, de l'application hébergée et de l'outil de sauvegarde choisi. Les projets de
protection sont de gros utilisateurs de ressources financières et sont difficiles à justifier
auprès des décideurs.
Une machine virtuelle étant traitée comme un simple fichier par l'hyperviseur, sa
sauvegarde ne traitera également qu'un seul fichier. Par conséquent, toutes les licences
supplémentaires, les restrictions système ou les mises à jour des revendeurs
deviennent nulles. Pour sauvegarder des Vms sans logiciel de sauvegarde sophistiqué,
il suffit de copier/coller les fichiers de la VM et de les stocker sur un support externe.
La virtualisation rend ce processus beaucoup plus facile. Tout d'abord, il n'est pas
nécessaire d'acheter du matériel supplémentaire car il suffit de créer une nouvelle machine
virtuelle. Ensuite, cette méthode peut être effectuée rapidement et automatiquement. Si
plusieurs machines virtuelles sont nécessaires, il faut en créer une, puis la cloner autant de fois
que l’on souhaite. De plus, l'espace disque alloué à tout nouveau serveur peut facilement être
provisionné à partir du SAN, grâce à la virtualisation du stockage. Les disques virtuels (donc
logique) peuvent être créés en quelques clics depuis n'importe quel LUN du pool de stockage.
En conséquence, l'intégration peut se résumer en quelques heures au lieu de semaines ou
même de mois comme auparavant.
L'utilisation de machines virtuelles pour effectuer des tests de logiciels a été l'une des
premières raisons pour lesquelles la virtualisation de l'environnement x86 a été mise en
œuvre. Une fois la copie de travail créée (création de la machine virtuelle, démarrage,
application des patchs, attribution des noms et des adresses IP), une copie de sauvegarde de la
copie est créée (snapshot). Cette copie de travail est ensuite utilisée pour installer, modifier ou
supprimer des packages logiciels.
Cette méthode permet ainsi d’éviter tout conflit ou problème potentiel (plantage, écrans
bleus, vidages de mémoire, etc.) qui pourraient survenir au moment de la mise en production
desdits logiciels. Si certains de ces problèmes venaient à apparaître, la copie de travail
pourrait servir de plateforme de débogage. Si cette dernière venait à être irrémédiablement
corrompue, il suffirait de la supprimer et d’en créer une nouvelle à partir de la machine
originale.
Cette approche évite ainsi tout conflit ou problème potentiel (crash, écran bleu, vidage
mémoire, etc.). Si certains de ces problèmes apparaissent, la copie de travail peut servir de
plateforme de débogage. Si ce dernier est endommagé de manière irréparable, il convient
simplement de le supprimer et d’en créer un nouveau à partir de la machine d'origine.
Nous détaillerons tous les éléments constitutifs d’un cluster de basculement dans le point ci-
dessous.
Nœuds : les nœuds sont les serveurs faisant partie du cluster, ils ont accès à toutes les
données de configuration en cluster. Chaque nœud communique avec les autres nœuds
du cluster par l'intermédiaire d'un ou de plusieurs réseaux (Hearbeat) physiquement
indépendants. Tous les nœuds du cluster sont groupés sous le nom de cluster, qui est
utilisé pour l'accès et la gestion du cluster.
Stockage partagé : Pour que les nœuds fonctionnent, il est primordial que les données
soit sauvegardées sur un stockage partagé. Il est possible d’utiliser soit un SAN
(Storage Area Network) ou un NAS (Network Attached Storage). Dans un cluster de
basculement, il est fortement recommandé d’utiliser les SAN fibre optique, car ils
présentent plusieurs avantages tels que : haute performance en lecture et écriture sur la
baie de stockage, évaluation illimitée, snapshot et réplication inter SAN. Dans ce
stockage, nous distinguons deux types de volumes : le quorum et volume de donnée.
Switch SAN : Si l’on choisit d’utiliser un SAN comme stockage partagé, nous aurons
besoin de switches SAN. Ils permettent d’assurer des connexions réseaux redondantes
en lecture/écriture sur les baies de stockage. À l’aide de la technologie MPIO
(Multipath I/O) installée sur les nœuds du cluster, un équilibre de charge et une
tolérance de panne dynamique sont garantis.
Réseau Hearbeat : C’est une liaison privée entre les nœuds. Il envoie un signal
régulier (HeartBeat – Battement de cœur) auquel répond chaque nœud du cluster de
basculement. Il permet également de détecter la défaillance d’un nœud dans le cluster.
Chapitre 3 : Virtualisation
de serveurs : cas de la SP
Après un tour d'horizon des concepts liés à la virtualisation des serveurs, nous aborderons
dans ce chapitre la phase de conception et de réalisation de l'architecture de virtualisation.
Cette section se concentrera sur la présentation de l'architecture du matériel utilisé lors de la
transition vers la nouvelle infrastructure système, son déploiement et sa configuration.
Pour réaliser le design de la solution cible, nous avons effectué l’inventaire des serveurs pour
déterminer les serveurs physiques à virtualiser et les serveurs virtuels à ajouter. Notre objectif
n’étant pas de virtualiser tous les serveurs de la SP, nous avons dû choisir quels serveurs
étaient des candidats éligibles à la virtualisation.
Notre solution consiste à mettre en place une solution de virtualisation hyper redondante.
Nous utiliserons la fonctionnalité de cluster de basculement Hyper-V de Microsoft qui va
permettre la mise en haute disponibilité des serveurs virtuels.
Tout d’abord, nous mettrons en service un SAN fibre optique pour le stockage des machines
virtuelles. Ensuite, nous installerons les rôles Hyper-V sur nos deux nouds (HV1 et HV2) de
serveurs. Par la suite, nous finaliserons la configuration du cluster de basculement. Sur ce
dernier, nous installerons plusieurs machines virtuelles ou convertirons des serveurs
physiques en machines virtuelles. Nous installerons notamment :
Mais avant d’effectuer toutes ces étapes, nous résoudrons d’abord la problématique du serveur
active directory qui fonctionne sous Windows serveur 2008. Nous le migrerons vers Windows
2016. Pour le faire, nous installerons et configurerons un hyperviseur (HV0) sous un hôte
Windows Datacenter 2019. C’est sur ce dernier que nous migrerons notre contrôleur Active
directory 2008 vers la version Windows 2016. Sur ce même hyperviseur nous installerons
aussi un serveur de backup pour faire la sauvegarde de nos machines virtuelles.
Pour mieux comprendre notre démarche et les étapes de réalisation de notre projet, nous
l’avons schématisé par le graphique ci-dessous.
Pour mieux gérer nos travaux, nous l’avons inscrit dans le cadre d’un projet de la Société de
Patrimoine. Ce projet a été subdivisé en quatre phases : Initialisation, Planification,
Réalisation, contrôle et clôture. Le planning que nous avons mis en place est présenté ci-
dessous.
Années 2022
Phases/Taches Mois Jan Fevrier Mars Avril Mai Juin Juillet Aout
Semaine 1 11 12 25 26 28 4 5 8 9 10 1 30 1 31 1 2 6 7 13 14 16 17 21 22 24 25 29 30 6 7 8 14 15 21 22 26 27 29 30 3 4
Phase 1: Initialisation
Choix du theme
Développement de la Charte projet
Approbation de la charte
Phase 2: Planification
Conception générale
Plan détaillé et Cahier des Charges
Approbation Plan détaillé et Cahier des Charges
Achat de lience et matériel nécessaire
Phase 3: Réalisation
Configuration physique des équipements
Configuration de l'hypervieur HV0 (le serveur active directory et le
serveur backup)
Figure 9: Macro-Planning
Sur un serveur HP ProLiant DL380 G10, nous avons installé Windows serveur Datacenter
2019 (Voir Annexe 1 sur les étapes d’installation). Les caractéristiques de ce serveur sont les
suivants :
Processor Intel Xeon Silver 4110 (Octo-Core 2.1 GHz / 3.0 GHz Turbo - 16 Threads - Cache
11 Mo) 16 Go DDR4 RDIMM (1x 16 Go - 12 slots) 8 baies pour disques durs HPE
SAS/SATA SFF. Contrôleur de stockage HPE Smart Array P408i-a/2Gbit/s avec batterie de
stockage intelligente.
Avant de pouvoir directement réaliser la migration, nous devons préparer et faire une mise à
jour de notre forêt. Pour cela, il faudra retourner sur notre SVR-AD, puis rentrer l’ISO
d’installation d’un Windows 2016 pour mettre à niveau la forêt. On l’effectue grâce aux
commandes Adprep /forestprep (préparation de la forêt) et Adprep /domainprep
(préparation du domaine).
Il faut ensuite mettre notre deuxième serveur (SVR-AD1) dans le domaine, puis installer le
rôle AD DS et promouvoir le deuxième contrôleur de domaine.
Ensuite, nous devons transférer les rôles FSMO (Flexible Single Master Operation) du
contrôleur SVR-AD vers SVR-AD1. Ils sont aux nombres de cinq à savoir :
Il est unique dans le domaine, il se charge de synchroniser l'heure entre les différents
serveurs et ordinateurs, de modifier les mots de passe et de verrouiller les comptes.
Maître infrastructure
Il est unique au sein du domaine, son rôle est de gérer les références inter-domaines.
Pour l’instant, tous ces rôles sont détenus par notre Contrôleur de domaine principal.
Les numéros ici correspondent aux noms des différents rôles master. Le tableau plus bas nous
détaille les identifiants des différents rôles :
Une fois tous les rôles transférés sur le deuxième contrôleur et après avoir effectué des
vérifications que tous les rôles sont à nouveaux fonctionnels, nous pouvons maintenant
rétrograder le premier contrôleur puis le sortir du domaine. Cela s’accomplit grâce à la
commande Dcpromo.exe en CMD. Mais avant de le faire, nous allons retirer le premier
contrôleur en tant que catalogue Global du domaine. Les captures ci-dessous illustrent nos
propos.
Comme nous pouvons le constater dans notre unité d’organisation Domain Controllers, il ne
nous reste plus qu’un seul contrôleur de domaine.
Une fois le serveur principal rétrogradé en tant que contrôleur de domaine nous pouvons
maintenant le sortir de notre domaine. Les adresses IP étant fixées de manière statique sur
tous nos serveurs, il faut renseigner sur chaque serveur la nouvelle adresse du serveur DNS.
Aussi, sur notre serveur DHCP, faudra-t-il modifier les paramètres pour ajouter l’adresse du
nouveau serveur DNS.
Il nous permettra de sauvegarder tous nos serveurs. Nous avons opté pour le logiciel de
sauvegarde Veeam backup réplication, qui est le leader en matière de la protection moderne
des données. Il garantit la résilience des données grâce à des sauvegardes sécurisées et à des
solutions de restauration rapides et fiables pour le cloud hybride.
HP P2000 G3 FC est une solution de stockage haute performance qui combine des
performances remarquables avec une grande fiabilité, disponibilité, flexibilité et souplesse de
gestion. Notre architecture de virtualisation repose sur un SAN HP P2000 G3 FC. Il était
important pour nous de mettre en service ce SAN. Ce dernier est constitué des équipements
suivants :
Le serveur HPE ProLiant DL380 Gen9 offre des performances et une évolutivité de
pointe. Sa fiabilité, sa simplicité d'entretien et sa disponibilité presque continue,
assorties d'une garantie complète, en font le serveur idéal pour n'importe quel
environnement de serveur. Il est conçu pour réduire les coûts et la complexité en
exploitant des processeurs E5-2600 v4 d'Intel de dernière génération offrant jusqu'à
21 % de gain de performances et il est doté de la toute dernière mémoire HPE DDR4
Smart Memory 2 400 MHz prenant en charge 3 To et assure une augmentation des
performances pouvant atteindre 23 %.
Prise en charge des cartes réseau 12 Gbit/s SAS et 40 Go avec une large gamme
d'options de calcul. La mémoire persistante HPE, le premier module NVDIMM au
monde optimisé sur ProLiant, offre des niveaux inégalés de performances pour les
bases de données et les charges de travail analytiques. Il convient d’exécuter tout type
d'applications, des plus simples aux plus stratégiques, et de les déployer en toute
confiance.
Les caractéristiques des nœuds HPE ProLiant DL380 Gen9 que nous disposons sont :
Processor : 2 x Intel Xeon E5-2690V3 / 2.6 GHz (3.5 GHz) (14 cœurs) ;
Ram : 64 GO DDR4 SDRAM ;
Port réseau : 4 ports RJ45 ;
Disque : 4 disques de 380 Go en Raid 5 (nous verrons plus bas dans la suite du
rapport comment nous l’avons configuré).
Cette baie prend en charge les niveaux de Raids 0,1,5,6,10 et 50. Il est possible de
créer jusqu’à 512 LUNs (Volume) d’une taille maximale de 16 TB chacun. Notre baie
est constituée de dix (10) disques SAS de 1 TO chacun. Nous avons utilisé le Raid 6
dans nos configurations.
Figure 28 : HP P2000 FC G3
Dans cette section nous verrons comment les équipements susmentionnés sont interconnectés
entre eux. Le raccordement de ces équipements a été effectué en totale conformité avec le
manuel d’installation du fournisseur HP. Les nœuds de serveurs sont connectés à la baie grâce
aux switches qui jouent leur rôle de commutateur et assurent une redondance en lecture et
écriture sur la baie de stockage. Le support de connexion utilisé est la fibre optique, elle
garantit des performances de hautes qualités.
NB : Architecture du SAN HP P2000 FC G3 ci-dessus ne représente que les ports SFP
connecté. Cet équipement présente de nombreux autres ports.
Le tableau ci-dessous résume les numéros WWN (Word Wide Name) des ports de différents
équipements.
Après l'installation du matériel et la mise sous tension des composants pour la première fois,
la première étape est la configuration des commutateurs SAN. Dans notre infrastructure
système, nous avons un serveur DHCP sous Windows 2016 avec l’option filtre par adresse
MAC activée. Cette option nous permet d’autoriser les adresses mac qui peuvent se connecter
sur notre réseau. Il nous a fallu premièrement enregistrer les adresses MAC des switches SAN
sur notre serveur DHCP.
Pour cela nous avons récupéré les adresses MAC sur les cartes d’informations des
commutateurs disponibles sur les équipements. Deuxièmement, grâce à un câble serial et à
l’émulateur tel que PuTTY, nous avons établi une connexion aux switches pour fixer les
adresses IP.
Login : admin
Password : Password (Ce mot de passe par défaut a été changé)
Une fois les identifiants de connexion rentrés nous devons maintenant fixer les adresses IP
du switch SAN. Pour cela, nous utiliserons les commandes ipaddrset comme illustrée dans
les figures ci-dessous :
Après avoir fixé les adresses IP des deux switches, nous pouvons maintenant nous connecter
sur la console web de management grâce à ces adresses.
Sur cette console web, nous créerons les zones et les alias des ports HBA (Host Bus Adapter).
Ces concepts qui seront développés dans la suite de ce rapport. Nous tenons à rappeler que les
serveurs (Nœuds) et la baie de stockage HP P2000 sont tous connectés aux switches par le
support fibre optique. Les ports HBA des serveurs et de la baie de stockage sont identifiés par
un numéro unique appelé WWN (Word Wide Name). Ce dernier permet d’identifier les
périphériques sur le SAN. C’est l’équivalent des adresses IP dans un réseau.
Avant d’aller plus loin, il serait intéressant de définir les concepts d’alias et de zone :
Alias : les ports WWN étant constitué de 24 bits, ils sont assez difficiles à identifier
sur un équipement. L’alias permettra de faire correspondre un WWN à un nom plus
facile à identifier ou nommer. Prenons l’exemple d’un hyperviseur ayant deux ports
WWN que nous pourrions renommés en alias suivant :
Port 1 : 500143802427F13C alias HV1-P1
Port 2 : 500143802427F13D alias HV1-P2
Une fois ces différents concepts expliqués, nous pouvons passer aux détails de notre
configuration. Cette dernière se déroule en deux étapes. Premièrement nous allons créer les
alias, deuxièmement, nous terminerons par la configuration des zones.
Pour créer des alias nous devons nous connecter au Switch SAN via la console web de
gestion et rentrer les identifiants de connexions. Ensuite, une fois la connexion établie,
nous cliquerons sur Zone Admin. C’est sur cet onglet que les configurations des zones et
des alias sont opérées.
Quatre ports sont connectés sur chacun de nos switch SAN. Il s'agit des ports 0, 1, 4 et 5.
Nous allons ainsi créer les alias de ces ports.
Nous créerons les alias des ports présentés dans la figure 34. Pour chaque alias, nous
indiquerons les WWN des équipements établissant la connexion à ce port à savoir : le WWN
du port du switch connecté et le WWN de l’équipement à l’autre extrémité (les nœuds ou la
baie). Comme nous avons quatre ports connectés, nous créerons alors quatre alias sur chaque
switch. La figure ci-dessous récapitule les noms des alias que nous créerons.
Après identification de tous les alias, nous devons songer à la configuration. Pour le faire,
toujours sur l’onglet Zone Admin, nous devons cliquer sur New Alias, donner un nom à notre
alias et ajouter les WWN des ports membres.
Fi
gure 35 : Création et configuration d'un alias
Prenons l’exemple de l’alias H1_P1. Les membres faisant partie de cet alias sont les ports
connectés de part et d’autre de cette liaison. Nous avons ainsi créé quatre alias sur chaque
switch SAN.
Nous créerons ainsi deux zones par switch. Les zones sont l’équivalent des routes en
réseau. Le tableau ci-dessous illustre les zones qui ont été créées.
T
a
b
Zone Alias l
Switch 1 e
H2_P1 a
H1_P1_P2000_CTL1_P1 u
P2000_CTL1_P1
4
H1_P1
H2_P1_P2000_CTL2_P1 :
P2000_CTL2_P1
Switch 2
H2_P2
H2_P2_P2000_CTL2_P2
P2000_CTL1_P2
H1_P2
H1_P2_P2000_CTL1_P2
P2000_CTL1_P2
Tout comme pour la création des alias, les zones sont créées dans la partie Zone Admin. Il
faut ensuite cliquer sur New Zone, donner un nom à sa zone et ajouter les alias faisant partie
de la zone. La figure ci-dessous illustre la création des zones.
Dès l’instant où tous les alias et toutes les zones ont été créées, nous dévons finaliser la
configuration par la création d’une zone config. La zone config est notre fichier de
configuration.
Fi
gure 38 : Création des zones
Sur la baie de stockage, nous créerons un volume. C’est sur ce volume que les serveurs
viendront lire/écrire les données. Notre baie est constituée de dix (10) disques de 1GB chacun.
Avec ces dix (10) disques, nous créerons un volume (Vdisk) de 8GB en RAID 6.
Pour se connecter sur la baie, nous avons utilisé le port CLI sur les contrôleurs de la baie. Ce
port permet d'accéder au système à l'aide de l'interface de communications (Universal Serial
Bus) et d’un logiciel d'émulation du terminal. Les commandes CLI décrites dans les étapes ci-
dessous permettent de configurer l'adresse de chaque module de contrôleur. Une fois les
nouvelles adresses IP configurées, il est possible de les modifier si nécessaire à l'aide de SMU
(Interface de configuration).
L’étape initiale de configuration de la baie étant achevée, nous pouvons maintenant nous
connecter sur l’interface graphique (Storage Management Utility) pour la création du volume.
Sur l’interface de management, nous avons créé un volume au nom de Vdisk-SP. Ce dernier
possède une capacité de 8 TB en RAID6.
Les switches et la baie de stockage étant configurés, nous devons à présent configurer les
serveurs pour qu’ils puissent lire les données sur baie. Nous allons commencer par
l’installation des systèmes d’exploitation sur ces serveurs. Mais au préalable, il nous a fallu
choisir le système d’exploitation compatible à ces serveurs. Notre infrastructure système étant
essentiellement constituée des serveurs sous Windows, nous avons choisi de continuerer avec
ce système. Nous avons préféré installer Windows serveur 2016 Datacenter sur nos serveurs
étant donné que nous avons pour ambition de virtualiser notre infrastructure système.
Pour installer le système sur les serveurs HP ProLiant DL380p Gen9, faut cliquer sur la
touche F10 (Intelligent Prosivioning) pendant le processus de démarrage du serveur. Ensuite,
il faut utiliser le service Intelligent Prosivioning de HP.
Intelligent Provisioning est un outil d'assistance serveur simple à utiliser, qui offre un
déploiement rapide et une flexibilité sur la façon de déployer des serveurs. C’est une solution
intégrée dans la plupart des serveurs HPE ProLiant qui fournit la configuration du système via
un assistant facile à utiliser. Il augmente la simplicité car aucun support n'est nécessaire
MBINA MBOUMBA Wilde Kisteul Contact: +24174767520 E-mail: Kisteulwild@gmail.com 58
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
(aucun CD SmartStart requis). L’on peut y accéder en appuyant sur F10 pendant le processus
de démarrage du serveur, ou l’on peut accéder à moment sur Intelligent Provisioning à partir
de l'interface utilisateur du navigateur iLO.
Tous les micrologiciels, pilotes et outils nécessaires sont disponibles sur le système afin que
le serveur soit immédiatement prêt pour le provisionnement. Cet outil de configuration du
système et du système d'exploitation entièrement intégré réduit les étapes d'installation et de
configuration du serveur pour déployer les serveurs plus rapidement.
Tous d’abord, il faut cliquer sur F10 pendant le processus de démarrage du serveur.
A L’étape suivant (étape 3), les informations du système d’exploitation s’affichent. Il faudra
choisir la langue du système, rentrer la clé du produit et définir le mot de passe administrateur
du serveur. Une fois les paramètres souhaités rentrés, il suffit de cliquant sur « suivant ».
Enfin, la dernière étape permet de vérifier les configurations finales avant de lancer le début
de l’installation du système Windows 2016 Datacenter.
L’installation étant achevée et la configuration de base (nom de serveur, fixation des adresse
IP, gestion à distance, association de la cartes réseau) effectuée ; nous devons maintenant
connecter nos serveurs à la baie de stockage. Pour cela, nous devons installer la fonctionnalité
MPIO qui permet la prise en charge de multiples chemins de stockage. Le MPIO répond à
deux problématiques : la performance et la fiabilité. Il utilise les composants de chemin
d’accès physique redondants (adaptateurs, câbles et commutateurs) pour créer des chemins
Une fois l’installation des systèmes d’exploitation Windows Datacenter 2016 effectuée, nous
installerons le rôle Hyper-V puis la fonctionnalité le clustering de basculement sur les deux
nœuds du cluster.
Les serveurs faisant partie d’un cluster doivent être identiques en termes de matériel et
logiciel. Car lorsqu’une machine virtuelle est migrée d’un hôte à un autre, elle ne doit pas
constater une différence de performance entre les deux hôtes ; cela pourrait engendrer des
perturbations de fonctionnement de la machine virtuelle. La validation du cluster nous
permettra de déterminer si les deux nœuds sont compatibles au cluster de basculement. Les
figures 40 à 44 nous montrent les étapes de la validation du cluster de basculement.
Après avoir réussi la validation du cluster de basculement, nous pouvons à présent créer notre
cluster de basculement. Les figures 45 à 50 illustrent avec précision la création d’un cluster de
basculement.
Ensuite, nous devons choisir les serveurs faisant partie de notre cluster ; c’est-à-dire les
serveurs nœuds. Quand la page Sélectionner les serveurs s’affiche, dans la zone entrer un
nom, il faut ajouter le nom NetBIOS ou le nom de domaine complet d’un serveur que l’on
prévoit d’ajouter en tant que nœud de cluster de basculement, puis sélectionne Ajouter.
Répéter cette étape pour chaque serveur à ajouter. Pour ajouter plusieurs serveurs à la fois,
séparer les noms d’une virgule ou d’un point-virgule. Par exemple, entrer les noms au format
server1.contoso.com ; server2.contoso.com. Une fois l’étape terminée, cliquer sur Suivant
L’étape suivante consiste à donner un nom et une adresse IP à notre cluster. En effet, les
utilisateurs, pour accéder à nos machines virtuelles qui se trouvent dans notre cluster de
basculement, utiliseront cette adresse IP et ce nom.
Dans la page Point d'accès pour l'administration du cluster ; Dans la zone nom du cluster,
entrer le nom que l’on veut utiliser pour administrer le cluster et une adresse IP disponible. Il
est important de comprendre que pendant la création du cluster, ce nom est inscrit en tant
qu'objet ordinateur de cluster (aussi appelé objet nom de cluster ou CNO) dans Active
directory (AD DS). Si l’on spécifie un nom NetBIOS pour le cluster, le CNO est créé à
l'emplacement où résident les objets ordinateur des nœuds du cluster. Il peut s'agir soit du
conteneur Ordinateurs par défaut, soit d'une unité d’organisation. Un objet AD ordinateur sera
créé dans l’annuaire Active directory. Cet Object aura pour nom ClusterSP.
C’est dans l’onglet Rôles que nous installerons nos différents rôles de cluster. Un rôle peut
être une machine virtuelle ou un service disponible en haute disponibilité. Pour l’instant, nous
n’avons aucun rôle.
Nous pouvons voir dans l’onglet Nœuds nos différents nœuds faisant partie de notre cluster.
Dans le stockage de notre cluster, nous retrouvons nos deux disques logiques SAN créés
précédemment :
Pour les réseaux, nous en possédons deux comme illustré dans la figure 668 ; un pour le
Heartbeat (communication directe entre les Noeux, réservé aux nœuds du cluster uniquement)
et un réseau de production (communication avec le réseau entier de l’entreprise).
Notre cluster étant créé et fonctionnel, il ne nous reste plus qu’à installer les serveurs que nous
voulions mettre en place. Le point suivant fait un point sur le déroulement de l’installation des
machines virtuelles sur un cluster de basculement Hyper-V.
Nous obtenons un volume partagé en cluster. C’est sur ce volume que toutes les machines virtuelles
seront stockées.
Une fois le volume de cluster créé, nous pouvons maintenant créer nos machines virtuelles
dans notre cluster. L’annexe 2 nous montre les étapes pas à pas de la création d’une machine
virtuelle dans un cluster de basculement. C’est grâce à cette étape que nous avons installé le
serveur d’antivirus, de stockage et le serveur Azure AD.
Dans notre architecture existante, nous avons un serveur physique que nous devions
transformer en machine virtuelle. Pour ce faire, nous avons utilisé le convertisseur Disk2vhd
de Microsoft.
Disk2vhd est un utilitaire qui crée des versions de disque dur virtuel pour une utilisation dans
Microsoft Hyper-V. La différence entre Disk2vhd et d’autres outils physiques ou virtuels est
que l’on peut exécuter Disk2vhd sur un système en production. Disk2vhd utilise la
fonctionnalité d’instantané de volume de Windows, introduite dans Windows XP, pour créer
des instantanés à un point dans le temps cohérents des volumes que l’on souhaite inclure dans
une conversion. L’on peut même avoir Disk2vhd, créer les disques durs virtuels sur les
volumes locaux, même ceux qui sont convertis (bien que les performances soient meilleures
lorsque le disque dur virtuel se trouve sur un disque différent de celui qui est converti).
Il suffit de lancer l’outil sur le serveur que nous souhaitons convertir et le laisser effectuer le
travail.
À la suite du processus, l’on peut obtenir le fichier/disque vhdx, le copier dans le cluster de
basculement Hyper-V et le placer dans le dossier contenant les disques VM.
Une fois que nous avons le disque vhdx, il nous faut juste utiliser la procédure d’installation
d’une machine virtuelle décrite dans l’annexe 2. La seule différence ici est qu’au niveau du
choix de la connexion d’un disque dur nous utiliserons un disque virtuel existant.
Pour vérifier que notre infrastructure de virtualisation est totalement redondant, nous allons
effectuer des tests de migration à chaud. Nous allons simuler la panne de l’hyperviseur HV2.
Normalement tous les serveurs virtuels disponibles sur cette hyperviseur doivent être migrés
sur l’hyperviseur active (HV1).
Nous constatons bien que les deux serveurs présents sur l’hyperviseur HV2 ont été migrés à
chaud en moins de 30s. Cette migration est totalement transparente pour les utilisateurs.
La solution proposée est un succès et les livrables prévus dans nos objectifs ont été délivrés à
100%. Tous les objectifs ont été atteints en termes de qualité, périmètre et budget. Il est
important toutefois de noter que la nouvelle infrastructure a été livrée début août 2022. Et
depuis son implémentation, tout est fonctionnel, nous n’avons enregistré aucun bug
fonctionnel. Actuellement, et selon notre outil de monitoring de serveur (ManageEngine
Application Manager) , notre architecture de virtualisation est à 25% d’utilisation de ses
capacités (figure 78 à 80).
Applications Manager est une solution unifiée de surveillance des performances des
applications, de surveillance de l'infrastructure et de surveillance de l'expérience de
l'utilisateur final, approuvée par plus de 6 000 entreprises dans le monde. Les équipes des
opérations informatiques et de DevOps utilisent Applications Manager pour garantir la santé
et les performances optimales de leurs applications critiques, à la fois dans le centre de
données et dans le cloud.
Nous avons voici cette application car elle est facile à mettre en service et le support de
maintenance est excellent.
Cet outil de supervision nous montre que nous avons suffisamment de ressource pour
répondre aux exigences de croissance. A l'avenir, nous pourrions augmenter la puissance de
notre infrastructure de virtualisation si nécessaire.
Dans cette rubrique, nous allons faire un bilan financier de toutes les dépenses effectuées.
Nous avons catégorisé ces dépenses en deux blocs : les dépenses liées au matériel et celles
liées à l’acquisition des logiciels.
5.1 Remarques
Durant cette période de stage, nous avons beaucoup appris sur le travail dans la société de
patrimoine, mais cela n'a pas été sans difficultés.
La première difficulté était de convaincre le Directeur Général de la Société de Patrimoine de
financer le projet. Ce projet initié par le Directeur des Systèmes d’Information n’ayant pas la
dernière décision sur le décaissement des fonds a dû être préalablement soumis à
l’appréciation du Directeur général. Il a fallu plusieurs réunions avec les membres du Codir
pour avoir les financements nécessaires. Et malheureusement là encore, nous n’avons pas
obtenu la totalité du financement demandé.
La deuxième difficulté rencontrée était liée aux délais de livraison du matériel informatique.
Au départ, notre fournisseur nous a donné des délais de livraison de deux
mois mais malheureusement, nous n’avons reçu le matériel que trois mois plus tard. Ce qui a
entraîné des retards dans notre planning initial. Heureusement, ce retard a été rattrapé en
accélérant les phases de configuration et de déploiement.
Pour finir, la difficulté récurrente rencontrée durant ce stage a été l’organisation de notre
temps de travail. En effet, il était difficile d’organiser notre temps entre les discussions dans le
but d’avoir des informations pour comprendre le fonctionnement du système à informatiser et
les diverses tâches que nous avions en tant que chargé des Infrastructure Système de la société
de Patrimoine.
5.2 Suggestions
Premièrement, la Société de patrimoine devrait mettre en place un comité de gestion de projet.
Ce comité devrait être au centre du cycle de vie d’un projet (avant-projet, Initialisation,
Planification, Exécution, Contrôle et Clôture). Ceci permettra de valider les projets jugés
prioritaires, nommé le chef de projet et finalement faire un suivi des projets en lui allouant les
ressources humaines et financières nécessaires pour la réalisation du projet. Aussi, la
Direction Générale de la Société de Patrimoine devrait-elle donner à ses directeurs de
département plus de pouvoir dans le financement des projets. Chaque année, les budgets des
départements sont discutés et alloués en fonction des exigences et priorités des départements.
Et au moment de l’exécution de ces budgets, il y a encore beaucoup d’hésitation de la part de
la Direction.
Deuxièmement, concernant les problèmes de retard de livraison, la SP devrait avoir une liste
des fournisseurs fiables capables de respecter ses délais de livraison. En outre, concernant les
projets de grosse ampleur comme celui-ci, nécessitant des commandes du matériel à
l’étranger, nous devrons mettre dans notre planning de projet un délai supplémentaire de
livraison d’un ou deux mois pour respecter le planning initial.
Enfin, pour ce type de projet, la SP devrait modéliser les ressources humaines sur une période
bien précise. Cette période permettrait aux ressources humaines de se concentrer amplement
sur le projet et donc de le terminer plus rapidement.
CONCLUSION GENERALE
Bibliographie
[2] : Hewlett Packard Entreprise (2010). HP Storage P2000 G3 MSA Système câble
configuration guide. https://www.hpe.com/psnow/doc/c02451851
[4] : Alphorm ; Patrick IZZO (2022). Formation haute disponibilité Windows 2012 R2 : Le
guide complet. https://www.alphorm.com/tutoriel/formation-en-ligne-la-haute-disponibilite-
sous-windows-serveur-2012-r2
[6] : Florian Burnel (2022). Cluster à basculement Hyper-V avec Windows Server 2016.
https://www.it-connect.fr/cluster-a-basculement-hyper-v-avec-windows-server-2016/
[7] : Microsoft ; Francois Dishan. Guide pas à pas : migration d’active directory de
Windows Sever 2008 R2 vers Windows Server 2022.
https://techcommunity.microsoft.com/t5/itops-talk-blog/step-by-step-guide-active-directory-
migration-from-windows/ba-p/2888117
vi
VIRTUALISATION DE SERVEURS : CAS DE LA SOCIETE DE
PATRIMOINE DU SERVICE PUBLIC DE L'EAU POTABLE, DE
L'ENERGIE ELECTRIQUE ET DE L’ASSAINISSEMENT
Glossaire
• Bulle : une bulle (en anglais Bubble ou pipeline stall) est un temps d'attente lors de
l'exécution d'une instruction sur un processeur à pipeline.
• SAN : de l’anglais Storage Area Network et qui implique une mutualisation des ressources
de stockage au travers d’un réseau spécialisé permettant un accès bas niveau aux disques
utilisés ;
• SP : Société de Patrimoine du Service public de l'Eau potable, de l'Energie électrique et de
l'Assainissement.
• SSD : de l'anglais solid-state drive.
• VM : de l’anglais, Virtual Machine pour machine virtuelle.
• VMM : de l’anglais, Virtual Machine Manager pour Gestionnaire de machine virtuelle ou
plus généralement un hyperviseur.
7 – Sélectionnez le disque sur lequel installer Windows Server 2019 et cliquez sur «
Suivant » :
Pour créer un nouvel ordinateur virtuel dans votre cluster, faites un clic droit sur Rôles et
cliquez sur : Ordinateurs virtuels -> Nouvel ordinateur virtuel
Choisissez le nœud sur lequel vous souhaitez héberger cet ordinateur virtuel.
Notez que cet assistant ci-dessous est strictement identique à celui que nous utilisons lorsque
les serveurs Hyper-V ne sont pas en cluster.
Indiquez un nom pour votre machine virtuel et cochez la case : Stocker l'ordinateur virtuel à
un autre emplacement. En effet, par défaut, vos serveurs Hyper-V sont configurés pour être
stockés localement sur un de vos serveurs Hyper-V et plus particulièrement dans le dossier
"C:\ProgramData\Microsoft\Windows\Hyper-V\".
Pour que l'exécution de nos machines virtuelles puisse être basculée automatiquement d'un
nœud de votre cluster à un autre nœud du cluster, nous devons prendre l'habitude de stocker
nos ordinateurs virtuels sur un des volumes partagés de notre cluster. Nous allons alors le
stocker dans le volume partagé de cluster que nous avons créé.
Sélectionnez le commutateur réseau virtuel que notre machine virtuelle devra utiliser.
A cette étape nous devons insérer les fichiers ISO du système que nous souhaitons installer.