Vous êtes sur la page 1sur 49

Clustering de basculement dans

Windows Server
S’applique à : Windows Server 2019, Windows Server 2016

Un cluster de basculement est un groupe d’ordinateurs indépendants qui travaillent


conjointement pour accroître la disponibilité et l’extensibilité des rôles en cluster
(appelés précédemment « applications et services en cluster »). Les serveurs en cluster
(appelés « nœuds ») sont connectés par des câbles physiques et par des logiciels. En
cas de défaillance d’un ou plusieurs nœuds, d’autres nœuds prennent le relais pour
fournir les services requis (processus appelé « basculement »). En outre, les rôles en
cluster sont surveillés de manière proactive pour vérifier qu’ils fonctionnent
correctement. S’ils ne fonctionnent pas, ils sont redémarrés ou déplacés vers un autre
nœud.

Les clusters de basculement offrent également la fonctionnalité de volume partagé de


cluster (CSV) qui procure un espace de noms distribué et cohérent que les rôles en
cluster peuvent utiliser pour accéder au stockage partagé à partir de tous les nœuds. La
fonctionnalité de clustering de basculement garantit ainsi aux utilisateurs des
interruptions de service minimales.

Le clustering de basculement a de nombreuses applications pratiques, notamment :

 Stockage de partage de fichiers hautement disponible ou disponible en continu


destiné à des applications telles que Microsoft SQL Server et à des ordinateurs
virtuels Hyper-V.
 Rôles en cluster hautement disponibles qui sont exécutés sur des serveurs
physiques ou des ordinateurs virtuels installés sur des serveurs exécutant Hyper-V

Nouveautés du clustering de
basculement
 18/10/2018
 12 minutes de lecture

o
o

S’applique à : Windows Server 2019, Windows Server 2016

Cette rubrique décrit les fonctionnalités nouvelles et modifiées dans le Clustering de


basculement pour Windows Server 2019 et Windows Server 2016.

Nouveautés de Windows Server 2019

 Jeux de clusters

Ensembles de cluster permettent d’augmenter le nombre de serveurs dans une


solution unique défini par logiciel Centre de données (SDDC) au-delà des limites
d’un cluster en cours. Cela est accompli en regroupant plusieurs clusters dans un
ensemble de cluster--un regroupement faiblement couplés de plusieurs clusters
de basculement : calcul, stockage et hyperconvergés.Avec des jeux de cluster,
vous pouvez déplacer des machines virtuelles en ligne (migration dynamique)
entre les clusters au sein du cluster défini.

Pour plus d’informations, consultez ensembles de Cluster.

 Clusters prenant en charge Azure


Clusters de basculement détectent désormais automatiquement lorsqu’ils sont
exécutent dans des machines virtuelles Azure IaaS et optimiser la configuration
pour permettre le basculement proactive et la journalisation des événements de
maintenance planifiée Azure pour obtenir les meilleurs niveaux de disponibilité. Le
déploiement est également simplifié en supprimant la nécessité de configurer
l’équilibrage de charge avec les noms de réseau dynamique pour le nom du
cluster.

 Migration de cluster de domaines

Clusters de basculement peut maintenant dynamiquement déplacer un domaine


Active Directory vers un autre, ce qui simplifie la consolidation des domaines et
autorisant les clusters créés par des partenaires de matériel et joint au domaine
du client plus tard.

 Témoin USB

Vous pouvez maintenant utiliser une simple clé USB attachée à un commutateur
réseau en tant que témoin dans la détermination du quorum pour un cluster. Cela
permet d’étendre le témoin de partage de fichier pour prendre en charge
n’importe quel appareil SMB2 conformes.

 Améliorations de l’infrastructure cluster

Il est désormais activé par défaut pour améliorer les performances de la machine
virtuelle.MSDTC prend désormais en charge les volumes partagés de cluster afin
d'autoriser le déploiement de charges de travail MSDTC sur les espaces de
stockage direct comme avec SQL Server. Amélioration de la logique de détection
de nœuds partitionnés avec autoréparation pour que les nœuds redeviennent
membres du cluster. Détection d'itinéraire de réseau en cluster et autoréparation
améliorées.

 La mise à jour prenant en charge du cluster prend en charge les espaces de


stockage Direct

La mise à jour adaptée aux clusters (Cluster Aware Updating ou CAU) est
désormais intégrée et détecte les espaces de stockage direct, vérifiant et
garantissant que la resynchronisation des données est terminée sur chaque
nœud. La mise à jour prenant en charge du cluster inspecte les mises à jour
redémarrent intelligemment uniquement si nécessaire. Cela permet d’orchestrer
des redémarrages de tous les serveurs du cluster pour la maintenance planifiée.

 Améliorations de témoin de partage de fichiers nous avons activé l’utilisation


d’un témoin de partage de fichiers dans les scénarios suivants :
o Accès Internet absent ou extrêmement médiocre en raison d’un emplacement
distant, empêchant l’utilisation d’un témoin de cloud.
o Absence des lecteurs partagés pour un témoin de disque. Cela peut être une
configuration hyperconvergé espaces de stockage Direct, un SQL Server
toujours sur les groupes de disponibilité, ou un * Exchange de base de données
groupe de disponibilité (DAG), aucun d'entre eux utilise des disques partagés.
o Absence d’une connexion de contrôleur de domaine en raison du cluster en
cours derrière une zone DMZ.
o Un groupe de travail ou domaines cluster pour lequel il n’existe aucun objet de
nom Active Directory cluster (CNO). Pour en savoir plus sur ces améliorations
dans le billet suivant dans les Blogs de gestion & serveur : Témoin de partage
de fichiers de Cluster de basculement et DFS.

Nous avons maintenant également bloquer explicitement l’utilisation d’un


partage d’espaces de noms DFS en tant qu’emplacement. Ajout d’un témoin de
partage de fichier pour une recherche DFS partage peut entraîner des
problèmes de stabilité de votre cluster, et cette configuration n’a jamais été
prise en charge. Nous avons ajouté la logique permettant de détecter si un
partage utilise des espaces de noms DFS, et si les espaces de noms DFS est
détectée, le Gestionnaire du Cluster de basculement bloque la création du
témoin et affiche un message d’erreur concernant n’est ne pas pris en charge.

 Sécurisation renforcée du cluster

La communication intra-cluster via Server Message Block (SMB) pour les volumes
partagés de cluster et les espaces de stockage direct tire maintenant parti des
certificats pour fournir la plateforme la plus sécurisée. Les clusters de basculement
peuvent ainsi fonctionner sans dépendances sur NTLM et autoriser les bases de
référence de sécurité.

 Cluster de basculement n’utilise plus l’authentification NTLM

Clusters de basculement ne plus utiliser l’authentification NTLM. Au lieu de cela


Kerberos et l’authentification basée sur le certificat est utilisé exclusivement. Il n’y
a aucune modification requise par l’utilisateur ou les outils de déploiement, pour
tirer parti de cette amélioration de la sécurité. Il permet également de clusters de
basculement pour être déployé dans les environnements où NTLM a été
désactivé.

Quelles sont les nouveautés dans Windows Server 2016


Système d’exploitation en cluster mise à niveau propagée

Niveau propagée de cluster système d’exploitation permet à un administrateur mettre à


niveau le système d’exploitation des nœuds du cluster à partir de Windows Server 2012
R2 vers une version plus récente sans arrêter les charges de travail du serveur de
fichiers avec montée en puissance parallèle ni Hyper-V. Avec cette fonctionnalité, les
pénalités de temps d’arrêt sur les contrats de niveau de service peuvent être évitées.

Quels avantages cette modification procure-t-elle ?


La mise à niveau un cluster Hyper-V ou le serveur de fichiers avec montée en puissance
de Windows Server 2012 R2 vers Windows Server 2016 n’est plus nécessite l’arrêt. Le
cluster continue de fonctionner à un niveau de Windows Server 2012 R2, jusqu'à ce que
tous les nœuds du cluster exécutent Windows Server 2016. Le niveau fonctionnel du
cluster est mis à niveau vers Windows Server 2016 à l’aide de l’applet de commande
Windows PowerShell Update-ClusterFunctionalLevel.

Avertissement
 Une fois que vous mettez à jour le niveau fonctionnel du cluster, vous ne pouvez
pas revenir à un niveau fonctionnel de cluster Windows Server 2012 R2.
 Jusqu'à ce que le Update-ClusterFunctionalLevel applet de commande est
exécutée, le processus est réversible et les nœuds de Windows Server 2012 R2
peuvent être ajoutés et les nœuds Windows Server 2016 peuvent être supprimés.

En quoi le fonctionnement est-il différent ?

Un cluster de basculement Hyper-V ou le serveur de fichiers avec montée en puissance


peut désormais facilement être mis à niveau sans interruption de service ou avez besoin
pour créer un nouveau cluster avec des nœuds qui exécutent le système d’exploitation
Windows Server 2016.Clusters de migration vers Windows Server 2012 R2 impliquant
mise hors connexion de cluster existant et le nouveau système d’exploitation pour
chaque nœud de la réinstallation et puis mettre le cluster en ligne. L’ancien processus a
été requise et lourde temps d’arrêt. Toutefois, dans Windows Server 2016, le cluster n’a
pas besoin de se déconnecter à tout moment.

Les systèmes d’exploitation de cluster pour la mise à niveau en plusieurs phases sont
les suivantes pour chaque nœud dans un cluster :

 Le nœud est suspendu et purgé de toutes les machines virtuelles qui s’exécutent
sur celui-ci.
 Les machines virtuelles (ou autre charge de travail de cluster) est migrée vers un
autre nœud du cluster.
 Le système d’exploitation est supprimé et une nouvelle installation du système
d’exploitation Windows Server 2016 sur le nœud est exécutée.
 Le nœud qui exécute le système d’exploitation Windows Server 2016 est ajouté au
cluster.
 À ce stade, le cluster est dit être en cours d’exécution en mode mixte, car les
nœuds du cluster exécutent Windows Server 2012 R2 ou Windows Server 2016.
 Le niveau fonctionnel du cluster reste à Windows Server 2012 R2. À ce niveau
fonctionnel, les nouvelles fonctionnalités dans Windows Server 2016 qui affectent
la compatibilité avec les versions précédentes du système d’exploitation ne seront
pas disponibles.
 Finalement, tous les nœuds sont mis à niveau vers Windows Server 2016.
 Niveau fonctionnel du cluster est ensuite modifié vers Windows Server 2016 à
l’aide de l’applet de commande Windows PowerShell Update-
ClusterFunctionalLevel. À ce stade, vous pouvez tirer parti des fonctionnalités de
Windows Server 2016.
Pour plus d’informations, consultez niveau propagée de Cluster système d’exploitation.

Réplica de stockage

Réplica de stockage est une nouvelle fonctionnalité qui permet d’indépendante du


stockage, la réplication synchrone au niveau du bloc entre des serveurs ou clusters
pour la récupération d’urgence, ainsi que l’extension d’un cluster de basculement entre
sites. La réplication synchrone permet la mise en miroir des données dans des sites
physiques avec des volumes cohérents en cas d’incident, ce qui garantit aucune perte
de données au niveau du système de fichiers. La réplication asynchrone permet
l’extension de site au-delà de plages métropolitaines avec la possibilité de perte de
données.

Quels avantages cette modification procure-t-elle ?

Le réplica de stockage vous permet d’effectuer les opérations suivantes :

 Proposer une seule solution de reprise d’activité fournisseur pour les interruptions
planifiées et non planifiées des charges de travail critiques.
 Utiliser le transport SMB3 avec des performances, une scalabilité et une fiabilité
reconnues.
 Étendre les clusters de basculement Windows aux distances métropolitaines.
 Utiliser des logiciels de Microsoft bout en bout pour le stockage et le clustering,
telles que Hyper-V, le réplica de stockage, les espaces de stockage, Cluster,
serveur de fichiers avec montée en puissance, SMB3, la déduplication des données
et ReFS/NTFS.
 Réduire les coûts et la complexité comme suit :
o La réplication est indépendante du matériel et ne nécessite pas de
configuration de stockage particulière, comme DAS ou SAN.
o Elle autorise des technologies de mise en réseau et de stockage des produits.
o Elle facilite la gestion graphique pour les nœuds individuels et les clusters via le
Gestionnaire du cluster de basculement.
o Elle inclut des options de script complètes et à grande échelle via Windows
PowerShell.
 Réduire les temps d’arrêt et augmenter la fiabilité et la productivité intrinsèques à
Windows.
 Fournir la capacité de prise en charge, les mesures de performances et les
fonctionnalités de diagnostic.

Pour plus d’informations, voir Réplica de stockage dans Windows Server 2016.

Témoin de cloud

Dans Windows Server 2016, Témoin cloud est un nouveau type de témoin de quorum
de cluster avec basculement, qui utilise Microsoft Azure comme point
d’arbitrage. Comme les autres témoins de quorum, Témoin cloud obtient un vote et
peut prendre part à des calculs de quorum. Vous pouvez le configurer comme témoin
de quorum à l’aide de l’Assistant Configuration de quorum du cluster.

Quels avantages cette modification procure-t-elle ?

À l’aide d’un témoin de Cloud comme un Cluster de basculement témoin de quorum


offre les avantages suivants :

 S’appuie sur Microsoft Azure et élimine la nécessité d’un centre de données


distinct tiers.
 Utilise le standard disponible publiquement Microsoft stockage Blob Azure qui
élimine la surcharge de maintenance supplémentaire de machines virtuelles
hébergées dans un cloud public.
 Même compte de stockage Microsoft Azure peut être utilisé pour plusieurs
clusters (fichier d’un objet blob par cluster ; id unique de cluster utilisé comme
nom de fichier blob).
 Fournit un très faible coût en cours pour le compte de stockage (très petites
données écrites par fichier blob, fichier blob mis à jour une seule fois lorsque l’état
des nœuds de cluster passe).

Pour plus d’informations, consultez déployer un Cloud témoin pour un Cluster de


basculement.

En quoi le fonctionnement est-il différent ?

Cette fonctionnalité est une nouveauté de Windows Server 2016.

Résilience de Machine virtuelle

Calcul de la résilience Windows Server 2016 inclut la résilience de calcul des machines
virtuelles accrue pour aider à réduire les problèmes de communication intracluster dans
votre cluster de calcul comme suit :

 Options de résilience disponibles pour les machines virtuelles : Vous pouvez


désormais configurer les options de résilience de machine virtuelle qui définissent
le comportement des ordinateurs virtuels lors de pannes temporaires :
o Niveau de résilience : Vous permet de définir la manière dont sont gérées les
échecs temporaires.
o Période de la résilience : Vous permet de définir la durée pendant laquelle
toutes les machines virtuelles sont autorisés à exécuter isolé.
 Mise en quarantaine de nœuds défectueux : Nœuds défectueux sont mis en
quarantaine et ne sont plus autorisés à rejoindre le cluster. Cela empêche les
nœuds ailes d’incidence négative sur le cluster global et les autres nœuds.

Pour plus d’informations machine virtuelle calcul la résilience des flux de travail et le
nœud mise en quarantaine les paramètres qui contrôlent comment votre nœud est
placé dans isolation ou mettre en quarantaine, consultez résilience de calcul de
Machine virtuelle dans Windows Server 2016.
La résilience du stockage dans Windows Server 2016, les machines virtuelles sont plus
résistantes aux défaillances de stockage temporaire. La résilience de machine virtuelle
améliorée permet de conserver les États de session de machine virtuelle de locataire en
cas de perturbation de stockage.Cela, réponse de machine virtuelle intelligent et rapide
pour les problèmes d’infrastructure de stockage.

Lorsqu’une machine virtuelle se déconnecte de son stockage sous-jacent, il est


maintenu et attend que le stockage à récupérer. Pendant la suspension, la machine
virtuelle conserve le contexte des applications qui sont en cours d’exécution qu’il
contient. En cas de connexion de l’ordinateur virtuel à son stockage est restaurée, la
machine virtuelle retourne à son état en cours d’exécution. Par conséquent, l’état de
session de l’ordinateur client est conservée sur la récupération.

Dans Windows Server 2016, la résilience de stockage de machine virtuelle est trop
prenant en charge et optimisé pour les clusters invités.

Améliorations des diagnostics dans le Clustering de basculement

Pour aider à diagnostiquer les problèmes avec les clusters de basculement, Windows
Server 2016 inclut les éléments suivants :

 Plusieurs améliorations pour les fichiers journaux de cluster (par exemple, le


journal des informations de fuseau horaire et DiagnosticVerbose) qui rend est plus
facile de résoudre les problèmes de clustering de basculement. Pour plus
d’informations, consultez 2016 basculement Cluster dépannage des améliorations
de Windows Server - journal de Cluster.
 Un nouveau type d’un vidage de vidage de mémoire Active, qui élimine la
plupart des pages de mémoire allouée aux machines virtuelles et est donc
memory.dmp beaucoup plus petite et plus facile à enregistrer ou copier. Pour plus
d’informations, consultez 2016 basculement Cluster dépannage des améliorations
de Windows Server - vider Active.

Clusters de basculement reconnaissant les sites

Windows Server 2016 inclut un site prenant en charge les clusters de basculement
permettent à des nœuds de groupe de clusters étendus en fonction de leur
emplacement physique (site). Cluster-la reconnaissance des sites améliore des
opérations clés pendant le cycle de vie de cluster telles que le comportement de
basculement, les stratégies de positionnement, les pulsations entre les nœuds et le
comportement du quorum. Pour plus d’informations, consultez Site prenant en charge
les Clusters de basculement dans Windows Server 2016.

Clusters de groupe de travail et à domaines multiples

Dans Windows Server 2012 R2 et versions antérieures, un cluster peut uniquement être
créé entre les nœuds membres joints au même domaine. Windows Server 2016 déjoue
cet obstacle en introduisant la possibilité de créer un cluster de basculement sans
dépendances Active Directory.Vous pouvez maintenant créer des clusters de
basculement dans les configurations suivantes :

 Clusters à domaine unique. Clusters avec tous les nœuds sont joints au même
domaine.
 Clusters à domaines multiples. Clusters de nœuds qui sont membres de
domaines différents.
 Clusters de groupe de travail. Les clusters de nœuds qui sont des serveurs
membres / groupe de travail (pas joint au domaine).

Pour plus d’informations, consultez clusters de groupe de travail et à domaines


multiples dans Windows Server 2016

Équilibrage de charge de Machine virtuelle

Équilibrage de charge d’ordinateur virtuel est une nouvelle fonctionnalité de Clustering


de basculement qui facilite l’équilibrage de charge transparente des machines virtuelles
entre les nœuds dans un cluster. Nœuds sollicités sont identifiés en fonction de la
machine virtuelle de mémoire et l’utilisation du processeur sur le nœud. Les machines
virtuelles sont ensuite déplacées (migration en direct) à partir d’un nœud sollicité aux
nœuds avec la bande passante disponible (le cas échéant). L’intensité de l’équilibrage
de peut être paramétrée pour garantir des performances de cluster optimale et
l’utilisation. Équilibrage de charge est activée par défaut dans Windows Server 2016
Technical Preview. Toutefois, l’équilibrage de charge est désactivée lorsque
l’optimisation dynamique SCVMM est activée.

Ordre de démarrage de Machine virtuelle

Ordre de démarrage de machine virtuelle est une nouvelle fonctionnalité de Clustering


de basculement qui présente l’orchestration d’ordre de démarrage pour les machines
virtuelles (et tous les groupes) dans un cluster. Machines virtuelles peuvent maintenant
être regroupés en niveaux et les dépendances d’ordre de démarrage peuvent être créés
entre les différents niveaux. Cela garantit que les machines virtuelles plus importantes
(par exemple, les contrôleurs de domaine ou l’utilitaire de machines virtuelles) sont
démarrés en premier. Machines virtuelles ne sont pas démarrés jusqu'à ce que les
ordinateurs virtuels qu’ils ont une dépendance sur sont également démarrés.

Les réseaux de Cluster de plusieurs cartes réseau et SMB Multichannel simplifiés

Les réseaux de Cluster de basculement ne sont plus limités à une seule carte réseau par
sous-réseau / réseau. Avec simplifié SMB Multichannel et les réseaux de Cluster de
plusieurs cartes réseau, la configuration réseau est automatique, et chaque carte réseau
sur le sous-réseau peut être utilisé pour le trafic de cluster et de la charge de
travail. Cette amélioration permet aux clients d’optimiser le débit réseau pour Hyper-V,
Instance de Cluster de basculement SQL Server et autres charges de travail SMB.
Pour plus d’informations, consultez simplifié SMB Multichannel et les réseaux de Cluster
Multi-NIC.

Voir aussi
 Stockage
 Quelles sont les nouveautés dans le stockage dans Windows Server 2016

Vue d’ensemble d’un serveur de


fichiers avec montée en puissance
parallèle pour les données
d’application
 26/04/2018
 10 minutes de lecture

o

o
o

S’applique à : Windows Server 2012 R2, Windows Server 2012

Le serveur de fichiers avec montée en puissance parallèle est une fonctionnalité conçue
pour fournir des partages de fichiers avec montée en puissance parallèle disponibles de
manière continue pour le stockage des applications de serveur basées sur des
fichiers. Les partages de fichiers avec montée en puissance parallèle permettent de
partager le même dossier à partir de plusieurs nœuds d’un même cluster. Ce scénario
se concentre sur la façon de planifier et de déployer des serveur de fichiers avec
montée en puissance parallèle.

Vous pouvez déployer et configurer un serveur de fichiers en cluster à l’aide d’une des
méthodes suivantes :

 Serveur de fichiers avec montée en puissance pour les données


d’application cette fonctionnalité de serveur de fichiers en cluster a été introduite
dans Windows Server 2012, et vous permet de stocker des données d’application
de serveur, tels que les fichiers de machine virtuelle Hyper-V sur des partages de
fichiers et obtenir un niveau similaire de fiabilité, disponibilité, la facilité de
gestion et hautes performances, attendez-vous à partir d’un réseau de
stockage. Tous les partages de fichiers sont simultanément en ligne sur tous les
nœuds. Les partages de fichiers associés à ce type de serveur de fichiers en cluster
sont appelés partages de fichiers avec montée en puissance parallèle. Ils sont
parfois qualifiés d’actif-actif. Il s’agit du type de serveur de fichiers recommandé
lors du déploiement d’Hyper-V sur SMB (Server Message Block) ou Microsoft SQL
Server.
 Serveur de fichiers pour une utilisation générale Ceci est la continuation du
serveur de fichiers en cluster qui était pris en charge dans Windows Server depuis
l’introduction du clustering avec basculement. Ce type de serveur de fichiers en
cluster, et donc tous les partages associés au serveur de fichiers en cluster, sont en
ligne sur un seul nœud à la fois. Ils sont parfois qualifiés d’actif-passif ou d’actif
double. Les partages de fichiers associés à ce type de serveur de fichiers en cluster
sont appelés partages de fichiers en cluster. Il s’agit du type de serveur de fichiers
recommandé lors du déploiement de scénarios de travailleur de l’information.
Description du scénario

Les partages de fichiers avec montée en puissance parallèle permettent de partager le


même dossier à partir de plusieurs nœuds d’un cluster. Par exemple, si vous avez un
cluster de serveurs de fichiers à quatre nœuds qui est à l’aide de Server Message Block
(SMB) Scale-Out, un ordinateur exécutant Windows Server 2012 R2 ou Windows Server
2012 peut accéder aux partages de fichiers à partir d’un des quatre nœuds. Cela est
possible en tirant profit des nouvelles fonctionnalités du clustering avec basculement
de Windows Server et des fonctionnalités de la version du protocole de serveur de
fichiers Windows, SMB 3.0. Les administrateurs de serveur de fichiers peuvent fournir
des partages de fichiers avec montée en puissance parallèle et des services de fichier
disponibles en continu aux applications de serveur et répondent rapidement aux
demandes croissantes en mettant simplement en ligne plus de serveurs. Tout ceci est
possible dans un environnement de production et cela est complètement transparent
pour l’application serveur.

Le serveur de fichiers avec montée en puissance parallèle fournit les avantages clés
suivants :

 Partages de fichiers actif-actif. Tous les nœuds de cluster peuvent accepter et


traiter les demandes du client SMB. En rendant accessible le contenu des partages
de fichiers via tous les nœuds du cluster simultanément, les clients et clusters SMB
3.0 coopèrent pour fournir un basculement transparent vers d’autres nœuds de
cluster au cours de la maintenance planifiée et des défaillances non planifiées
avec interruption de service.
 Bande passante augmentée. La bande passante maximale de partage est la
bande passante totale de tous les nœuds de cluster de serveurs de fichiers. À la
différence des versions précédentes de Windows Server, la bande passante totale
n’est plus limitée à la bande passante d’un seul nœud du cluster : c’est la capacité
du système de stockage de secours qui définit les contraintes. Vous pouvez
augmenter la bande passante totale en ajoutant des nœuds.
 CHKDSK avec temps d’interruption nul. CHKDSK dans Windows Server 2012 a
été nettement amélioré pour raccourcir considérablement le temps de qu'un
système de fichiers est hors connexion pour réparation. Les volumes partagés de
cluster (CSV) vont encore plus loin en éliminant la phase hors connexion. Un
système de fichiers CSV (CSVFS) peut utiliser CHKDSK sans affecter les
applications avec des handles ouverts sur le système de fichiers.
 Cache de Volume partagé de cluster. Volumes partagés de cluster dans
Windows Server 2012 introduit la prise en charge pour un cache de lecture, ce qui
peut améliorer considérablement les performances dans certains scénarios,
comme dans Virtual Desktop Infrastructure (VDI).
 Gestion simplifiée. Avec le serveur de fichiers avec montée en puissance, vous
créez les serveurs de fichiers de montée en puissance, puis ajoutez les volumes
partagés de cluster nécessaires et les partages de fichiers. Il n’est plus nécessaire
de créer plusieurs serveurs de fichiers en cluster, chacun avec des disques de
cluster distincts, puis de développer des stratégies de positionnement pour
garantir l’activité sur chaque nœud du cluster.
 Rééquilibrage automatique des clients de serveur de fichiers avec montée en
puissance.Dans Windows Server 2012 R2, le rééquilibrage automatique améliore
l’extensibilité et la facilité de gestion des serveurs de fichiers de montée en
puissance. Les connexions client SMB sont suivies par partage de fichier (plutôt
que par serveur) et les clients sont redirigés vers le nœud de cluster qui propose
le meilleur accès au volume utilisé par le partage de fichiers. Cela améliore
l’efficacité en réduisant le trafic entre les nœuds du serveur de fichiers. Les clients
sont redirigés suite à une connexion initiale et quand le stockage en cluster est
configuré.
Dans ce scénario

Les rubriques suivantes sont disponibles pour vous aider à déployer un serveur de
fichiers avec montée en puissance parallèle :

 Plan pour le serveur de fichiers avec montée en puissance


o Étape 1 : Planifier le stockage dans le serveur de fichiers avec montée en
puissance
o Étape 2 : Plan for Networking in Scale-Out File Server
 Déployer le serveur de fichiers avec montée en puissance
o Étape 1 : Installez les composants requis pour le serveur de fichiers avec
montée en puissance
o Étape 2 : Configurer le serveur de fichiers avec montée en puissance
o Étape 3 : Configurer Hyper-V pour utiliser le serveur de fichiers avec montée en
puissance
o Étape 4 : Configurer Microsoft SQL Server pour utiliser le serveur de fichiers
avec montée en puissance
Quand utiliser un serveur de fichiers avec montée en puissance
parallèle

Vous ne devez pas utiliser un serveur de fichiers avec montée en puissance parallèle si
votre charge de travail génère un nombre élevé d’opérations de métadonnées, telles
que l’ouverture de fichiers, la fermeture de fichiers, la création de nouveaux fichiers ou
le changement de nom des fichiers existants. Un travailleur de l’information standard
peut générer un grand nombre d’opérations de métadonnées. Vous devez utiliser un
serveur de fichiers avec montée en puissance parallèle si vous êtes intéressé par
l’extensibilité et la simplicité qu’il offre et si vous avez seulement besoin des
technologies prises en charge avec le serveur de fichiers avec montée en puissance
parallèle.

Le tableau suivant répertorie les fonctionnalités de SMB 3.0, les systèmes de fichiers
Windows courants, les technologies de gestion des données du serveur de fichiers et
les charges de travail courantes. Vous pouvez voir si la technologie est pris en charge
par le serveur de fichiers avec montée en puissance parallèle, ou si elle nécessite un
serveur de fichiers en cluster traditionnel (également appelé serveur de fichiers pour
une utilisation générale).

Cluster de serveurs de Serveur de fichiers


Domaine fichiers pour une avec montée en
technologique Fonctionnalité utilisation générale puissance parallèle

SMB Disponibilité continue Oui Oui


SMB
Cluster de serveurs de Serveur de fichiers
Domaine fichiers pour une avec montée en
technologique Fonctionnalité utilisation générale puissance parallèle

SMB SMB Multichannel Oui Oui

SMB SMB Direct Oui Oui

SMB Chiffrement SMB Oui Oui

SMB Basculement transparent Oui (si la disponibilité Oui


SMB continue est activée)

Système de NTFS Oui N/A


fichiers

Système de Système de fichiers Recommandé avec Recommandé avec


fichiers résilient (ReFS) stockage espaces stockage espaces
Direct Direct

Système de Système de fichier de N/A Oui


fichiers volume partagé de
cluster (CSV)

Gestion des BranchCache Oui Non


fichiers

Gestion des Déduplication des Oui Non


fichiers données (Windows
Server 2012)

Gestion des Déduplication des Oui Oui (VDI uniquement)


fichiers données (Windows
Server 2012 R2)
Cluster de serveurs de Serveur de fichiers
Domaine fichiers pour une avec montée en
technologique Fonctionnalité utilisation générale puissance parallèle

Gestion des Racine du serveur racine Oui Non


fichiers d’espace de noms DFS
(DFSN)

Gestion des Serveur cible du dossier Oui Oui


fichiers d’espace de noms DFS
(DFSN)

Gestion des Réplication DFS (DFSR) Oui Non


fichiers

Gestion des Gestionnaire de Oui Non


fichiers ressources du serveur de
fichiers (Écrans et quotas)

Gestion des Infrastructure de Oui Non


fichiers classification des fichiers

Gestion des Contrôle d’accès Oui Non


fichiers dynamique (accès à base
de revendications, CAP)

Gestion des Redirection de dossiers Oui Non recommandé


fichiers

Gestion des Fichiers hors connexion Oui Non recommandé


fichiers (cache côté client)

Gestion des Profils utilisateur Oui Non recommandé


fichiers itinérants

Gestion des Répertoires de base Oui Non recommandé


Cluster de serveurs de Serveur de fichiers
Domaine fichiers pour une avec montée en
technologique Fonctionnalité utilisation générale puissance parallèle

fichiers

Gestion des Dossiers de travail Oui Non


fichiers

NFS Serveur NFS Oui Non

Applications Hyper-V Non recommandé Oui

Applications Microsoft SQL Server Non recommandé Oui

* La Redirection de dossiers, fichiers hors connexion, les profils utilisateur itinérants ou


répertoires de base génèrent un grand nombre d’écritures qui doivent être écrites
immédiatement sur le disque (sans mise en mémoire tampon) lorsque vous utilisez des
partages de fichiers disponibles en permanence, ce qui réduit les performances par
rapport à partages de fichiers à usage général. Les partages de fichiers disponibles en
permanence sont également incompatibles avec les outils de gestion de ressources
pour serveur de fichiers et les PC exécutant Windows XP. En outre, la fonctionnalité
Fichiers hors connexion ne peut pas passer en mode hors connexion durant un délai
compris entre 3 et 6 minutes après qu’un utilisateur perd l’accès à un partage, ce qui
peut nuire aux utilisateurs qui n’utilisent pas le mode Toujours hors connexion de la
fonctionnalité Fichiers hors connexion.

Cas pratiques

Les serveurs de fichiers avec montée en puissance parallèle sont idéaux pour le
stockage d’applications serveur. Voici quelques exemples d’applications serveur qui
peuvent stocker leurs données sur un partage de fichiers avec montée en puissance
parallèle :

 Le serveur web IIS (Internet Information Services) peut stocker la configuration et


les données des sites web sur un partage de fichiers avec montée en puissance
parallèle. Pour plus d’informations, voir Configuration partagée.
 Hyper-V peut stocker la configuration et les disques virtuels en direct sur un
partage de fichiers avec montée en puissance parallèle. Pour plus d’informations,
voir Déployer Hyper-V sur SMB.
 SQL Server permet de stocker des fichiers de base de données en direct sur des
partages de fichiers avec montée en puissance parallèle. Pour plus d’informations,
voir Installer SQL Server avec le partage de fichiers SMB en tant qu’option de
stockage.
 Virtual Machine Manager (VMM) peut stocker un partage de bibliothèque
(contenant des modèles d’ordinateurs virtuels et leurs fichiers associés) sur un
partage de fichiers avec montée en puissance parallèle. Toutefois, le serveur de
bibliothèque lui-même ne peut pas être un serveur de fichiers avec montée en
puissance, il doit se trouver sur un serveur autonome ou un cluster de
basculement qui n’utilise pas le rôle de cluster de serveur de fichiers avec montée
en puissance.

Si vous utilisez un partage de fichiers avec montée en puissance parallèle en tant que
partage de bibliothèque, vous pouvez utiliser uniquement les technologies compatibles
avec le serveur de fichiers avec montée en puissance parallèle. Par exemple, vous ne
pouvez pas utiliser la réplication DFS pour répliquer un partage de bibliothèque
hébergé sur un partage de fichiers avec montée en puissance parallèle. Il est également
important que les dernières mises à jour de logiciels soient installées sur le serveur de
fichiers avec montée en puissance parallèle.

Pour utiliser un partage de fichiers avec montée en puissance parallèle en tant que
partage de bibliothèque, vous devez d’abord ajouter un serveur de bibliothèque
(généralement, un ordinateur virtuel) avec un partage local ou sans aucun partage. Puis,
lorsque vous ajoutez un partage de bibliothèque, choisissez un partage de fichiers
hébergé sur un serveur de fichiers avec montée en puissance parallèle. Ce partage doit
être géré par VMM et créé pour être utilisé exclusivement par le serveur de
bibliothèque. Veillez également à installer les dernières mises à jour sur le serveur de
fichiers avec montée en puissance parallèle. Pour plus d’informations sur l’ajout de
serveurs de bibliothèque VMM et partages de bibliothèque, consultez ajouter des
profils à la bibliothèque VMM.Pour obtenir la liste des correctifs actuellement
disponibles pour les services de fichiers et de stockage, consultez l’article 2899011 de la
Base de connaissances Microsoft.

Notes

Certains utilisateurs, comme les travailleurs de l’information, ont des charges de travail
qui ont un impact plus important sur les performances. Par exemple, lorsque des
opérations telles que l’ouverture et la fermeture de fichiers, la création de fichiers et le
changement de nom de fichiers existants, sont effectuées par plusieurs utilisateurs, cela
peut avoir un impact sur les performances. Si un partage de fichiers est activé avec une
disponibilité continue, il permet l’intégrité des données, mais affecte également les
performances globales. La disponibilité continue nécessite une écriture des données sur
le disque afin de garantir l’intégrité en cas de défaillance d’un nœud de cluster dans un
serveur de fichiers avec montée en puissance parallèle. Par conséquent, un utilisateur
qui copie plusieurs fichiers volumineux sur un serveur de fichiers peut s’attendre à une
baisse des performances sur le partage de fichiers disponible en continu.
Fonctionnalités incluses dans ce scénario

Le tableau ci-dessous répertorie les fonctionnalités incluses dans ce scénario et détaille


la manière dont elles prennent en charge ce dernier.

Fonctionnalité Prise en charge de ce scénario

Clustering de Clusters de basculement ajouté les fonctionnalités suivantes dans Windows


basculement Server 2012 pour prendre en charge du serveur de fichiers avec montée en
puissance : Nom de réseau distribué, le type de ressource de serveur de fichiers
avec montée en puissance, Cluster Shared Volumes (CSV) 2 et le rôle serveur de
fichiers Scale-Out haute disponibilité. Pour plus d’informations sur ces
fonctionnalités, consultez que'Nouveautés de Clustering de basculement dans
Windows Server 2012 [redirigé].

Server Message SMB 3.0 a ajouté les fonctionnalités suivantes dans Windows Server 2012 pour
Block prendre en charge du serveur de fichiers avec montée en puissance :
Basculement transparent SMB, SMB Multichannel et SMB Direct.

Pour plus d’informations sur les fonctionnalités nouvelles et modifiées pour SMB
dans Windows Server 2012 R2, consultez que'Nouveautés de SMB dans
Windows Server.

Informations supplémentaires
 Guide de considérations de conception de Software-Defined Storage
 Augmenter la disponibilité des serveurs, stockage et réseau
 Déployer Hyper-V sur SMB
 Déploiement de serveurs de fichiers rapides et efficaces pour les Applications
serveur
 Monter en puissance, ou ne pas monter en puissance, là est la question (billet de
blog)
 La Redirection de dossiers, les fichiers hors connexion et les profils utilisateur
itinérants

Quorum de cluster et pool de


présentation
 18/01/2019
 12 minutes de lecture

o
o

S’applique à : Windows Server 2019, Windows Server 2016

Clustering de basculement Windows Server offre une haute disponibilité pour les
charges de travail.Ces ressources sont considérés comme hautement disponibles si les
nœuds qui hébergent les ressources sont Toutefois, le cluster requiert généralement
plus de la moitié des nœuds pour être en cours d’exécution, ce qui est connu comme
ayant quorum.

Quorum est conçu pour éviter « split brain » des scénarios qui peuvent se produire
lorsqu’il existe une partition dans le réseau et des sous-ensembles de nœuds ne
peuvent pas communiquer entre eux. Cela peut entraîner les deux sous-ensembles de
nœuds pour essayer de propriétaire de la charge de travail et d’écrire dans le même
disque, ce qui peut entraîner de nombreux problèmes.Toutefois, cette fonction est
bloquée avec un concept du Clustering de basculement de quorum qui force
uniquement un de ces groupes de nœuds pour continuer l’exécution, afin que seul l’un
des ces groupes est restent en ligne.

Quorum détermine le nombre d’échecs que le cluster peut soutenir tout en restant en
ligne.Quorum est conçu pour gérer le scénario lorsqu’il existe un problème de
communication entre des sous-ensembles de nœuds de cluster, afin que plusieurs
serveurs n’essayez pas d’héberger un groupe de ressources simultanément et d’écriture
sur le même disque en même temps. En ayant ce concept de quorum, le cluster force le
service de cluster à arrêter dans un des sous-ensembles de nœuds pour vous assurer
qu’il n'existe qu’un seul véritable propriétaire d’un groupe de ressources
particulier. Une fois que les nœuds qui ont été arrêtés peuvent là aussi communiquer
avec le groupe principal de nœuds, ils seront automatiquement rejoindre le cluster de
leur service de cluster.

Dans Windows Server 2019 et Windows Server 2016, il existe deux composants du
système qui possèdent leurs propres mécanismes de quorum :

 Quorum du cluster: Cela fonctionne au niveau du cluster (par exemple, vous


pouvez perdre des nœuds et le cluster reste opérationnelle)
 Pool Quorum: Cela fonctionne au niveau du pool lorsque les espaces de stockage
Direct est activé (par exemple, vous pouvez perdre des nœuds et des disques et le
pool de rester opérationnel). Pools de stockage ont été conçus pour être utilisé
dans les scénarios de cluster et non-cluster, c’est pourquoi ils ont un mécanisme
de quorum différents.
Vue d’ensemble du quorum de cluster

Le tableau ci-dessous donne une vue d’ensemble de résultats de Quorum du Cluster


par scénario :

Peut survivre à
Peut survivre à une défaillance de nœud Peut survivre à deux
Nœuds de défaillance de nœud d’un serveur, puis un défaillances de nœud de
serveur de serveur autre serveur simultanées

2 50/50 Non Non

2 + témoin Oui Non Non

3 Oui 50/50 Non

3 + témoin Oui Oui Non

4 Oui Oui 50/50

4 + témoin Oui Oui Oui


Peut survivre à
Peut survivre à une défaillance de nœud Peut survivre à deux
Nœuds de défaillance de nœud d’un serveur, puis un défaillances de nœud de
serveur de serveur autre serveur simultanées

5 et versions Oui Oui Oui


ultérieures

Recommandations de quorum de cluster


 Si vous avez deux nœuds, un témoin est requis.
 Si vous avez trois ou quatre nœuds, le témoin est fortement recommandé.
 Si vous avez accès à Internet, utilisez un cloud témoin
 Si vous êtes dans un environnement informatique avec d’autres ordinateurs et les
partages de fichiers, utiliser un témoin de partage de fichiers
Le fonctionnement du quorum de cluster

Lorsque les nœuds échouent, ou lorsqu’un sous-ensemble de nœuds perd le contact


avec un autre sous-ensemble, nœuds survivants doivent vérifier qu’ils constituent
le majorité du cluster de rester en ligne. Si elles ne peuvent pas vérifier que, rétorquent
hors connexion.

Mais le concept de majorité uniquement fonctionne correctement lorsque le nombre


total de nœuds du cluster est impair (par exemple, trois nœuds dans un cluster à cinq
nœuds). Par conséquent, qu’en est-il des clusters avec un nombre pair de nœuds (par
exemple, un cluster à quatre nœuds) ?

Il existe deux façons le cluster peut rendre le nombre total de votes impair :

1. Tout d’abord, il peut aller des une en ajoutant un témoin avec un vote
supplémentaire. Cela nécessite la configuration de l’utilisateur.
2. Vous pouvez aussi, il peut vers le bas un en mettant à zéro le vote d’un nœud
dans d’autres (se produit automatiquement en fonction des besoins).

Chaque fois que les nœuds survivants correctement vérifier qu’ils sont le majorité, la
définition de majorité est mis à jour pour être entre simplement les survivants. Cela
permet au cluster à perdre un nœud, puis un autre, puis un autre et ainsi de suite. Ce
concept de la nombre total de votesadaptation après des échecs consécutifs est
appelé quorum dynamique.

Témoin dynamique

Témoin dynamique active ou désactive le vote du témoin pour vous assurer que
le nombre total de votes est impair. S’il existe un nombre impair de voix, le témoin n’a
pas un vote. En l’absence d’un nombre pair de votes, le témoin dispose d’un
vote. Témoin dynamique réduit considérablement le risque que le cluster va être arrêté
en raison de l’échec de témoin. Le cluster décide s’il faut utiliser le vote témoin en
fonction du nombre de nœuds votants qui sont disponibles dans le cluster.

Quorum dynamique fonctionne avec témoin dynamique de la façon décrite ci-dessous.

Comportement du quorum dynamique


 Si vous avez un même nombre de nœuds et aucun témoin, un seul nœud obtient
son vote remis à zéro. Par exemple, seulement trois des quatre nœuds obtiennent
voix, donc la nombre total de votes est trois, et deux survivants avec les votes sont
considérés comme une majorité.
 Si vous avez un impair nombre de nœuds et aucun témoin, pouvoir tous les votes.
 Si vous avez un même nombre de nœuds ainsi que le témoin, le témoin votes, de
sorte que le total est impair.
 Si vous avez un impair nombre de nœuds ainsi que le témoin, le témoin ne vote.

Quorum dynamique vous permettent d’assigner un vote à un nœud dynamiquement


pour éviter de perdre la majorité des votes et permettre au cluster de s’exécuter avec
un seul nœud (appelé permanent de la dernière-man). Prenons un cluster à quatre
nœuds comme un exemple. Supposons que quorum nécessite 3 votes.

Dans ce cas, le cluster auraient vers le bas si vous avez perdu à deux nœuds.

Toutefois, quorum dynamique permet d’éviter ce problème. Le nombre total de


votes requis pour le quorum est maintenant déterminé en fonction du nombre de
nœuds disponibles. Par conséquent, avec quorum dynamique, le cluster continuera
même si vous perdez des trois nœuds.
Le scénario ci-dessus s’applique à un cluster général dépourvu d’espaces de stockage
Direct est activé. Toutefois, espaces de stockage Direct est activé, le cluster peut
uniquement prendre en charge deux défaillances de nœud. Cela est expliqué plus dans
le section de quorum de pool.

Exemples
Deux nœuds sans témoin.

Vote d’un nœud est remis à zéro, afin que la majorité vote est déterminé sur un total
de 1 vote. Si le nœud non-votant s’arrête inopinément, survivant a 1/1 et le cluster
survit. Si le vote du nœud tombe en panne inattendue, survivant a 0/1 et le cluster
tombe en panne. Si le nœud de vote est mis hors tension normalement, le vote est
transféré vers l’autre nœud et le cluster survit. C’est pourquoi il est essentiel pour
configurer un témoin.

 Peut survivre à une défaillance du serveur : 50 % de chance.


 Peut survivre à la défaillance d’un serveur, puis une autre : No.
 Peut surmonter les défaillances de serveur deux à la fois : No.
Deux nœuds avec un témoin.

Les deux nœuds votants, ainsi que les votes le témoin, la majorité est déterminée sur un
total de 3 votes. Si des nœuds tombe en panne, survivant a 2/3 et le cluster survit.

 Peut survivre à une défaillance du serveur : Oui.


 Peut survivre à la défaillance d’un serveur, puis une autre : No.
 Peut surmonter les défaillances de serveur deux à la fois : No.
Trois nœuds sans témoin.

Tous les nœuds de votent, afin que la majorité est déterminée sur un total de 3
votes. Si n’importe quel nœud tombe en panne, les survivants sont 2/3 et le cluster
survit. Le cluster présente deux nœuds sans témoin : à ce stade, vous êtes dans le
scénario 1.
 Peut survivre à une défaillance du serveur : Oui.
 Peut survivre à la défaillance d’un serveur, puis une autre : 50 % de chance.
 Peut surmonter les défaillances de serveur deux à la fois : No.
Trois nœuds avec un témoin.

Tous les nœuds de votent, donc le témoin ne vote initialement. Le majorité est
déterminée sur un total de 3 votes. Après un échec, le cluster a deux nœuds avec un
témoin – ce qui correspond au scénario 2. Donc, maintenant les deux nœuds et le
témoin votent.

 Peut survivre à une défaillance du serveur : Oui.


 Peut survivre à la défaillance d’un serveur, puis une autre : Oui.
 Peut surmonter les défaillances de serveur deux à la fois : No.
Quatre nœuds sans témoin

Vote d’un nœud est remis à zéro, afin que la majorité est déterminée sur un total de 3
votes. Après un échec, le cluster présente trois nœuds, et vous êtes dans le scénario 3.
 Peut survivre à une défaillance du serveur : Oui.
 Peut survivre à la défaillance d’un serveur, puis une autre : Oui.
 Peut surmonter les défaillances de serveur deux à la fois : 50 % de chance.
Quatre nœuds avec un témoin.

Tous les votes de nœuds et les votes de témoin, donc la majorité est déterminée sur un
total de 5 votes. Après un échec, vous êtes dans le scénario 4. Après deux défaillances
simultanées, vous passez à scénario 2.

 Peut survivre à une défaillance du serveur : Oui.


 Peut survivre à la défaillance d’un serveur, puis une autre : Oui.
 Peut surmonter les défaillances de serveur deux à la fois : Oui.
Cinq nœuds et au-delà.

Tous les nœuds votants, ou un seul vote, quelle que soit, le total impair. Espaces de
stockage Direct ne peut pas gérer plus de deux nœuds vers le bas en tout cas, par
conséquent, à ce stade, aucun témoin n’est nécessaire ou utile.

 Peut survivre à une défaillance du serveur : Oui.


 Peut survivre à la défaillance d’un serveur, puis une autre : Oui.
 Peut surmonter les défaillances de serveur deux à la fois : Oui.

Maintenant que nous comprenons le fonctionnement du quorum, examinons les types


de témoins de quorum.

Types de témoin de quorum

Le Clustering de basculement prend en charge trois types de témoins de Quorum :


 Témoin de cloud -le stockage Blob en Azure accessible par tous les nœuds du
cluster. Il conserve les informations de mise en cluster dans un fichier witness.log,
mais ne stocke pas une copie de la base de données de cluster.
 Le témoin de partage de fichiers – partage de fichiers SMB de A qui est
configuré sur un serveur de fichiers exécutant Windows Server. Il conserve les
informations de mise en cluster dans un fichier witness.log, mais ne stocke pas
une copie de la base de données de cluster.
 Disque témoin -un petit disque en cluster qui se trouve dans le groupe de
stockage disponible du Cluster. Ce disque est hautement disponible et peut
basculer entre les nœuds. Il contient une copie de la base de données de
cluster. Un témoin de disque n’est pas pris en charge avec les espaces de
stockage Direct.
Vue d’ensemble du quorum de pool

Nous venons de parler de Quorum du Cluster, qui fonctionne au niveau du cluster. À


présent, examinons le Quorum de Pool, qui fonctionne au niveau du pool (par exemple,
vous pouvez perdre des nœuds et lecteurs et avez le pool de rester opérationnel). Pools
de stockage ont été conçus pour être utilisé dans les scénarios de cluster et non-
cluster, c’est pourquoi ils ont un mécanisme de quorum différents.

Le tableau ci-dessous donne une vue d’ensemble de résultats de Quorum de Pool par
scénario :

Peut survivre à
Peut survivre à une défaillance de nœud Peut survivre à deux
Nœuds de défaillance de nœud d’un serveur, puis un défaillances de nœud de
serveur de serveur autre serveur simultanées

2 Non Non Non

2 + témoin Oui Non Non

3 Oui Non Non

3 + témoin Oui Non Non

4 Oui Non Non

4 + témoin Oui Oui Oui


Peut survivre à
Peut survivre à une défaillance de nœud Peut survivre à deux
Nœuds de défaillance de nœud d’un serveur, puis un défaillances de nœud de
serveur de serveur autre serveur simultanées

5 et versions Oui Oui Oui


ultérieures

Le fonctionnement du quorum de pool

Cas d’échouent des lecteurs, ou quand un sous-ensemble des lecteurs perd le contact
avec un autre sous-ensemble, lecteurs survivants doivent avoir vérifier qu’ils constituent
le majorité du pool de rester en ligne. Si elles ne peuvent pas vérifier que, rétorquent
hors connexion. Le pool est l’entité qui est mis hors connexion ou reste en ligne selon
qu’il dispose de suffisamment de disques pour le quorum (50 % + 1). Le propriétaire de
ressource du pool (nœud de cluster actif) peut être le + 1.

Mais le quorum de pool fonctionne différemment de quorum du cluster comme suit :

 le pool utilise un seul nœud dans le cluster en tant que témoin comme décisive de
résister à la moitié des lecteurs disparus (ce nœud qui est le propriétaire de
ressource de pool)
 le pool n’a pas de quorum dynamique
 le pool n’implémente pas sa propre version de la suppression d’un vote
Exemples
Quatre nœuds avec une disposition symétrique.

Chacun des 16 disques a un vote et nœud deux a également un vote (dans la mesure
où il est propriétaire de la ressource de pool). Le majorité est déterminée sur un total
de 16 votes. Si les nœuds trois et quatre tombent en panne, le sous-ensemble
survivant a 8 disques et le propriétaire de la ressource de pool, est 9/16 votes. Par
conséquent, le pool survit.
 Peut survivre à une défaillance du serveur : Oui.
 Peut survivre à la défaillance d’un serveur, puis une autre : Oui.
 Peut surmonter les défaillances de serveur deux à la fois : Oui.
Quatre nœuds avec un échec de mise en page et lecteur symétrique.

Chacun des 16 disques a un vote et nœud 2 a également un vote (dans la mesure où il


est propriétaire de la ressource de pool). Le majorité est déterminée sur un total de 16
votes. Tout d’abord, le lecteur 7 tombe en panne. Si les nœuds trois et quatre tombent
en panne, le sous-ensemble survivant a 7 disques et le propriétaire de la ressource de
pool, est de 8/16 votes. Par conséquent, le pool n’a pas majorité et tombe en panne.
 Peut survivre à une défaillance du serveur : Oui.
 Peut survivre à la défaillance d’un serveur, puis une autre : No.
 Peut surmonter les défaillances de serveur deux à la fois : No.
Quatre nœuds avec une disposition non symétrique.

Chacun des 24 disques a un vote et nœud deux a également un vote (dans la mesure
où il est propriétaire de la ressource de pool). Le majorité est déterminée sur un total
de 24 votes. Si les nœuds trois et quatre tombent en panne, le sous-ensemble
survivant a 8 disques et le propriétaire de la ressource de pool, est 9/24 votes. Par
conséquent, le pool n’a pas majorité et tombe en panne.
 Peut survivre à une défaillance du serveur : Oui.
 Peut survivre à l’échec d’un serveur, puis une autre : ** Depends ** (ne peut pas
survivre à si les deux nœuds, trois et quatre tombent en panne, mais peuvent
survivre à tous les autres scénarios.
 Peut survivre à deux défaillances de serveur à la fois : ** Depends ** (ne peut pas
survivre à si les deux nœuds, trois et quatre tombent en panne, mais peuvent
survivre à tous les autres scénarios.
Recommandations de quorum de pool
 Assurez-vous que chaque nœud dans votre cluster est symétrique (chaque nœud
a le même nombre de disques)
 Activer le miroir trois voies ou double parité afin que vous pouvez tolérer un
défaillances de nœud et conserver les disques virtuels en ligne. Consultez
notre page du Guide de volumepour plus d’informations.
 Si plus de deux nœuds sont arrêtés ou deux nœuds et un disque sur un autre
nœud sont arrêtés, volumes n’aient pas accès à toutes les trois copies de leurs
données et par conséquent être mis hors connexion et ne pas être disponibles. Il
est recommandé pour ramener les serveurs ou de remplacer les disques
rapidement pour garantir la résilience de la plupart pour toutes les données dans
le volume.
Informations supplémentaires
 Configurer et gérer le quorum
 Déployer un témoin cloud

Jeux de clusters
 30/01/2019
 24 minutes de lecture

o

S’applique à : Windows Server 2019

Ensembles de cluster est la nouvelle technologie de montée en puissance de cloud


dans la version de Windows Server 2019 qui augmente le nombre de nœuds de cluster
dans un seul cloud logiciel défini Data Center (SDDC) Privilégiant par ordre de
grandeur. Un ensemble de cluster est un regroupement faiblement couplés de
plusieurs Clusters de basculement : calcul, le stockage ou hyperconvergé. Cluster à
haute technologie permet fluidité de machine virtuelle sur des clusters membre au sein
d’un ensemble de cluster et un espace de noms de stockage unifié sur l’ensemble pour
prendre en charge la fluidité de machine virtuelle.

Alors que la préservation gestion du Cluster de basculement existante des expériences


sur des clusters de membre, une instance de cluster offre en outre des principaux cas
d’usage dans la gestion du cycle de vie à l’agrégat. Ce Guide d’évaluation de Windows
Server 2019 scénario fournit les informations nécessaires en arrière-plan, ainsi que des
instructions pas à pas pour évaluer la technologie de jeux de cluster à l’aide de
PowerShell.

Présentation de technologie

Technologie de jeux de cluster est développée pour répondre aux demandes des
clients spécifiques d’exploitation de clouds de logiciels définie par centre de données
(SDDC) à grande échelle.Proposition de valeur de jeux de cluster peut être résumée
comme suit :

 Augmenter considérablement l’échelle du cloud SDDC pris en charge pour


l’exécution de machines virtuelles hautement disponibles en combinant plusieurs
clusters plus petits dans une seule infrastructure de grande taille, même tout en
conservant de la limite de pannes logicielles à un seul cluster
 Gérer l’intégralité de cycle de vie du Cluster de basculement, y compris
l’intégration et la mise hors service des clusters, sans affecter la disponibilité de
machine virtuelle de locataire, par le biais de migration avec fluidité les machines
virtuelles dans cette structure volumineux
 Facilement modifier le taux de calcul vers le stockage dans votre hyperconvergé je
 Tirer parti de jeux de domaines d’erreur semblable à Azure et disponibilité sur des
clusters dans la sélection élective de machine virtuelle initiale et de migration
d’ordinateurs virtuels ultérieurs
 Mélanger et différentes générations de matériel de l’UC dans le même cluster
définir fabric, même lors de la conservation des domaines d’erreur individuels
homogène pour une efficacité maximum. Veuillez noter que la recommandation
du même matériel est encore présente dans chaque cluster individuel, ainsi que
l’ensemble de l’ensemble du cluster.

À partir d’une vue de haut niveau, il s’agit de quel cluster jeux peuvent ressembler.
Ce qui suit fournit un résumé rapide de chacun des éléments dans l’image ci-dessus :

Cluster de gestion

Cluster de gestion dans un ensemble de cluster est un Cluster de basculement qui


héberge le plan de haut niveau de gestion de l’ensemble de l’ensemble du cluster et de
la référence (Cluster définir Namespace) de l’espace de noms de stockage unifié
serveur de fichiers avec montée en puissance (SOFS). Un cluster de gestion est
logiquement découplé à partir de clusters de membre qui s’exécutent les charges de
travail de machine virtuelle. Cela rend le cluster à haute plan de gestion résiliente à
n’importe quel cluster à l’échelle les défaillances localisées, par exemple, une perte
d’alimentation d’un cluster de membre.

Cluster de membre
Un cluster de membre dans un ensemble de cluster est généralement un cluster
hyperconvergé traditionnel en cours d’exécution des charges de travail espaces de
stockage Direct et de la machine virtuelle. Plusieurs clusters membre participent à un
déploiement de jeu de cluster unique, qui forment la structure du cloud SDDC
supérieure. Les clusters de membre diffèrent d’un cluster de gestion dans les deux
principaux aspects : clusters de membre participent au domaine d’erreur et
constructions à haute disponibilité, et les clusters de membre sont également ajustées
à des charges de travail espaces de stockage Direct et de la machine virtuelle
hôte. Cluster machines virtuelles qui déplacent au-delà des limites de cluster dans un
ensemble de cluster ne doit pas être hébergés sur le cluster de gestion pour cette
raison.

Cluster de définie la référence de l’espace de noms SOFS

Une référence d’espace de noms cluster ensemble (Cluster définir Namespace) SOFS
est un serveur de fichiers de montée en puissance dans laquelle chaque partage SMB
sur le serveur SOFS Cluster définir Namespace est un partage de référence – de type
« SimpleReferral » qui vient d’être introduite dans Windows Server 2019. Cette
référence permet d’accéder à la cible de partage SMB hébergée sur le cluster de
membre SOFS clients de Server Message Block (SMB). Le jeu de clusters référence
d’espace de noms SOFS est un mécanisme de redirection de légers et par conséquent,
n’est pas inclus dans le chemin d’accès d’e/s. Les références de SMB sont mis en cache
permanente sur chacun des nœuds client et l’espace de noms de jeux de cluster met
dynamiquement à jour automatiquement ces références en fonction des besoins.

Ensemble principal de cluster

Dans un ensemble de cluster, la communication entre les clusters de membre est


faiblement couplée et est coordonnée par une nouvelle ressource de cluster appelée
« Cluster définir Master » (CS-Master). Comme toute autre ressource de cluster, CS-
Master est hautement disponible et résistante aux échecs de cluster individuels
membre et/ou les échecs de nœud de cluster de gestion.Via un nouveau fournisseur
WMI de Cluster défini, CS-Master fournit le point de terminaison de gestion pour
toutes les interactions de la facilité de gestion de Cluster défini.

Travail d’ensemble de cluster

Dans un déploiement de Cluster défini, le maître de CS interagit avec une nouvelle


ressource de cluster sur le membre Clusters appelés « Cluster définir Worker » (CS-
Worker). CS-Worker agit comme la liaison uniquement sur le cluster pour orchestrer les
interactions de cluster local, comme demandé par le maître de CS. Les exemples de ces
interactions de sélection élective de machine virtuelle et l’inventaire des ressources de
cluster local. Il en existe qu’une seule instance de CS-Worker pour chaque membre de
clusters dans un ensemble de cluster.

domaine d’erreur
Un domaine d’erreur est le regroupement des logiciels et des artefacts de matériel qui
détermine l’administrateur peut échouer ensemble lorsqu’une défaillance se
produit. Alors que l’administrateur peut désigner un ou plusieurs clusters ensemble
comme un domaine d’erreur, chaque nœud peut participer à un domaine d’erreur dans
un groupe à haute disponibilité. Cluster définit par conception laisse le choix de la
détermination de limites de domaine d’erreur à l’administrateur qui est familiarisé avec
les considérations de topologie de centre de données – par exemple, les PDU, mise en
réseau : partagent des clusters de membre.

Groupe à haute disponibilité

Un groupe à haute disponibilité permet à l’administrateur de configurer une


redondance souhaitée des charges de travail en cluster entre les domaines d’erreur, en
organiser ces informations dans un groupe à haute disponibilité et en déployant des
charges de travail dans ce groupe à haute disponibilité. Supposons que si vous
déployez une application à deux niveaux, nous vous recommandons de configurer au
moins deux machines virtuelles dans un groupe de disponibilité pour chaque niveau
afin de vous assurer que lorsqu’un domaine d’erreur dans ce groupe à haute
disponibilité tombe en panne, votre application dispose au moins une machine virtuelle
dans chaque niveau hébergé sur un domaine d’erreur différents de ce même groupe à
haute disponibilité.

Pourquoi utiliser des ensembles de cluster

Ensembles de cluster offre une mise à l’échelle sans pour autant sacrifier la résilience.

Ensembles de cluster permet une pour le clustering de plusieurs clusters ensemble pour
créer une structure de grande taille, tandis que chaque cluster reste indépendant pour
assurer la résilience. Par exemple, vous avez un HCL de 4 nœuds plusieurs clusters de
machines virtuelles en cours d’exécution. Chaque cluster fournit la résilience nécessaire
pour lui-même. Si la mémoire ou le stockage commence à augmenter, est l’étape
suivante. Avec montée en puissance, il existe quelques options et les considérations.

1. Ajouter du stockage au cluster en cours. Espaces de stockage Direct, cela peut


être difficile car les mêmes lecteurs de modèle/microprogramme n’est peut-être
pas disponibles. Vous devez également prendre en compte la prise en compte des
délais de régénération.
2. Ajoutez davantage de mémoire. Que se passe-t-il si vous sont atteint sa limite de
la mémoire, que les machines peuvent gérer ? Que se passe-t-il si tous les
emplacements de mémoire disponible sont saturées ?
3. Ajouter des nœuds de calcul supplémentaires avec des lecteurs dans le cluster
actuel. Revenez nous Option 1 avoir à prendre en considération.
4. Acheter un nouveau cluster

Il s’agit où les jeux de cluster offre une mise à l’échelle. Si j’ajoute mes clusters en un
ensemble de cluster, je peux profiter de stockage ou de la mémoire qui peut-être être
disponible sur un autre cluster sans les achats supplémentaires. Du point de vue de la
résilience, ajouter des nœuds à un espace de stockage Direct ne va pas à fournir des
votes supplémentaires pour le quorum. Comme mentionné ici, un Cluster à espaces de
stockage Direct peut survivre à la perte de 2 nœuds avant d’aller vers le bas. Si vous
disposez d’un cluster HCL 4, 3 nœuds arrêtent prendra l’ensemble du cluster vers le
bas. Si vous avez un cluster 8 nœuds, 3 nœuds arrêtent prendra l’ensemble du cluster
vers le bas. Avec les jeux de Cluster qui a deux clusters de HCL de 4 nœuds dans le jeu,
2 nœuds dans un seul HCL tombent en panne et 1 nœud dans l’autres HCL tombent en
panne, les deux clusters restent en fonction. Est-il préférable de créer un grand cluster
espaces de stockage Direct de 16 nœuds ou la décomposer en quatre clusters de 4
nœuds et utiliser des ensembles de cluster ?Avoir quatre clusters de 4 nœuds avec
cluster jeux donne la même échelle, mais une meilleure résilience dans la mesure où
plusieurs nœuds de calcul peuvent descendre (ou de façon inattendue pour la
maintenance) et reste en production.

Considérations relatives au déploiement des ensembles de cluster

Lorsque vous envisagez si les ensembles de cluster est quelque chose que vous devez
utiliser, posez-vous ces questions :

 Avez-vous besoin d’aller au-delà des HCL calcul et stockage à l’échelle limites
actuelles ?
 Diffèrent calcul et stockage identique ?
 En direct migrer les ordinateurs virtuels entre les clusters ?
 Voulez-vous que les groupes à haute disponibilité Azure de type ordinateur et les
domaines d’erreur sur plusieurs clusters ?
 Vous devez prendre le temps d’examiner tous vos clusters pour déterminer où les
nouvelles machines virtuelles doivent être placées ?

Si votre réponse est Oui, les ensembles de cluster est ce dont vous avez besoin.

Il existe quelques autres éléments à prendre en compte dans lequel une plus grande
SDDC peut changer vos stratégies de centre de données globale. SQL Server est un bon
exemple. Déplacement machines virtuelles de SQL Server entre des clusters requiert-il
SQL à exécuter sur des nœuds supplémentaires de gestion de licences ?

Serveur de fichiers avec montée en puissance et de jeux de cluster

Dans Windows Server 2019, il est appelé serveur de fichiers avec montée en puissance
Infrastructure (SOFS) un nouveau rôle de serveur de fichiers de montée en puissance.

Les considérations suivantes s’appliquent à un rôle d’Infrastructure SOFS :

1. Il peut y avoir qu’un seul rôle de cluster SOFS de l’Infrastructure sur un Cluster de
basculement.Rôle d’infrastructure SOFS est créée en spécifiant le « -
Infrastructure» changez le paramètre à la Add-
ClusterScaleOutFileServerRole applet de commande. Exemple :
Copier

Add-ClusterScaleoutFileServerRole -Name "my_infra_sofs_name" -


Infrastructure

2. Chaque volume partagé de cluster créé automatiquement dans le basculement


déclenche la création d’un partage SMB avec un nom généré automatiquement
en fonction du nom de volume CSV. Un administrateur ne peut pas créer ou
modifier directement des partages SMB dans un rôle de serveur SOFS, autres que
via des opérations de création/modification de volume CSV.
3. Dans les configurations hyperconvergées, un serveur SOFS Infrastructure permet à
un client SMB (hôte Hyper-V) pour communiquer avec garantie continue
disponibilité (CA) sur le serveur d’Infrastructure SOFS SMB. Cette boucle SMB
hyperconvergé autorité de certification est obtenue via l’accès à leurs fichiers de
disque virtuel (VHDx) où l’identité de machine virtuelle propriétaire est transférée
entre le client et le serveur des machines virtuelles. Ce transfert d’identité permet
aux fichiers de liste ACL en intégrant VHDx comme dans les configurations de
cluster hyperconvergé standard comme avant.

Une fois un ensemble de cluster est créé, l’espace de noms de jeu de cluster s’appuie
sur un serveur d’Infrastructure SOFS sur chacun des clusters de membre et, en outre, un
serveur SOFS Infrastructure dans le cluster de gestion.

Au moment où un cluster de membre est ajouté à un ensemble de cluster,


l’administrateur spécifie le nom d’un serveur SOFS Infrastructure sur ce cluster s’il en
existe déjà. Si le serveur d’Infrastructure SOFS n’existe pas, un nouveau rôle
d’Infrastructure SOFS sur le nouveau cluster de membre est créé par cette opération. Si
un rôle d’Infrastructure SOFS existe déjà sur le cluster de membre, l’opération d’ajout
implicitement renomme le nom spécifié en fonction des besoins. Les serveurs SMB
singleton existants, ni les rôles de serveur SOFS - Infrastructure sur le membre clusters
sont laissés inutilisés par l’ensemble du cluster.

Au moment de l’ensemble du cluster est créé, l’administrateur a la possibilité d’utiliser


un objet d’ordinateur Active Directory existante en tant que l’espace de noms racine sur
le cluster de gestion.Opérations de création de jeu de cluster créer le rôle de cluster
SOFS de l’Infrastructure sur le cluster de gestion ou renomme le rôle d’Infrastructure
SOFS existant juste comme décrit précédemment pour les clusters de membre. Le
serveur d’Infrastructure SOFS sur le cluster de gestion est utilisé comme référence de
l’espace de noms (Cluster définir Namespace) SOFS le cluster. Cela signifie simplement
que chaque partage SMB sur le cluster définie d’espace de noms que SOFS est un
partage de référence – de type « SimpleReferral » - qui vient d’être introduite dans
Windows Server 2019. Cette référence permet à SMB aux clients d’accéder à la cible de
partage SMB hébergé sur le cluster SOFS de membre. Le jeu de clusters référence
d’espace de noms SOFS est un mécanisme de redirection de légers et par conséquent,
n’est pas inclus dans le chemin d’accès d’e/s. Les références de SMB sont mis en cache
permanente sur chacun des nœuds client et l’espace de noms de jeux de cluster met
dynamiquement à jour automatiquement ces références en fonction des besoins
Création d’un ensemble de Cluster
Prérequis

Lorsque la valeur de la création d’un cluster, vous les prérequis suivants sont
recommandés :

1. Configurer un client de gestion exécutant Windows Server 2019.


2. Installer les outils de Cluster de basculement sur ce serveur d’administration.
3. Créer des membres du cluster (au moins deux clusters au moins deux Volumes
partagés de Cluster sur chaque cluster)
4. Créer un cluster de gestion (physique ou invité) qui rapproche les clusters de
membre. Cette approche garantit que les ensembles de Cluster plan de gestion
continue d’être disponibles malgré les échecs de cluster de membres possibles.
Étapes

1. Créer un cluster défini à partir de trois clusters, comme défini dans les conditions
préalables. Le sous graphique donne un exemple de clusters à créer. Le nom du
cluster défini dans cet exemple sera CSMASTER.

Nom du cluster Nom du serveur SOFS infrastructure pour une utilisation ultérieure

CLUSTER DE JEU CLUSTERSET SOFS

CLUSTER1 SOFS-CLUSTER1

CLUSTER2 SOFS-CLUSTER2

2. Une fois que tous les clusters ont été créées, utilisez les commandes suivantes
pour créer le cluster maître du jeu.

Copier

New-ClusterSet -Name CSMASTER -NamespaceRoot SOFS-CLUSTERSET -


CimSession SET-CLUSTER

3. Pour ajouter un serveur de Cluster à l’ensemble du cluster, le ci-dessous serait


utilisé.

Copier

Add-ClusterSetMember -ClusterName CLUSTER1 -CimSession CSMASTER -


InfraSOFSName SOFS-CLUSTER1
Add-ClusterSetMember -ClusterName CLUSTER2 -CimSession CSMASTER -
InfraSOFSName SOFS-CLUSTER2
Notes

Si vous utilisez un schéma d’adresse IP statique, vous devez inclure - StaticAddress


x.x.x.xsur le New-ClusterSet commande.

4. Une fois que vous avez créé le cluster définie en dehors des membres du cluster,
vous pouvez répertorier l’ensemble de nœuds et de ses propriétés. Pour énumérer
tous les clusters de membre dans l’ensemble du cluster :

Copier

Get-ClusterSetMember -CimSession CSMASTER

5. Pour énumérer tous les clusters de membre dans le cluster haute y compris les
nœuds de cluster de gestion :

Copier

Get-ClusterSet -CimSession CSMASTER | Get-Cluster | Get-ClusterNode

6. Pour répertorier tous les nœuds à partir des clusters de membre :

Copier

Get-ClusterSetNode -CimSession CSMASTER

7. Pour répertorier tous les groupes de ressources sur l’ensemble du cluster :

Copier

Get-ClusterSet -CimSession CSMASTER | Get-Cluster | Get-ClusterGroup

8. Pour vérifier le cluster de définie le processus de création créé un partage SMB


(identifié comme Volume1 ou quel que soit le dossier CSV est étiqueté avec le
ScopeName étant le nom du serveur de fichiers l’Infrastructure et le chemin
d’accès à la fois comme) sur le serveur d’Infrastructure SOFS pour chaque membre
de cluster Volume partagé de cluster :

Copier

Get-SmbShare -CimSession CSMASTER

9. Ensembles de cluster a des journaux de débogage qui peuvent être collectées


pour révision.Définie le cluster et les journaux de débogage de cluster peuvent
être rassemblées pour tous les membres et le cluster de gestion.

Copier
Get-ClusterSetLog -ClusterSetCimSession CSMASTER -IncludeClusterLog -
IncludeManagementClusterLog -DestinationFolderPath <path>

10. Configurer Kerberos la délégation contrainte entre cluster tous les membres du
jeu.
11. Configurer le type d’authentification de migration dynamique entre clusters virtual
machine pour Kerberos sur chaque nœud dans l’ensemble du Cluster.

Copier

foreach($h in $hosts){ Set-VMHost -


VirtualMachineMigrationAuthenticationType Kerberos -ComputerName $h }

12. Ajoutez le cluster de gestion au groupe Administrateurs local sur chaque nœud
dans l’ensemble du cluster.

Copier

foreach($h in $hosts){ Invoke-Command -ComputerName $h -ScriptBlock {Net


localgroup administrators /add <management_cluster_name>$} }
Création d’ordinateurs virtuels et l’ajout aux jeux de cluster

Une fois que la valeur de la création du cluster, l’étape suivante consiste à créer des
machines virtuelles. Normalement, lorsqu’il est temps pour créer des machines
virtuelles et les ajouter à un cluster, vous devez effectuer quelques vérifications sur les
clusters pour voir lequel il peut être préférable d’exécuter. Ces vérifications sont les
suivantes :

 La quantité de mémoire est disponible sur les nœuds de cluster ?


 La quantité d’espace disque est disponible sur les nœuds de cluster ?
 La machine virtuelle nécessite des exigences de stockage spécifique (par exemple,
je veux mes machines virtuelles de SQL Server pour accéder à un cluster en cours
d’exécution de disques rapides ; ou, ma machine virtuelle d’infrastructure n’est pas
aussi critique et peut s’exécuter sur des lecteurs plus lents).

Une fois ce questions sont traitées, vous créez la machine virtuelle sur le cluster que
vous avez besoin d’utiliser. Un des avantages des jeux de cluster est que les ensembles
de cluster effectuer ces vérifications pour vous et placer l’ordinateur virtuel sur le nœud
plus optimal.

Les commandes ci-dessous à la fois identifie le cluster optimal et déployer la machine


virtuelle sur celui-ci. Dans l’exemple ci-dessous, une nouvelle machine virtuelle est
créée en spécifiant qu’au moins 4 gigaoctets de mémoire est disponible pour la
machine virtuelle et qu’il est nécessaire d’utiliser 1 processeur virtuel.

 Assurez-vous que les 4 Go est disponible pour la machine virtuelle


 définir le processeur virtuel utilisé à 1
 Assurez-vous que moins de 10 % UC disponible pour la machine virtuelle
PowerShellCopier

# Identify the optimal node to create a new virtual machine


$memoryinMB=4096
$vpcount = 1
$targetnode = Get-ClusterSetOptimalNodeForVM -CimSession CSMASTER -
VMMemory $memoryinMB -VMVirtualCoreCount $vpcount -VMCpuReservation 10
$secure_string_pwd = convertto-securestring "<password>" -asplaintext -
force
$cred = new-object -typename System.Management.Automation.PSCredential
("<domain\account>",$secure_string_pwd)

# Deploy the virtual machine on the optimal node


Invoke-Command -ComputerName $targetnode.name -scriptblock {
param([String]$storagepath); New-VM CSVM1 -MemoryStartupBytes 3072MB -
path $storagepath -NewVHDPath CSVM.vhdx -NewVHDSizeBytes 4194304 } -
ArgumentList @("\\SOFS-CLUSTER1\VOLUME1") -Credential $cred | Out-Null

Start-VM CSVM1 -ComputerName $targetnode.name | Out-Null


Get-VM CSVM1 -ComputerName $targetnode.name | fl State, ComputerName

Lorsqu’elle est terminée, nous vous fournirons les informations sur la machine virtuelle
et où il a été placé. Dans l’exemple ci-dessus, il s’affichera comme :

Copier

State : Running
ComputerName : 1-S2D2

Si vous deviez n'avoir pas assez de mémoire, UC ou d’espace disque pour ajouter
l’ordinateur virtuel, vous recevrez l’erreur :

Copier

Get-ClusterSetOptimalNodeForVM : A cluster node is not available for this


operation.

Une fois que la machine virtuelle a été créée, il s’affichera dans le Gestionnaire Hyper-V
sur le nœud spécifique spécifié. Pour l’ajouter comme un cluster de machine virtuelle et
dans le cluster, la commande figure ci-dessous.

Copier

Register-ClusterSetVM -CimSession CSMASTER -MemberName $targetnode.Member


-VMName CSVM1

Lorsqu’elle est terminée, la sortie sera :

Copier

Id VMName State MemberName PSComputerName


-- ------ ----- ---------- --------------
1 CSVM1 On CLUSTER1 CSMASTER

Si vous avez ajouté un cluster avec des machines virtuelles existantes, les machines
virtuelles amené à inscrire avec Cluster jeux inscrire, toutes les machines virtuelles à la
fois, la commande à utiliser est :

Copier

Get-ClusterSetMember -name CLUSTER3 -CimSession CSMASTER | Register-


ClusterSetVM -RegisterAll -CimSession CSMASTER

Toutefois, le processus n’est pas terminé comme le chemin d’accès à la machine


virtuelle doit être ajouté à l’espace de noms de jeu de cluster.

Par exemple, un cluster existant est ajouté et il a des machines virtuelles préconfigurées
le se trouvent sur le local Cluster Volume partagé (CSV), le chemin d’accès pour le
VHDX serait quelque chose de similaire à « C:\ClusterStorage\Volume1\MYVM\Virtual
dur Disks\MYVM.vhdx. Une migration de stockage serait doivent être effectuées que les
chemins d’accès du volume partagé de cluster sont en local à un cluster de membre
unique de la conception. Par conséquent, pas seront accessibles à la machine virtuelle
une fois qu’ils live migration entre clusters de membre.

Dans cet exemple, CLUSTER3 a été ajouté au cluster à l’aide de Add-ClusterSetMember


avec le serveur de fichiers de montée en puissance Infrastructure en tant que SOFS-
CLUSTER3. Pour déplacer la configuration de machine virtuelle et le stockage, la
commande est :

Copier

Move-VMStorage -DestinationStoragePath \\SOFS-CLUSTER3\Volume1 -Name MYVM

Une fois qu’elle est terminée, vous recevrez un avertissement :

Copier

WARNING: There were issues updating the virtual machine configuration


that may prevent the virtual machine from running. For more information view
the report file below.
WARNING: Report file location: C:\Windows\Cluster\Reports\Update-
ClusterVirtualMachineConfiguration '' on date at time.htm.

Cet avertissement peut être ignoré car l’avertissement est « aucune modification dans
la configuration de stockage du rôle machine virtuelle ont été détectées ». La raison de
l’avertissement en tant que l’emplacement physique réel ne change pas ; uniquement
les chemins de la configuration.

Pour plus d’informations sur Move-VMStorage, reportez-vous à cette lien.


Live Migration d’un ordinateur virtuel entre des clusters d’ensemble de cluster différent
n'est pas le même que dans le passé. Dans les scénarios de l’ensemble de non cluster,
la procédure serait :

1. supprimer le rôle de machine virtuelle du Cluster.


2. migrer dynamiquement l’ordinateur virtuel à un nœud de membre d’un autre
cluster.
3. Ajoutez la machine virtuelle dans le cluster comme un nouveau rôle de machine
virtuelle.

Avec des jeux de Cluster, ces étapes ne sont pas nécessaires et qu’une seule commande
est nécessaire. Tout d’abord, vous devez définir tous les réseaux doivent être
disponibles pour la migration avec la commande :

Copier

Set-VMHost -UseAnyNetworkMigration $true

Par exemple, je souhaite déplacer une machine virtuelle de Cluster défini à partir de
CLUSTER1 à NODE2-CL3 sur CLUSTER3. La commande serait :

Copier

Move-ClusterSetVM -CimSession CSMASTER -VMName CSVM1 -Node NODE2-CL3

Veuillez noter que cela ne déplace pas les fichiers de stockage ou de configuration de
machine virtuelle. Ce n’est pas nécessaire, car le chemin d’accès à la machine virtuelle
reste en tant que \SOFS-CLUSTER1\VOLUME1. Une fois qu’un ordinateur virtuel a été
enregistré avec des jeux de cluster a le chemin d’accès du partage de serveur de fichiers
d’Infrastructure, la machine virtuelle et les lecteurs ne nécessitent pas en cours sur le
même ordinateur que la machine virtuelle.

Disponibilité de création d’ensembles de domaines d’erreur

Comme décrit dans l’introduction, les domaines d’erreur semblable à Azure et les
groupes à haute disponibilité peuvent être configurés dans un ensemble de
cluster. Cela est utile pour les emplacements de machine virtuelle initiale et les
migrations entre clusters.

Dans l’exemple ci-dessous, il existe quatre clusters participant à l’ensemble du


cluster. Dans le jeu, un domaine d’erreur logique sera créé avec deux des clusters et un
domaine d’erreur créé avec les deux autres clusters. Ces deux domaines d’erreur
comprend l’ensemble de disponibilité.

Dans l’exemple ci-dessous, CLUSTER1 et CLUSTER2 sera dans un domaine d’erreur


appelé FD1 alors que CLUSTER3 et CLUSTER4 seront dans un domaine d’erreur
appelé FD2 Répartiteurs. Le groupe à haute disponibilité sera appelée CSMASTER-
AS et comprendre les deux domaines d’erreur.
Pour créer les domaines d’erreur, les commandes sont :

Copier

New-ClusterSetFaultDomain -Name FD1 -FdType Logical -CimSession CSMASTER


-MemberCluster CLUSTER1,CLUSTER2 -Description "This is my first fault domain"

New-ClusterSetFaultDomain -Name FD2 -FdType Logical -CimSession CSMASTER


-MemberCluster CLUSTER3,CLUSTER4 -Description "This is my second fault
domain"

Pour vous assurer qu’ils ont été créés avec succès, vous pouvez exécuter Get-
ClusterSetFaultDomain avec sa sortie indiqué.

Copier

PS C:\> Get-ClusterSetFaultDomain -CimSession CSMASTER -FdName FD1 | fl *

PSShowComputerName : True
FaultDomainType : Logical
ClusterName : {CLUSTER1, CLUSTER2}
Description : This is my first fault domain
FDName : FD1
Id : 1
PSComputerName : CSMASTER

Maintenant que les domaines d’erreur ont été créées, la disponibilité définie doit être
créée.

Copier

New-ClusterSetAvailabilitySet -Name CSMASTER-AS -FdType Logical -


CimSession CSMASTER -ParticipantName FD1,FD2

Pour valider qu’il a été créé, puis utiliser :

Copier

Get-ClusterSetAvailabilitySet -AvailabilitySetName CSMASTER-AS -


CimSession CSMASTER

Lorsque vous créez de nouvelles machines virtuelles, vous devez alors utiliser le
paramètre - groupe à haute disponibilité dans le cadre de la détermination du nœud
optimal. Par conséquent, elle ressemblerait quelque chose comme ceci :

Copier

# Identify the optimal node to create a new virtual machine


$memoryinMB=4096
$vpcount = 1
$av = Get-ClusterSetAvailabilitySet -Name CSMASTER-AS -CimSession
CSMASTER
$targetnode = Get-ClusterSetOptimalNodeForVM -CimSession CSMASTER -
VMMemory $memoryinMB -VMVirtualCoreCount $vpcount -VMCpuReservation 10 -
AvailabilitySet $av
$secure_string_pwd = convertto-securestring "<password>" -asplaintext -
force
$cred = new-object -typename System.Management.Automation.PSCredential
("<domain\account>",$secure_string_pwd)

Suppression d’un cluster cluster définit en raison des différents cycles de vie. Il est
parfois lorsqu’un cluster doit être supprimé à partir d’un ensemble de cluster. Comme
meilleure pratique, toutes les machines virtuelles cluster doit être déplacés hors du
cluster. Cela peut être accompli à l’aide de la Move-ClusterSetVM et Move-
VMStorage commandes.

Toutefois, si les machines virtuelles ne seront pas déplacés ainsi, les jeux de cluster
s’exécute une série d’actions pour fournir un résultat intuitif à l’administrateur. Lorsque
le cluster est supprimé de l’ensemble, tous les autres cluster machines virtuelles
hébergées sur le cluster en cours de suppression devient simplement des machines
virtuelles hautement disponibles, liés à ce cluster, en supposant qu’ils ont accès à leur
stockage. Ensembles de cluster met également automatiquement à jour son inventaire
par :

 N’est plus le suivi l’intégrité du cluster supprimé de maintenant et les machines


virtuelles en cours d’exécution sur celui-ci
 Supprime de l’espace de noms de jeu de cluster et toutes les références aux
partages hébergés sur le cluster maintenant-supprimé

Par exemple, la commande pour supprimer le cluster CLUSTER1 à partir de jeux de


cluster serait :

Copier

Remove-ClusterSetMember -ClusterName CLUSTER1 -CimSession CSMASTER


Forum Aux Questions (FAQ)

Question : Dans mon ensemble de cluster, suis-je limité à uniquement à l’aide de


clusters hyperconvergés ?
Réponse : Non. Vous pouvez combiner des espaces de stockage Direct avec les
clusters traditionnels.

Question : Puis-je gérer mon Cluster définie par le biais de System Center Virtual
Machine Manager ?
Réponse : System Center Virtual Machine Manager ne prend pas en charge les
ensembles de Cluster

Question : Peuvent Windows Server 2012 R2 ou 2016 clusters coexister dans le même
ensemble de cluster ?
Question : Puis-je migrer des charges de travail hors tension de Windows Server 2012
R2 ou 2016 clusters en demandant simplement ces clusters joindre le même ensemble
de Cluster ?
Réponse : Ensembles de cluster est une nouvelle technologie introduite dans Windows
Server 2019, par conséquent, en tant que tel, il n’existe pas dans les versions
précédentes. Clusters basée sur le système d’exploitation de bas niveau ne peut pas
joindre un ensemble de cluster. Toutefois, technologie de mises à niveau propagée de
système d’exploitation de Cluster doit fournir la fonctionnalité de migration que vous
cherchez en mettant à niveau ces clusters pour Windows Server 2019.

Question : Pouvant ensembles de Cluster me permettre de mettre à l’échelle de


stockage ou de calcul (seul) ?
Réponse : Oui, en ajoutant simplement un espace de stockage Direct ou cluster Hyper-
V traditionnel. Avec des jeux de cluster, il est une simple modification du taux de calcul-
stockage même dans un ensemble de cluster hyperconvergé.

Question : Nouveautés, les outils de gestion pour les jeux de cluster


Réponse : PowerShell ou WMI dans cette version.

Question : La migration dynamique entre clusters le fonctionnement de processeurs de


différentes générations ?
Réponse : Ensembles de cluster ne puissent pas contourner les différences de
processeur et les remplacer ce que Hyper-V prend actuellement en charge. Par
conséquent, mode de compatibilité de processeur doit être utilisé avec des migrations
rapides. La recommandation pour les jeux de Cluster consiste à utiliser le même
matériel de processeur dans chaque Cluster individuels, ainsi que l’ensemble de Cluster
entière pour les migrations dynamiques entre les clusters se produise.

Question : Pouvez mon ensemble de cluster virtuel machines automatiquement sur la


défaillance d’un cluster de basculement ?
Réponse : Dans cette version, machines virtuelles cluster peut uniquement être
manuellement migrés sur des clusters ; mais ne peut pas le basculement automatique.

Question : Comment assurer stockage résiste aux défaillances de cluster ?


Réponse : Utilisez solution de réplica de stockage (SR) entre clusters sur des clusters de
membre de réaliser la résilience du stockage pour les échecs de cluster.

Question : J’utilise (Réplica) de stockage pour répliquer sur des clusters de


membre. Mettez en cluster stockage espace de noms de jeu de modification des
chemins d’accès UNC lors du basculement de SR vers le cluster espaces de stockage
Direct de réplica cible ?
Réponse : Dans cette version, une cluster ensemble espace de noms référence
modification de ce type n’a pas lieu avec SR basculement. Veuillez informer Microsoft si
ce scénario est essentiel pour vous et comment vous souhaitez les utiliser.

Question : Il est possible de basculer des machines virtuelles entre les domaines
d’erreur dans une situation de récupération d’urgence (par exemple le domaine
d’erreur entier s’est arrêté) ?
Réponse : Non, notez que le basculement entre clusters au sein d’une erreur logique
domaine n’est pas encore possible.

Question : Mon cluster peut définir des clusters span dans plusieurs sites (ou les
domaines DNS) ?

*Réponse :* Ceci est un scénario non testé et pas immédiatement planifié pour la prise
en charge de production. Veuillez informer Microsoft si ce scénario est essentiel pour
vous et comment vous souhaitez les utiliser.

Question : Cluster attribuer de travail avec IPv6 ?


Réponse : À la fois IPv4 et IPv6 sont prises en charge avec des jeux de cluster comme
avec les Clusters de basculement.

Question : Quelles sont les exigences de la forêt Active Directory pour le cluster définit
Réponse : Tous les clusters de membre doivent être dans la même forêt Active
Directory.

Question : Le nombre de nœuds ou de clusters peut être partie d’un cluster unique
définie ?
Réponse : Ensembles de cluster dans Windows Server 2019, testé et pris en charge
jusqu'à 64 nœuds totale du cluster. Toutefois, cluster définit les échelles de
l’architecture des limites beaucoup plus volumineux et n’est pas quelque chose qui est
codé en dur pour une limite. Veuillez informer Microsoft si plus grande échelle est
essentiel pour vous et comment vous souhaitez les utiliser.

Question : Tous les clusters d’espaces de stockage Direct dans un ensemble de cluster
constitueront un seul pool de stockage ?
Réponse : Non. Technologie Direct des espaces de stockage fonctionne toujours dans
un seul cluster et non entre les clusters de membre dans un ensemble de cluster.

Question : Est le jeu de clusters à haute disponibilité de l’espace de noms ?


Réponse : Oui, l’espace de noms de jeu de cluster est fourni via un serveur d’espace de
noms en permanence disponibles (CA) référence SOFS en cours d’exécution sur le
cluster de gestion.Microsoft recommande d’avoir un nombre suffisant de machines
virtuelles à partir de clusters de membre pour la rendre résiliente pour les défaillances
localisées à l’échelle du cluster. Toutefois, pour prendre en compte les défaillances
graves imprévus – par exemple, toutes les machines virtuelles dans le cluster de gestion
en panne en même temps les informations de référence sont en outre de manière
permanente mis en cache dans chaque nœud de cluster l’ensemble, même pour tous
les redémarrages.

Question : Le cluster définie l’accès de stockage basé sur l’espace de noms de ralentir
les performances de stockage dans un ensemble de cluster ?
Réponse : Non. Espace de noms de cluster ensemble offre un espace de noms de
référence de superposition au sein d’un ensemble de cluster – conceptuellement
comme distribuées fichier système espaces de noms (DFSN). Et contrairement DFSN,
toutes les métadonnées de référence espace de noms ensemble cluster sont rempli
automatiquement et la mise à jour automatique sur tous les nœuds sans aucune
intervention de l’administrateur, il n’est presque aucune surcharge de performances
dans le chemin d’accès de stockage.

Question : Comment puis-je sauvegarder des métadonnées du jeu de cluster ?


Réponse : Ce guide est identique à celui du Cluster de basculement. La sauvegarde
d’état système sauvegarde l’état du cluster. Via la sauvegarde de Windows Server, vous
pouvez effectuer des restaurations de simplement d’un nœud cluster de base de
données (qui ne doit jamais être nécessaire en raison d’un ensemble de la logique
d’auto-adaptation nous avons) ou effectuer une restauration faisant autorité pour
restaurer la base de données de l’ensemble du cluster sur tous les nœuds. Dans le cas
d’ensembles de cluster, Microsoft vous recommande de procéder à ce type d’une
restauration faisant autorité tout d’abord le cluster de membre, puis sur le cluster de
gestion si nécessaire.