Windows Server
S’applique à : Windows Server 2019, Windows Server 2016
Nouveautés du clustering de
basculement
18/10/2018
12 minutes de lecture
o
o
Jeux de clusters
Témoin USB
Vous pouvez maintenant utiliser une simple clé USB attachée à un commutateur
réseau en tant que témoin dans la détermination du quorum pour un cluster. Cela
permet d’étendre le témoin de partage de fichier pour prendre en charge
n’importe quel appareil SMB2 conformes.
Il est désormais activé par défaut pour améliorer les performances de la machine
virtuelle.MSDTC prend désormais en charge les volumes partagés de cluster afin
d'autoriser le déploiement de charges de travail MSDTC sur les espaces de
stockage direct comme avec SQL Server. Amélioration de la logique de détection
de nœuds partitionnés avec autoréparation pour que les nœuds redeviennent
membres du cluster. Détection d'itinéraire de réseau en cluster et autoréparation
améliorées.
La mise à jour adaptée aux clusters (Cluster Aware Updating ou CAU) est
désormais intégrée et détecte les espaces de stockage direct, vérifiant et
garantissant que la resynchronisation des données est terminée sur chaque
nœud. La mise à jour prenant en charge du cluster inspecte les mises à jour
redémarrent intelligemment uniquement si nécessaire. Cela permet d’orchestrer
des redémarrages de tous les serveurs du cluster pour la maintenance planifiée.
La communication intra-cluster via Server Message Block (SMB) pour les volumes
partagés de cluster et les espaces de stockage direct tire maintenant parti des
certificats pour fournir la plateforme la plus sécurisée. Les clusters de basculement
peuvent ainsi fonctionner sans dépendances sur NTLM et autoriser les bases de
référence de sécurité.
Avertissement
Une fois que vous mettez à jour le niveau fonctionnel du cluster, vous ne pouvez
pas revenir à un niveau fonctionnel de cluster Windows Server 2012 R2.
Jusqu'à ce que le Update-ClusterFunctionalLevel applet de commande est
exécutée, le processus est réversible et les nœuds de Windows Server 2012 R2
peuvent être ajoutés et les nœuds Windows Server 2016 peuvent être supprimés.
Les systèmes d’exploitation de cluster pour la mise à niveau en plusieurs phases sont
les suivantes pour chaque nœud dans un cluster :
Le nœud est suspendu et purgé de toutes les machines virtuelles qui s’exécutent
sur celui-ci.
Les machines virtuelles (ou autre charge de travail de cluster) est migrée vers un
autre nœud du cluster.
Le système d’exploitation est supprimé et une nouvelle installation du système
d’exploitation Windows Server 2016 sur le nœud est exécutée.
Le nœud qui exécute le système d’exploitation Windows Server 2016 est ajouté au
cluster.
À ce stade, le cluster est dit être en cours d’exécution en mode mixte, car les
nœuds du cluster exécutent Windows Server 2012 R2 ou Windows Server 2016.
Le niveau fonctionnel du cluster reste à Windows Server 2012 R2. À ce niveau
fonctionnel, les nouvelles fonctionnalités dans Windows Server 2016 qui affectent
la compatibilité avec les versions précédentes du système d’exploitation ne seront
pas disponibles.
Finalement, tous les nœuds sont mis à niveau vers Windows Server 2016.
Niveau fonctionnel du cluster est ensuite modifié vers Windows Server 2016 à
l’aide de l’applet de commande Windows PowerShell Update-
ClusterFunctionalLevel. À ce stade, vous pouvez tirer parti des fonctionnalités de
Windows Server 2016.
Pour plus d’informations, consultez niveau propagée de Cluster système d’exploitation.
Réplica de stockage
Proposer une seule solution de reprise d’activité fournisseur pour les interruptions
planifiées et non planifiées des charges de travail critiques.
Utiliser le transport SMB3 avec des performances, une scalabilité et une fiabilité
reconnues.
Étendre les clusters de basculement Windows aux distances métropolitaines.
Utiliser des logiciels de Microsoft bout en bout pour le stockage et le clustering,
telles que Hyper-V, le réplica de stockage, les espaces de stockage, Cluster,
serveur de fichiers avec montée en puissance, SMB3, la déduplication des données
et ReFS/NTFS.
Réduire les coûts et la complexité comme suit :
o La réplication est indépendante du matériel et ne nécessite pas de
configuration de stockage particulière, comme DAS ou SAN.
o Elle autorise des technologies de mise en réseau et de stockage des produits.
o Elle facilite la gestion graphique pour les nœuds individuels et les clusters via le
Gestionnaire du cluster de basculement.
o Elle inclut des options de script complètes et à grande échelle via Windows
PowerShell.
Réduire les temps d’arrêt et augmenter la fiabilité et la productivité intrinsèques à
Windows.
Fournir la capacité de prise en charge, les mesures de performances et les
fonctionnalités de diagnostic.
Pour plus d’informations, voir Réplica de stockage dans Windows Server 2016.
Témoin de cloud
Dans Windows Server 2016, Témoin cloud est un nouveau type de témoin de quorum
de cluster avec basculement, qui utilise Microsoft Azure comme point
d’arbitrage. Comme les autres témoins de quorum, Témoin cloud obtient un vote et
peut prendre part à des calculs de quorum. Vous pouvez le configurer comme témoin
de quorum à l’aide de l’Assistant Configuration de quorum du cluster.
Calcul de la résilience Windows Server 2016 inclut la résilience de calcul des machines
virtuelles accrue pour aider à réduire les problèmes de communication intracluster dans
votre cluster de calcul comme suit :
Pour plus d’informations machine virtuelle calcul la résilience des flux de travail et le
nœud mise en quarantaine les paramètres qui contrôlent comment votre nœud est
placé dans isolation ou mettre en quarantaine, consultez résilience de calcul de
Machine virtuelle dans Windows Server 2016.
La résilience du stockage dans Windows Server 2016, les machines virtuelles sont plus
résistantes aux défaillances de stockage temporaire. La résilience de machine virtuelle
améliorée permet de conserver les États de session de machine virtuelle de locataire en
cas de perturbation de stockage.Cela, réponse de machine virtuelle intelligent et rapide
pour les problèmes d’infrastructure de stockage.
Dans Windows Server 2016, la résilience de stockage de machine virtuelle est trop
prenant en charge et optimisé pour les clusters invités.
Pour aider à diagnostiquer les problèmes avec les clusters de basculement, Windows
Server 2016 inclut les éléments suivants :
Windows Server 2016 inclut un site prenant en charge les clusters de basculement
permettent à des nœuds de groupe de clusters étendus en fonction de leur
emplacement physique (site). Cluster-la reconnaissance des sites améliore des
opérations clés pendant le cycle de vie de cluster telles que le comportement de
basculement, les stratégies de positionnement, les pulsations entre les nœuds et le
comportement du quorum. Pour plus d’informations, consultez Site prenant en charge
les Clusters de basculement dans Windows Server 2016.
Dans Windows Server 2012 R2 et versions antérieures, un cluster peut uniquement être
créé entre les nœuds membres joints au même domaine. Windows Server 2016 déjoue
cet obstacle en introduisant la possibilité de créer un cluster de basculement sans
dépendances Active Directory.Vous pouvez maintenant créer des clusters de
basculement dans les configurations suivantes :
Clusters à domaine unique. Clusters avec tous les nœuds sont joints au même
domaine.
Clusters à domaines multiples. Clusters de nœuds qui sont membres de
domaines différents.
Clusters de groupe de travail. Les clusters de nœuds qui sont des serveurs
membres / groupe de travail (pas joint au domaine).
Les réseaux de Cluster de basculement ne sont plus limités à une seule carte réseau par
sous-réseau / réseau. Avec simplifié SMB Multichannel et les réseaux de Cluster de
plusieurs cartes réseau, la configuration réseau est automatique, et chaque carte réseau
sur le sous-réseau peut être utilisé pour le trafic de cluster et de la charge de
travail. Cette amélioration permet aux clients d’optimiser le débit réseau pour Hyper-V,
Instance de Cluster de basculement SQL Server et autres charges de travail SMB.
Pour plus d’informations, consultez simplifié SMB Multichannel et les réseaux de Cluster
Multi-NIC.
Voir aussi
Stockage
Quelles sont les nouveautés dans le stockage dans Windows Server 2016
o
o
Le serveur de fichiers avec montée en puissance parallèle est une fonctionnalité conçue
pour fournir des partages de fichiers avec montée en puissance parallèle disponibles de
manière continue pour le stockage des applications de serveur basées sur des
fichiers. Les partages de fichiers avec montée en puissance parallèle permettent de
partager le même dossier à partir de plusieurs nœuds d’un même cluster. Ce scénario
se concentre sur la façon de planifier et de déployer des serveur de fichiers avec
montée en puissance parallèle.
Vous pouvez déployer et configurer un serveur de fichiers en cluster à l’aide d’une des
méthodes suivantes :
Le serveur de fichiers avec montée en puissance parallèle fournit les avantages clés
suivants :
Les rubriques suivantes sont disponibles pour vous aider à déployer un serveur de
fichiers avec montée en puissance parallèle :
Vous ne devez pas utiliser un serveur de fichiers avec montée en puissance parallèle si
votre charge de travail génère un nombre élevé d’opérations de métadonnées, telles
que l’ouverture de fichiers, la fermeture de fichiers, la création de nouveaux fichiers ou
le changement de nom des fichiers existants. Un travailleur de l’information standard
peut générer un grand nombre d’opérations de métadonnées. Vous devez utiliser un
serveur de fichiers avec montée en puissance parallèle si vous êtes intéressé par
l’extensibilité et la simplicité qu’il offre et si vous avez seulement besoin des
technologies prises en charge avec le serveur de fichiers avec montée en puissance
parallèle.
Le tableau suivant répertorie les fonctionnalités de SMB 3.0, les systèmes de fichiers
Windows courants, les technologies de gestion des données du serveur de fichiers et
les charges de travail courantes. Vous pouvez voir si la technologie est pris en charge
par le serveur de fichiers avec montée en puissance parallèle, ou si elle nécessite un
serveur de fichiers en cluster traditionnel (également appelé serveur de fichiers pour
une utilisation générale).
fichiers
Cas pratiques
Les serveurs de fichiers avec montée en puissance parallèle sont idéaux pour le
stockage d’applications serveur. Voici quelques exemples d’applications serveur qui
peuvent stocker leurs données sur un partage de fichiers avec montée en puissance
parallèle :
Si vous utilisez un partage de fichiers avec montée en puissance parallèle en tant que
partage de bibliothèque, vous pouvez utiliser uniquement les technologies compatibles
avec le serveur de fichiers avec montée en puissance parallèle. Par exemple, vous ne
pouvez pas utiliser la réplication DFS pour répliquer un partage de bibliothèque
hébergé sur un partage de fichiers avec montée en puissance parallèle. Il est également
important que les dernières mises à jour de logiciels soient installées sur le serveur de
fichiers avec montée en puissance parallèle.
Pour utiliser un partage de fichiers avec montée en puissance parallèle en tant que
partage de bibliothèque, vous devez d’abord ajouter un serveur de bibliothèque
(généralement, un ordinateur virtuel) avec un partage local ou sans aucun partage. Puis,
lorsque vous ajoutez un partage de bibliothèque, choisissez un partage de fichiers
hébergé sur un serveur de fichiers avec montée en puissance parallèle. Ce partage doit
être géré par VMM et créé pour être utilisé exclusivement par le serveur de
bibliothèque. Veillez également à installer les dernières mises à jour sur le serveur de
fichiers avec montée en puissance parallèle. Pour plus d’informations sur l’ajout de
serveurs de bibliothèque VMM et partages de bibliothèque, consultez ajouter des
profils à la bibliothèque VMM.Pour obtenir la liste des correctifs actuellement
disponibles pour les services de fichiers et de stockage, consultez l’article 2899011 de la
Base de connaissances Microsoft.
Notes
Certains utilisateurs, comme les travailleurs de l’information, ont des charges de travail
qui ont un impact plus important sur les performances. Par exemple, lorsque des
opérations telles que l’ouverture et la fermeture de fichiers, la création de fichiers et le
changement de nom de fichiers existants, sont effectuées par plusieurs utilisateurs, cela
peut avoir un impact sur les performances. Si un partage de fichiers est activé avec une
disponibilité continue, il permet l’intégrité des données, mais affecte également les
performances globales. La disponibilité continue nécessite une écriture des données sur
le disque afin de garantir l’intégrité en cas de défaillance d’un nœud de cluster dans un
serveur de fichiers avec montée en puissance parallèle. Par conséquent, un utilisateur
qui copie plusieurs fichiers volumineux sur un serveur de fichiers peut s’attendre à une
baisse des performances sur le partage de fichiers disponible en continu.
Fonctionnalités incluses dans ce scénario
Server Message SMB 3.0 a ajouté les fonctionnalités suivantes dans Windows Server 2012 pour
Block prendre en charge du serveur de fichiers avec montée en puissance :
Basculement transparent SMB, SMB Multichannel et SMB Direct.
Pour plus d’informations sur les fonctionnalités nouvelles et modifiées pour SMB
dans Windows Server 2012 R2, consultez que'Nouveautés de SMB dans
Windows Server.
Informations supplémentaires
Guide de considérations de conception de Software-Defined Storage
Augmenter la disponibilité des serveurs, stockage et réseau
Déployer Hyper-V sur SMB
Déploiement de serveurs de fichiers rapides et efficaces pour les Applications
serveur
Monter en puissance, ou ne pas monter en puissance, là est la question (billet de
blog)
La Redirection de dossiers, les fichiers hors connexion et les profils utilisateur
itinérants
Clustering de basculement Windows Server offre une haute disponibilité pour les
charges de travail.Ces ressources sont considérés comme hautement disponibles si les
nœuds qui hébergent les ressources sont Toutefois, le cluster requiert généralement
plus de la moitié des nœuds pour être en cours d’exécution, ce qui est connu comme
ayant quorum.
Quorum est conçu pour éviter « split brain » des scénarios qui peuvent se produire
lorsqu’il existe une partition dans le réseau et des sous-ensembles de nœuds ne
peuvent pas communiquer entre eux. Cela peut entraîner les deux sous-ensembles de
nœuds pour essayer de propriétaire de la charge de travail et d’écrire dans le même
disque, ce qui peut entraîner de nombreux problèmes.Toutefois, cette fonction est
bloquée avec un concept du Clustering de basculement de quorum qui force
uniquement un de ces groupes de nœuds pour continuer l’exécution, afin que seul l’un
des ces groupes est restent en ligne.
Quorum détermine le nombre d’échecs que le cluster peut soutenir tout en restant en
ligne.Quorum est conçu pour gérer le scénario lorsqu’il existe un problème de
communication entre des sous-ensembles de nœuds de cluster, afin que plusieurs
serveurs n’essayez pas d’héberger un groupe de ressources simultanément et d’écriture
sur le même disque en même temps. En ayant ce concept de quorum, le cluster force le
service de cluster à arrêter dans un des sous-ensembles de nœuds pour vous assurer
qu’il n'existe qu’un seul véritable propriétaire d’un groupe de ressources
particulier. Une fois que les nœuds qui ont été arrêtés peuvent là aussi communiquer
avec le groupe principal de nœuds, ils seront automatiquement rejoindre le cluster de
leur service de cluster.
Dans Windows Server 2019 et Windows Server 2016, il existe deux composants du
système qui possèdent leurs propres mécanismes de quorum :
Peut survivre à
Peut survivre à une défaillance de nœud Peut survivre à deux
Nœuds de défaillance de nœud d’un serveur, puis un défaillances de nœud de
serveur de serveur autre serveur simultanées
Il existe deux façons le cluster peut rendre le nombre total de votes impair :
1. Tout d’abord, il peut aller des une en ajoutant un témoin avec un vote
supplémentaire. Cela nécessite la configuration de l’utilisateur.
2. Vous pouvez aussi, il peut vers le bas un en mettant à zéro le vote d’un nœud
dans d’autres (se produit automatiquement en fonction des besoins).
Chaque fois que les nœuds survivants correctement vérifier qu’ils sont le majorité, la
définition de majorité est mis à jour pour être entre simplement les survivants. Cela
permet au cluster à perdre un nœud, puis un autre, puis un autre et ainsi de suite. Ce
concept de la nombre total de votesadaptation après des échecs consécutifs est
appelé quorum dynamique.
Témoin dynamique
Témoin dynamique active ou désactive le vote du témoin pour vous assurer que
le nombre total de votes est impair. S’il existe un nombre impair de voix, le témoin n’a
pas un vote. En l’absence d’un nombre pair de votes, le témoin dispose d’un
vote. Témoin dynamique réduit considérablement le risque que le cluster va être arrêté
en raison de l’échec de témoin. Le cluster décide s’il faut utiliser le vote témoin en
fonction du nombre de nœuds votants qui sont disponibles dans le cluster.
Dans ce cas, le cluster auraient vers le bas si vous avez perdu à deux nœuds.
Exemples
Deux nœuds sans témoin.
Vote d’un nœud est remis à zéro, afin que la majorité vote est déterminé sur un total
de 1 vote. Si le nœud non-votant s’arrête inopinément, survivant a 1/1 et le cluster
survit. Si le vote du nœud tombe en panne inattendue, survivant a 0/1 et le cluster
tombe en panne. Si le nœud de vote est mis hors tension normalement, le vote est
transféré vers l’autre nœud et le cluster survit. C’est pourquoi il est essentiel pour
configurer un témoin.
Les deux nœuds votants, ainsi que les votes le témoin, la majorité est déterminée sur un
total de 3 votes. Si des nœuds tombe en panne, survivant a 2/3 et le cluster survit.
Tous les nœuds de votent, afin que la majorité est déterminée sur un total de 3
votes. Si n’importe quel nœud tombe en panne, les survivants sont 2/3 et le cluster
survit. Le cluster présente deux nœuds sans témoin : à ce stade, vous êtes dans le
scénario 1.
Peut survivre à une défaillance du serveur : Oui.
Peut survivre à la défaillance d’un serveur, puis une autre : 50 % de chance.
Peut surmonter les défaillances de serveur deux à la fois : No.
Trois nœuds avec un témoin.
Tous les nœuds de votent, donc le témoin ne vote initialement. Le majorité est
déterminée sur un total de 3 votes. Après un échec, le cluster a deux nœuds avec un
témoin – ce qui correspond au scénario 2. Donc, maintenant les deux nœuds et le
témoin votent.
Vote d’un nœud est remis à zéro, afin que la majorité est déterminée sur un total de 3
votes. Après un échec, le cluster présente trois nœuds, et vous êtes dans le scénario 3.
Peut survivre à une défaillance du serveur : Oui.
Peut survivre à la défaillance d’un serveur, puis une autre : Oui.
Peut surmonter les défaillances de serveur deux à la fois : 50 % de chance.
Quatre nœuds avec un témoin.
Tous les votes de nœuds et les votes de témoin, donc la majorité est déterminée sur un
total de 5 votes. Après un échec, vous êtes dans le scénario 4. Après deux défaillances
simultanées, vous passez à scénario 2.
Tous les nœuds votants, ou un seul vote, quelle que soit, le total impair. Espaces de
stockage Direct ne peut pas gérer plus de deux nœuds vers le bas en tout cas, par
conséquent, à ce stade, aucun témoin n’est nécessaire ou utile.
Le tableau ci-dessous donne une vue d’ensemble de résultats de Quorum de Pool par
scénario :
Peut survivre à
Peut survivre à une défaillance de nœud Peut survivre à deux
Nœuds de défaillance de nœud d’un serveur, puis un défaillances de nœud de
serveur de serveur autre serveur simultanées
Cas d’échouent des lecteurs, ou quand un sous-ensemble des lecteurs perd le contact
avec un autre sous-ensemble, lecteurs survivants doivent avoir vérifier qu’ils constituent
le majorité du pool de rester en ligne. Si elles ne peuvent pas vérifier que, rétorquent
hors connexion. Le pool est l’entité qui est mis hors connexion ou reste en ligne selon
qu’il dispose de suffisamment de disques pour le quorum (50 % + 1). Le propriétaire de
ressource du pool (nœud de cluster actif) peut être le + 1.
le pool utilise un seul nœud dans le cluster en tant que témoin comme décisive de
résister à la moitié des lecteurs disparus (ce nœud qui est le propriétaire de
ressource de pool)
le pool n’a pas de quorum dynamique
le pool n’implémente pas sa propre version de la suppression d’un vote
Exemples
Quatre nœuds avec une disposition symétrique.
Chacun des 16 disques a un vote et nœud deux a également un vote (dans la mesure
où il est propriétaire de la ressource de pool). Le majorité est déterminée sur un total
de 16 votes. Si les nœuds trois et quatre tombent en panne, le sous-ensemble
survivant a 8 disques et le propriétaire de la ressource de pool, est 9/16 votes. Par
conséquent, le pool survit.
Peut survivre à une défaillance du serveur : Oui.
Peut survivre à la défaillance d’un serveur, puis une autre : Oui.
Peut surmonter les défaillances de serveur deux à la fois : Oui.
Quatre nœuds avec un échec de mise en page et lecteur symétrique.
Chacun des 24 disques a un vote et nœud deux a également un vote (dans la mesure
où il est propriétaire de la ressource de pool). Le majorité est déterminée sur un total
de 24 votes. Si les nœuds trois et quatre tombent en panne, le sous-ensemble
survivant a 8 disques et le propriétaire de la ressource de pool, est 9/24 votes. Par
conséquent, le pool n’a pas majorité et tombe en panne.
Peut survivre à une défaillance du serveur : Oui.
Peut survivre à l’échec d’un serveur, puis une autre : ** Depends ** (ne peut pas
survivre à si les deux nœuds, trois et quatre tombent en panne, mais peuvent
survivre à tous les autres scénarios.
Peut survivre à deux défaillances de serveur à la fois : ** Depends ** (ne peut pas
survivre à si les deux nœuds, trois et quatre tombent en panne, mais peuvent
survivre à tous les autres scénarios.
Recommandations de quorum de pool
Assurez-vous que chaque nœud dans votre cluster est symétrique (chaque nœud
a le même nombre de disques)
Activer le miroir trois voies ou double parité afin que vous pouvez tolérer un
défaillances de nœud et conserver les disques virtuels en ligne. Consultez
notre page du Guide de volumepour plus d’informations.
Si plus de deux nœuds sont arrêtés ou deux nœuds et un disque sur un autre
nœud sont arrêtés, volumes n’aient pas accès à toutes les trois copies de leurs
données et par conséquent être mis hors connexion et ne pas être disponibles. Il
est recommandé pour ramener les serveurs ou de remplacer les disques
rapidement pour garantir la résilience de la plupart pour toutes les données dans
le volume.
Informations supplémentaires
Configurer et gérer le quorum
Déployer un témoin cloud
Jeux de clusters
30/01/2019
24 minutes de lecture
o
Présentation de technologie
Technologie de jeux de cluster est développée pour répondre aux demandes des
clients spécifiques d’exploitation de clouds de logiciels définie par centre de données
(SDDC) à grande échelle.Proposition de valeur de jeux de cluster peut être résumée
comme suit :
À partir d’une vue de haut niveau, il s’agit de quel cluster jeux peuvent ressembler.
Ce qui suit fournit un résumé rapide de chacun des éléments dans l’image ci-dessus :
Cluster de gestion
Cluster de membre
Un cluster de membre dans un ensemble de cluster est généralement un cluster
hyperconvergé traditionnel en cours d’exécution des charges de travail espaces de
stockage Direct et de la machine virtuelle. Plusieurs clusters membre participent à un
déploiement de jeu de cluster unique, qui forment la structure du cloud SDDC
supérieure. Les clusters de membre diffèrent d’un cluster de gestion dans les deux
principaux aspects : clusters de membre participent au domaine d’erreur et
constructions à haute disponibilité, et les clusters de membre sont également ajustées
à des charges de travail espaces de stockage Direct et de la machine virtuelle
hôte. Cluster machines virtuelles qui déplacent au-delà des limites de cluster dans un
ensemble de cluster ne doit pas être hébergés sur le cluster de gestion pour cette
raison.
Une référence d’espace de noms cluster ensemble (Cluster définir Namespace) SOFS
est un serveur de fichiers de montée en puissance dans laquelle chaque partage SMB
sur le serveur SOFS Cluster définir Namespace est un partage de référence – de type
« SimpleReferral » qui vient d’être introduite dans Windows Server 2019. Cette
référence permet d’accéder à la cible de partage SMB hébergée sur le cluster de
membre SOFS clients de Server Message Block (SMB). Le jeu de clusters référence
d’espace de noms SOFS est un mécanisme de redirection de légers et par conséquent,
n’est pas inclus dans le chemin d’accès d’e/s. Les références de SMB sont mis en cache
permanente sur chacun des nœuds client et l’espace de noms de jeux de cluster met
dynamiquement à jour automatiquement ces références en fonction des besoins.
domaine d’erreur
Un domaine d’erreur est le regroupement des logiciels et des artefacts de matériel qui
détermine l’administrateur peut échouer ensemble lorsqu’une défaillance se
produit. Alors que l’administrateur peut désigner un ou plusieurs clusters ensemble
comme un domaine d’erreur, chaque nœud peut participer à un domaine d’erreur dans
un groupe à haute disponibilité. Cluster définit par conception laisse le choix de la
détermination de limites de domaine d’erreur à l’administrateur qui est familiarisé avec
les considérations de topologie de centre de données – par exemple, les PDU, mise en
réseau : partagent des clusters de membre.
Ensembles de cluster offre une mise à l’échelle sans pour autant sacrifier la résilience.
Ensembles de cluster permet une pour le clustering de plusieurs clusters ensemble pour
créer une structure de grande taille, tandis que chaque cluster reste indépendant pour
assurer la résilience. Par exemple, vous avez un HCL de 4 nœuds plusieurs clusters de
machines virtuelles en cours d’exécution. Chaque cluster fournit la résilience nécessaire
pour lui-même. Si la mémoire ou le stockage commence à augmenter, est l’étape
suivante. Avec montée en puissance, il existe quelques options et les considérations.
Il s’agit où les jeux de cluster offre une mise à l’échelle. Si j’ajoute mes clusters en un
ensemble de cluster, je peux profiter de stockage ou de la mémoire qui peut-être être
disponible sur un autre cluster sans les achats supplémentaires. Du point de vue de la
résilience, ajouter des nœuds à un espace de stockage Direct ne va pas à fournir des
votes supplémentaires pour le quorum. Comme mentionné ici, un Cluster à espaces de
stockage Direct peut survivre à la perte de 2 nœuds avant d’aller vers le bas. Si vous
disposez d’un cluster HCL 4, 3 nœuds arrêtent prendra l’ensemble du cluster vers le
bas. Si vous avez un cluster 8 nœuds, 3 nœuds arrêtent prendra l’ensemble du cluster
vers le bas. Avec les jeux de Cluster qui a deux clusters de HCL de 4 nœuds dans le jeu,
2 nœuds dans un seul HCL tombent en panne et 1 nœud dans l’autres HCL tombent en
panne, les deux clusters restent en fonction. Est-il préférable de créer un grand cluster
espaces de stockage Direct de 16 nœuds ou la décomposer en quatre clusters de 4
nœuds et utiliser des ensembles de cluster ?Avoir quatre clusters de 4 nœuds avec
cluster jeux donne la même échelle, mais une meilleure résilience dans la mesure où
plusieurs nœuds de calcul peuvent descendre (ou de façon inattendue pour la
maintenance) et reste en production.
Lorsque vous envisagez si les ensembles de cluster est quelque chose que vous devez
utiliser, posez-vous ces questions :
Avez-vous besoin d’aller au-delà des HCL calcul et stockage à l’échelle limites
actuelles ?
Diffèrent calcul et stockage identique ?
En direct migrer les ordinateurs virtuels entre les clusters ?
Voulez-vous que les groupes à haute disponibilité Azure de type ordinateur et les
domaines d’erreur sur plusieurs clusters ?
Vous devez prendre le temps d’examiner tous vos clusters pour déterminer où les
nouvelles machines virtuelles doivent être placées ?
Si votre réponse est Oui, les ensembles de cluster est ce dont vous avez besoin.
Il existe quelques autres éléments à prendre en compte dans lequel une plus grande
SDDC peut changer vos stratégies de centre de données globale. SQL Server est un bon
exemple. Déplacement machines virtuelles de SQL Server entre des clusters requiert-il
SQL à exécuter sur des nœuds supplémentaires de gestion de licences ?
Dans Windows Server 2019, il est appelé serveur de fichiers avec montée en puissance
Infrastructure (SOFS) un nouveau rôle de serveur de fichiers de montée en puissance.
1. Il peut y avoir qu’un seul rôle de cluster SOFS de l’Infrastructure sur un Cluster de
basculement.Rôle d’infrastructure SOFS est créée en spécifiant le « -
Infrastructure» changez le paramètre à la Add-
ClusterScaleOutFileServerRole applet de commande. Exemple :
Copier
Une fois un ensemble de cluster est créé, l’espace de noms de jeu de cluster s’appuie
sur un serveur d’Infrastructure SOFS sur chacun des clusters de membre et, en outre, un
serveur SOFS Infrastructure dans le cluster de gestion.
Lorsque la valeur de la création d’un cluster, vous les prérequis suivants sont
recommandés :
1. Créer un cluster défini à partir de trois clusters, comme défini dans les conditions
préalables. Le sous graphique donne un exemple de clusters à créer. Le nom du
cluster défini dans cet exemple sera CSMASTER.
Nom du cluster Nom du serveur SOFS infrastructure pour une utilisation ultérieure
CLUSTER1 SOFS-CLUSTER1
CLUSTER2 SOFS-CLUSTER2
2. Une fois que tous les clusters ont été créées, utilisez les commandes suivantes
pour créer le cluster maître du jeu.
Copier
Copier
4. Une fois que vous avez créé le cluster définie en dehors des membres du cluster,
vous pouvez répertorier l’ensemble de nœuds et de ses propriétés. Pour énumérer
tous les clusters de membre dans l’ensemble du cluster :
Copier
5. Pour énumérer tous les clusters de membre dans le cluster haute y compris les
nœuds de cluster de gestion :
Copier
Copier
Copier
Copier
Copier
Get-ClusterSetLog -ClusterSetCimSession CSMASTER -IncludeClusterLog -
IncludeManagementClusterLog -DestinationFolderPath <path>
10. Configurer Kerberos la délégation contrainte entre cluster tous les membres du
jeu.
11. Configurer le type d’authentification de migration dynamique entre clusters virtual
machine pour Kerberos sur chaque nœud dans l’ensemble du Cluster.
Copier
12. Ajoutez le cluster de gestion au groupe Administrateurs local sur chaque nœud
dans l’ensemble du cluster.
Copier
Une fois que la valeur de la création du cluster, l’étape suivante consiste à créer des
machines virtuelles. Normalement, lorsqu’il est temps pour créer des machines
virtuelles et les ajouter à un cluster, vous devez effectuer quelques vérifications sur les
clusters pour voir lequel il peut être préférable d’exécuter. Ces vérifications sont les
suivantes :
Une fois ce questions sont traitées, vous créez la machine virtuelle sur le cluster que
vous avez besoin d’utiliser. Un des avantages des jeux de cluster est que les ensembles
de cluster effectuer ces vérifications pour vous et placer l’ordinateur virtuel sur le nœud
plus optimal.
Lorsqu’elle est terminée, nous vous fournirons les informations sur la machine virtuelle
et où il a été placé. Dans l’exemple ci-dessus, il s’affichera comme :
Copier
State : Running
ComputerName : 1-S2D2
Si vous deviez n'avoir pas assez de mémoire, UC ou d’espace disque pour ajouter
l’ordinateur virtuel, vous recevrez l’erreur :
Copier
Une fois que la machine virtuelle a été créée, il s’affichera dans le Gestionnaire Hyper-V
sur le nœud spécifique spécifié. Pour l’ajouter comme un cluster de machine virtuelle et
dans le cluster, la commande figure ci-dessous.
Copier
Copier
Si vous avez ajouté un cluster avec des machines virtuelles existantes, les machines
virtuelles amené à inscrire avec Cluster jeux inscrire, toutes les machines virtuelles à la
fois, la commande à utiliser est :
Copier
Par exemple, un cluster existant est ajouté et il a des machines virtuelles préconfigurées
le se trouvent sur le local Cluster Volume partagé (CSV), le chemin d’accès pour le
VHDX serait quelque chose de similaire à « C:\ClusterStorage\Volume1\MYVM\Virtual
dur Disks\MYVM.vhdx. Une migration de stockage serait doivent être effectuées que les
chemins d’accès du volume partagé de cluster sont en local à un cluster de membre
unique de la conception. Par conséquent, pas seront accessibles à la machine virtuelle
une fois qu’ils live migration entre clusters de membre.
Copier
Copier
Cet avertissement peut être ignoré car l’avertissement est « aucune modification dans
la configuration de stockage du rôle machine virtuelle ont été détectées ». La raison de
l’avertissement en tant que l’emplacement physique réel ne change pas ; uniquement
les chemins de la configuration.
Avec des jeux de Cluster, ces étapes ne sont pas nécessaires et qu’une seule commande
est nécessaire. Tout d’abord, vous devez définir tous les réseaux doivent être
disponibles pour la migration avec la commande :
Copier
Par exemple, je souhaite déplacer une machine virtuelle de Cluster défini à partir de
CLUSTER1 à NODE2-CL3 sur CLUSTER3. La commande serait :
Copier
Veuillez noter que cela ne déplace pas les fichiers de stockage ou de configuration de
machine virtuelle. Ce n’est pas nécessaire, car le chemin d’accès à la machine virtuelle
reste en tant que \SOFS-CLUSTER1\VOLUME1. Une fois qu’un ordinateur virtuel a été
enregistré avec des jeux de cluster a le chemin d’accès du partage de serveur de fichiers
d’Infrastructure, la machine virtuelle et les lecteurs ne nécessitent pas en cours sur le
même ordinateur que la machine virtuelle.
Comme décrit dans l’introduction, les domaines d’erreur semblable à Azure et les
groupes à haute disponibilité peuvent être configurés dans un ensemble de
cluster. Cela est utile pour les emplacements de machine virtuelle initiale et les
migrations entre clusters.
Copier
Pour vous assurer qu’ils ont été créés avec succès, vous pouvez exécuter Get-
ClusterSetFaultDomain avec sa sortie indiqué.
Copier
PSShowComputerName : True
FaultDomainType : Logical
ClusterName : {CLUSTER1, CLUSTER2}
Description : This is my first fault domain
FDName : FD1
Id : 1
PSComputerName : CSMASTER
Maintenant que les domaines d’erreur ont été créées, la disponibilité définie doit être
créée.
Copier
Copier
Lorsque vous créez de nouvelles machines virtuelles, vous devez alors utiliser le
paramètre - groupe à haute disponibilité dans le cadre de la détermination du nœud
optimal. Par conséquent, elle ressemblerait quelque chose comme ceci :
Copier
Suppression d’un cluster cluster définit en raison des différents cycles de vie. Il est
parfois lorsqu’un cluster doit être supprimé à partir d’un ensemble de cluster. Comme
meilleure pratique, toutes les machines virtuelles cluster doit être déplacés hors du
cluster. Cela peut être accompli à l’aide de la Move-ClusterSetVM et Move-
VMStorage commandes.
Toutefois, si les machines virtuelles ne seront pas déplacés ainsi, les jeux de cluster
s’exécute une série d’actions pour fournir un résultat intuitif à l’administrateur. Lorsque
le cluster est supprimé de l’ensemble, tous les autres cluster machines virtuelles
hébergées sur le cluster en cours de suppression devient simplement des machines
virtuelles hautement disponibles, liés à ce cluster, en supposant qu’ils ont accès à leur
stockage. Ensembles de cluster met également automatiquement à jour son inventaire
par :
Copier
Question : Puis-je gérer mon Cluster définie par le biais de System Center Virtual
Machine Manager ?
Réponse : System Center Virtual Machine Manager ne prend pas en charge les
ensembles de Cluster
Question : Peuvent Windows Server 2012 R2 ou 2016 clusters coexister dans le même
ensemble de cluster ?
Question : Puis-je migrer des charges de travail hors tension de Windows Server 2012
R2 ou 2016 clusters en demandant simplement ces clusters joindre le même ensemble
de Cluster ?
Réponse : Ensembles de cluster est une nouvelle technologie introduite dans Windows
Server 2019, par conséquent, en tant que tel, il n’existe pas dans les versions
précédentes. Clusters basée sur le système d’exploitation de bas niveau ne peut pas
joindre un ensemble de cluster. Toutefois, technologie de mises à niveau propagée de
système d’exploitation de Cluster doit fournir la fonctionnalité de migration que vous
cherchez en mettant à niveau ces clusters pour Windows Server 2019.
Question : Il est possible de basculer des machines virtuelles entre les domaines
d’erreur dans une situation de récupération d’urgence (par exemple le domaine
d’erreur entier s’est arrêté) ?
Réponse : Non, notez que le basculement entre clusters au sein d’une erreur logique
domaine n’est pas encore possible.
Question : Mon cluster peut définir des clusters span dans plusieurs sites (ou les
domaines DNS) ?
*Réponse :* Ceci est un scénario non testé et pas immédiatement planifié pour la prise
en charge de production. Veuillez informer Microsoft si ce scénario est essentiel pour
vous et comment vous souhaitez les utiliser.
Question : Quelles sont les exigences de la forêt Active Directory pour le cluster définit
Réponse : Tous les clusters de membre doivent être dans la même forêt Active
Directory.
Question : Le nombre de nœuds ou de clusters peut être partie d’un cluster unique
définie ?
Réponse : Ensembles de cluster dans Windows Server 2019, testé et pris en charge
jusqu'à 64 nœuds totale du cluster. Toutefois, cluster définit les échelles de
l’architecture des limites beaucoup plus volumineux et n’est pas quelque chose qui est
codé en dur pour une limite. Veuillez informer Microsoft si plus grande échelle est
essentiel pour vous et comment vous souhaitez les utiliser.
Question : Tous les clusters d’espaces de stockage Direct dans un ensemble de cluster
constitueront un seul pool de stockage ?
Réponse : Non. Technologie Direct des espaces de stockage fonctionne toujours dans
un seul cluster et non entre les clusters de membre dans un ensemble de cluster.
Question : Le cluster définie l’accès de stockage basé sur l’espace de noms de ralentir
les performances de stockage dans un ensemble de cluster ?
Réponse : Non. Espace de noms de cluster ensemble offre un espace de noms de
référence de superposition au sein d’un ensemble de cluster – conceptuellement
comme distribuées fichier système espaces de noms (DFSN). Et contrairement DFSN,
toutes les métadonnées de référence espace de noms ensemble cluster sont rempli
automatiquement et la mise à jour automatique sur tous les nœuds sans aucune
intervention de l’administrateur, il n’est presque aucune surcharge de performances
dans le chemin d’accès de stockage.