Académique Documents
Professionnel Documents
Culture Documents
Version 6.2
Dell estime que les informations figurant dans ce document sont exactes à la date de publication. Ces informations sont modifiables sans préavis.
LES INFORMATIONS CONTENUES DANS CETTE PUBLICATION SONT FOURNIES « EN L'ÉTAT ». DELL NE FOURNIT AUCUNE DÉCLARATION
OU GARANTIE D'AUCUNE SORTE CONCERNANT LES INFORMATIONS CONTENUES DANS CETTE PUBLICATION ET REJETTE PLUS
SPÉCIALEMENT TOUTE GARANTIE IMPLICITE DE QUALITÉ COMMERCIALE OU D'ADÉQUATION À UNE UTILISATION PARTICULIÈRE.
L'UTILISATION, LA COPIE ET LA DIFFUSION DE TOUT LOGICIEL DELL EMC DÉCRIT DANS CETTE PUBLICATION NÉCESSITENT UNE LICENCE
LOGICIELLE EN COURS DE VALIDITÉ.
Dell Technologies, Dell, EMC, Dell EMC et les autres marques citées sont des marques de Dell Inc. ou de ses filiales. Toutes les autres marques
citées dans le présent document peuvent être la propriéété de leurs détenteurs respectifs. Publié en France.
Figures 5
Tableaux 7
Préface 9
Glossaire 75
Index 89
1 VPLEX actif-actif.............................................................................................................. 14
2 Gamme VPLEX Local et Metro.......................................................................................... 16
3 Présentation de la configuration........................................................................................ 18
4 Demander du stockage à l’aide de l’interface graphique (pour Flash)................................ 19
5 Demander du stockage à l’aide de l’interface graphique (pour HTML5)............................ 19
6 Déplacement de données avec VPLEX.............................................................................. 25
7 VPLEX TECHNOLOGY LLC...............................................................................................27
8 Exemple d'infrastructure à haute disponibilité...................................................................28
9 Architecture de RecoverPoint...........................................................................................29
10 Réplication avec VPLEX Local et CLARiiON...................................................................... 31
11 Réplication avec VPLEX Metro et CLARiiON.................................................................... 32
12 Prise en charge de Site Recovery Manager.......................................................................32
13 Tableau de bord de surveillance des performances Unisphere (pour Flash)...................... 39
14 Tableau de bord de surveillance des performances Unisphere (pour HTML5)...................40
15 Tableau de bord de surveillance des performances Unisphere : sélectionnez les
informations à afficher (pour Flash)..................................................................................40
16 Tableau de bord de surveillance des performances Unisphere : sélectionnez les
informations à afficher (pour HTML5).............................................................................. 40
17 Tableau de bord de surveillance des performances Unisphere : exemple de graphique (pour
Flash)................................................................................................................................ 41
18 Tableau de bord de surveillance des performances Unisphere : exemple de graphique (pour
l’interface de ligne de commande)..................................................................................... 41
19 Redondance des chemins : sites différents....................................................................... 47
20 Redondance des chemins : moteurs différents.................................................................. 51
21 Redondance des chemins : ports différents...................................................................... 52
22 Redondance des chemins : directeurs différents...............................................................53
23 High level VPLEX Witness architecture............................................................................ 56
24 Cluster VS6 à quatre moteurs - vue avant.........................................................................67
25 Cluster à quatre moteurs VS2............................................................................................71
1 Conventions typographiques............................................................................................. 10
2 Avantages et exemples d’utilisation généraux VPLEX....................................................... 24
3 Types d'opérations de mobilité des données..................................................................... 26
4 How VPLEX Metro HA recovers from failure.................................................................... 58
5 Fonctionnalités de GeoSynchrony AccessAnywhere......................................................... 62
6 Composants matériels VS6............................................................................................... 67
7 Composants matériels VS2................................................................................................ 71
En vue d’améliorer la qualité de sa gamme de produits, Dell EMC publie régulièrement des révisions
de ses matériels et logiciels. Par conséquent, il se peut que certaines fonctions décrites dans le
présent document ne soient pas prises en charge par l’ensemble des versions des logiciels ou
matériels actuellement utilisés. Pour obtenir les informations les plus récentes sur les
fonctionnalités des produits, consultez les notes de mise à jour de vos produits.
Si un produit ne fonctionne pas correctement ou ne fonctionne pas comme indiqué dans ce
document, contactez un professionnel du support technique Dell EMC.
Remarque: Les informations figurant dans ce document sont exactes à la date de publication.
Consultez le support en ligne Dell EMC (https://www.dell.com/support) afin de vous assurer
que vous utilisez la version la plus récente de ce document.
Objectif
Ce document fait partie de la documentation VPLEX et décrit les fonctions de VPLEX et des
exemples d’utilisation, les options de configuration, le logiciel VPLEX et sa mise à niveau, ainsi que
la présentation du matériel.
Public
Ce guide s’adresse aux clients désireux de comprendre les fonctionnalités logicielles et matérielles,
les exemples d’utilisation, les offres de produits et les options de configuration de VPLEX.
Les documents connexes (disponibles sur le support en ligne Dell EMC) comprennent :
l Notes de mise à jour EMC VPLEX pour les versions de GeoSynchrony
l Guide produit VPLEX
l Guide de configuration de l’environnement matériel VPLEX
l Fiche technique de configuration VPLEX
l Guide de configuration VPLEX
l Guide de configuration de la sécurité de VPLEX
l Guide de référence de l’interface de ligne de commande de VPLEX
l Guide d’administration de VPLEX
l Aide d’Unisphere for VPLEX
l Le document VPLEX Element Manager API Guide Version 2 (REST API v2) [guide de l’API du
gestionnaire d’éléments VPLEX version 2 (API REST v2)]
l Licences Open-Source de VPLEX
l Licences Open-Source de VPLEX GPL3
l Les procédures fournies par le biais de Solve Desktop
l Les guides de connectivité des systèmes hôtes de Dell EMC
l Le document Dell EMC VPLEX Hardware Installation Guide (guide d’installation du matériel de
Dell EMC VPLEX)
l Différentes notes techniques relatives aux bonnes pratiques disponibles sur le support en ligne
Dell EMC
Conventions typographiques
Les conventions stylistiques Dell EMC suivantes sont utilisées dans ce document :
Gras Utilisé pour les noms d’éléments d’interface, tels que les noms de
fenêtres, de boîtes de dialogue, de boutons, de champs, d’onglets, de
touches et de chemins de menus (tout ce qui nécessite une sélection
ou un clic de l’utilisateur).
Obtenir de l’aide
Pour plus d’informations sur le support, les produits et les licences Dell EMC, procédez comme
suit :
VPLX-000389
VPLEX Local
VPLEX Local est composé d’un seul cluster. VPLEX Local :
l Fédère les baies de stockage Dell EMC et tierces.
La fédération permet une mobilité des données entre baies en toute transparence pour un
transfert et des actualisations des technologies simples et rapides.
l normalise la présentation et la gestion LUN à l’aide d’outils simples afin d’approvisionner et
d’allouer des dispositifs de stockage virtualisés.
l améliore le taux d’utilisation du stockage à l’aide du pooling et de l’agrégation de capacité à
travers plusieurs baies.
l augmente la protection et la haute disponibilité pour des applications essentielles.
Met du stockage en miroir sur des plates-formes hétérogènes sans ressources hôtes.
Tire le meilleur de vos ressources de stockage existantes afin de fournir une protection et une
disponibilité accrues pour des applications essentielles.
Déployez VPLEX Local au sein d’un seul datacenter.
VPLEX Metro
VPLEX Metro est composé de deux clusters VPLEX connectés par des liaisons intercluster avec un
Round Trip Time (RTT) inférieur à 10 ms. VPLEX Metro :
l réaffecte en toute transparence les données et les applications à distance, protège votre
datacenter en cas de sinistre.
gère tout votre stockage dans les deux datacenters depuis une seule interface de gestion.
l met vos données en miroir sur un second site proposant un accès total à des vitesses très
proches des vitesses locales.
Déployez VPLEX Metro au sein d'un datacenter pour :
l bénéficier de capacités de stockage virtuelles supplémentaires au-delà de celles d'un système
VPLEX Local.
l une plus haute disponibilité.
Les clusters Metro peuvent être placés jusqu'à 100 km de distance les uns des autres. Ils
peuvent ainsi se trouver aux extrémités d'une salle d'équipement, sur différents étages, ou
dans différentes zones coupe-feu ; autant d'éléments qui peuvent faire la différence entre le
passage au travers d'une défaillance locale ou un incendie sans panne.
Déployez VPLEX Metro entre des datacenters pour :
l mobilité : redistribuer des charges de travail applicatives entre les deux datacenters.
l Disponibilité : lorsque les applications doivent continuer de fonctionner en cas de défaillance
des datacenters.
l distribution : lorsqu'un datacenter manque d'espace, de puissance ou de refroidissement.
Combinez du stockage virtuel VPLEX Metro et des serveurs virtuels pour :
l déplacer des machines et du stockage virtuels en toute transparence sur des distances
synchrones ;
l améliorer l'utilisation et la disponibilité sur des baies hétérogènes et de multiples sites.
La distance entre les clusters est limitée de manière physique, par un hôte et par des
configurations requises au niveau des applications. Les clusters VPLEX Metro comportent des
modules d’E/S supplémentaires pour permettre la communication WAN intercluster sur IP ou Fibre
Channel.
Présentation de la configuration
Un cluster VPLEX se compose principalement des éléments suivants :
l un, deux ou quatre moteurs VPLEX.
Chaque moteur contient deux directeurs.
Dans un cluster VPLEX, tous les moteurs doivent être du type de plate-forme VS2 ou VS6.
Les clusters à deux ou quatre moteurs comprennent :
n deux switches Fibre Channel sur le matériel VS2 et deux switches InfiniBand sur le
matériel VS6 pour les communications entre les directeurs ;
n deux onduleurs (UPS) pour une alimentation de secours de la batterie des switches et du
serveur de gestion sur le matériel VS2 ; deux onduleurs (UPS) pour une alimentation de
secours de la batterie des switches sur le matériel VS6 ;
l un serveur de gestion qui agit en tant qu’interface de gestion pour d’autres composants VPLEX
dans le cluster. Les serveurs de gestion des matériels VS2 et VS6 sont les suivants :
n Matériel VS2 : un serveur de gestion pour chaque cluster.
n Matériel VS6 : deux serveurs de gestion, appelés des stations pilotes des modules de
gestion (MMCS-A et MMCS-B), dans le premier moteur. Tous les autres moteurs
disposeront de modules de gestion Akula pour la connectivité de la gestion.
Le serveur de gestion dispose d’un port Ethernet public qui fournit des services de gestion de
cluster lorsqu’il est connecté à votre réseau.
Brocade,
Cisco
VPLEX
Brocade,
Cisco
VPLEX respecte les conventions de nom universel (WWN) utilisées pour le zoning. Il prend en
charge le stockage Dell EMC et les baies de fournisseurs tiers, tels que HDS, HP et IBM. VPLEX
fournit la fédération de stockage aux systèmes d’exploitation et applications qui prennent en
charge des systèmes de fichiers en cluster, y compris les environnements de serveurs physiques et
virtuels avec VMware ESX et Microsoft Hyper-V. Les structures de réseau Brocade et Cisco sont
prises en charge dans VPLEX.
Reportez-vous à la Matrice de support simplifiée Dell EMC, à Dell EMC VPLEX et à GeoSynchrony,
disponibles sur le site http://elabnavigator.EMC.com sous l’onglet Matrice de support simplifiée.
Interfaces de gestion
Dans une configuration VPLEX Metro, les deux clusters peuvent être gérés au départ de chacun
des deux serveurs de gestion.
Au sein des clusters VPLEX, le trafic de gestion traverse un réseau de gestion privé TCP/IP.
Dans une configuration VPLEX Metro, le trafic de gestion traverse un tunnel VPN entre les
serveurs de gestion des deux clusters.
L’interface graphique prend en charge la plupart des opérations VPLEX, et inclut l’aide en
ligne Dell EMC Unisphere for VPLEX afin d’accompagner les nouveaux utilisateurs dans leur
apprentissage de l’interface.
Les opérations VPLEX qui ne sont pas disponibles dans l’interface graphique, sont prises en charge
par l’interface de ligne de commande (CLI), qui prend en charge toutes les fonctionnalités.
Remarque: À partir de VPLEX GeoSynchrony 6.2, l’interface graphique Flash est dépréciée.
CLI VPLEX
L’interface de ligne de commande de VPLEX prend en charge toutes les opérations VPLEX.
VPlexcli:/clusters/cluster-1/storage-elements/
storage-volumes> claimingwizard --file /home/service/clar.txt
--thin-rebuild
Found unclaimed storage-volume
VPD83T3:6006016091c50e004f57534d0c17e011 vendor DGC:
claiming and naming clar_LUN82.
Found unclaimed storage-volume
VPD83T3:6006016091c50e005157534d0c17e011 vendor DGC:
claiming and naming clar_LUN84.
Claimed 2 storage-volumes in storage array car
Claimed 2 storage-volumes in total.
VPlexcli:/clusters/cluster-1/storage-elements/storage-volumes>
Le guide de l’interface de ligne de commande Dell EMC VPLEX fournit une liste exhaustive de
commandes VPLEX et d’instructions détaillées sur l’utilisation de celles-ci.
Dans le cas d’une évolution de la consommation d’utilisation VPLEX, comme l’ajout de capacité ou
d’une nouvelle baie de stockage sous gestion VPLEX, il faut obtenir un nouveau fichier de clé de
licence pour refléter les droits logiciels adéquats et le changement d’activation.
Dans le cas d’une mise à niveau logicielle sans perturbation (NDU) VPLEX, pour exécuter les
dernières versions de GeoSynchrony à partir d’une version antérieure qui ne demandait pas
l’utilisation de l’activation de licence électronique par fichier (c’est-à-dire, toute version antérieure
à GeoSynchrony 6.2), contactez le service du support client Dell EMC pour obtenir une assistance
afin de réaliser la conversion avec le droit de licence et l’activation appropriés.
Ce chapitre décrit les fonctionnalités générales, les avantages et les exemples d’utilisation les plus
importants de VPLEX.
Pour tous les déploiements VPLEX, GeoSynchrony exécute les tâches suivantes :
l présente les volumes de stockage des baies back-end aux moteurs VPLEX.
l fédère les volumes de stockage en hiérarchies de volumes virtuels VPLEX dotées de
configurations et de niveaux de protection définis par les utilisateurs.
l présente les volumes virtuels aux hôtes de production du SAN par l’intermédiaire du front-
end VPLEX.
l pour VPLEX Metro, elle présente un répertoire global, en mode bloc, pour le cache distribué et
les E/S entre les clusters VPLEX.
Mobilité
Utilisez VPLEX pour déplacer des données entre datacenters, réaffecter un datacenter ou
consolider des données, sans interrompre l'accès de l'application hôte aux données.
MOBILITY
Cluster A Cluster B
ACCESS ANYWHERE
instantanément entre deux sites et à distance. Les données restent en ligne et disponibles tout au
long du déplacement, sans aucune interruption de service ou panne. Avant d'envisager de déplacer
des données, vous devez tenir compte des résultats pour l'entreprise, du type de données à
déplacer, des emplacements des sites, de la quantité de données totale et des plannings.
La technologie de mobilité des données de VPLEX permet d'éviter des sinistres, d'effectuer des
mises à niveau planifiées, ou de déplacer physiquement des sites. Les tâches de mobilité dans
VPLEX sont les suivantes :
Virtual Volume
VPLX-000380
La machine virtuelle adressant ses données au volume virtuel dissocié, elles continuent à être
acheminées vers le volume virtuel sans qu'il soit nécessaire de modifier l'adresse du datastore.
Bien que cet exemple utilise des machines virtuelles, cela s'applique également à des hôtes
traditionnels. À l'aide de VPLEX, l'administrateur peut déplacer des données utilisées par une
application vers une baie de stockage différente, sans que l'application ou le serveur ne
s'aperçoivent de la modification.
Cela vous permet de modifier les baies de stockage back-end en toute transparence, sans
interrompre les E/S.
Disponibilité
Les fonctions de VPLEX offrent une résilience maximale en cas de panne. La figure suivante
montre une configuration VPLEX Metro où le stockage est devenu indisponible sur l'un des sites du
cluster.
Cluster A Cluster B
ACCESS ANYWHERE
X
Maintain availability and non-stop access by mirroring across locations.
Eliminate storage operatios nfrom failover.
Le séparateur VPLEX permet aux volumes VPLEX dans un VPLEX Local ou VPLEX Metro de
mettre en miroir les E/S vers une appliance RecoverPoint.
Configurations RecoverPoint/VPLEX
RecoverPoint peut être configuré sur les systèmes VPLEX Local ou Metro comme suit :
l VPLEX Local et solution de protection locale
l VPLEX Local et la solution de protection locale/distante
l VPLEX Metro et RecoverPoint Local sur un site
l VPLEX Metro et RecoverPoint avec réplication locale et distante
Dans les systèmes VPLEX Local, RecoverPoint peut répliquer des volumes locaux.
Dans les systèmes VPLEX Metro, RecoverPoint peut répliquer les volumes locaux et les volumes
RAID 1 distribués.
Les volumes virtuels peuvent être répliqués localement, à distance ou les deux.
Les distances entre les sources de production et les volumes de réplication varient en fonction des
objectifs de restauration, de la bande passante entre les sites, de la latence et d’autres limitations
déterminées dans la matrice de support simplifiée Dell EMC (ESSM) pour RecoverPoint.
l Le retour arrière basé sur les événements des applications est pris en charge sur les volumes
virtuels VPLEX Metro distribués/locaux pour Microsoft SQL, Microsoft Exchange et les
applications de base de données Oracle.
l Si le cluster VPLEX tombe en panne, les clients peuvent effectuer une restauration vers
n'importe quel point dans le temps sur le site de réplication à distance. Il est possible
d'automatiser la restauration sur le site distant à n'importe quel point dans le temps via
l'intégration avec MSCE et VMware Site Recovery Manager (SRM).
l Cette configuration peut simuler un sinistre sur le cluster VPLEX afin de tester les fonctions de
reprise après sinistre de RecoverPoint sur le site distant.
VPLEX
Journaling Journaling
Volume Volume
RecoverPoint
RecoverP
RecoverPoint
erP nt Applian
Ap
Appliance
plian RecoverPoint
RecoverP
RecoverPoint
erP nt Applian
Ap
Appliance
pliance
plian
RecoverPoint Appliance RecoverPoint Appliance
Write RecoverPoint WAN
RecoverPoint
Group Appliance RecoverPoint Appliance
RecoverPoint Appliance RecoverPoint Appliance
VPXX-0044
Dans la configuration illustrée ci-dessous, les écritures de l'hôte vers les volumes virtuels distribués
sont écrites sur les deux tronçons du volume RAID 1 distribué. De plus, une copie des E/S est
envoyée à la RPA. La RPA distribue ensuite le réplica sur la baie CLARiiON sur un site de reprise
distant :
Figure 11 Réplication avec VPLEX Metro et CLARiiON
VPLEX VPLEX
WAN - COM
Distributed Device
Replica
Volume Volume volume
CLARiiON CLARiiON
Journaling Journaling
Volume Volume
RecoverPoint
Reco
RecoverP
verPoint
verPoint App
Applian
Appliance
lian RecoverPoint
Reco
RecoverP
verPoint App
verP Applian
Appliance
lian
RecoverPoint
WriteAppliance RecoverPoint Appliance
RecoverPoint
Group Appliance RecoverPoint WAN RecoverPoint Appliance
RecoverPoint Appliance RecoverPoint Appliance
VPXX-0045
Lorsqu'une panne se produit dans des configurations VPLEX Local ou VPLEX Metro, les machines
virtuelles peuvent être redémarrées au niveau du site de réplication avec la synchronisation
automatique vers la configuration VPLEX lorsque la panne a pris fin.
MetroPoint
VPLEX GeoSynchrony configuré avec RecoverPoint dans un VPLEX Metro fournit la topologie
MetroPoint. Cette topologie MetroPoint fournit une solution à 3 ou 4 sites pour la disponibilité
continue, la récupération en cas de sinistre et des opérations, ainsi que la protection continue des
données. MetroPoint prend également en charge une topologie à 2 sites, avec la possibilité
d’ajouter un troisième site distant à l’avenir.
La topologie MetroPoint fournit une protection RecoverPoint complète des deux côtés d’un
volume VPLEX distribué des deux côtés d’une configuration VPLEX Metro, tout en maintenant la
réplication et la protection au niveau du groupe de cohérence, même en cas de défaillance de la
liaison de l’un des côtés de VPLEX Metro avec le site de réplication.
Dans MetroPoint, la réplication VPLEX Metro et RecoverPoint est combinée de manière
entièrement redondante, afin de fournir une protection des données des deux côtés de
VPLEX Metro et sur le site de réplication. Avec cette solution, les données ne sont répliquées
qu’une fois du site source actif vers le site de réplication. Le site source en veille est prêt à prendre
le relais et à continuer la réplication même en cas de défaillance totale du site source actif.
MetroPoint combine la haute disponibilité de VPLEX Metro avec la réplication redondante et la
protection des données de RecoverPoint. La protection MetroPoint permet une copie de
production d’un volume distribué sur chaque site Metro, une copie locale sur chaque site Metro et
une copie à distance pour chaque groupe de cohérence MetroPoint. Chaque copie de production
peut disposer de plusieurs volumes distribués.
Un système MetroPoint offre les avantages suivants :
l Haute disponibilité pour l’accès aux données et leur protection.
l Protection continue des données et récupération en cas de sinistre.
l Reprise des opérations sur les trois sites pour assurer la redondance.
l Transfert de données efficace entre les sites VPLEX Metro et le site distant.
l Répartition de charge sur les liaisons de réplication et la réplication bidirectionnelle.
l Protection des données hors de la région avec réplication asynchrone.
l Reprise des opérations à un point dans le temps sur le site distant et, éventuellement, sur
chaque site local. RecoverPoint fournit une protection continue des données, avec restauration
à n’importe quel point dans le temps.
l Prise en charge totale de tous les systèmes d’exploitation et des clusters pris en charge par
VPLEX Metro.
l Prise en charge de nombreuses baies de stockage Dell EMC et tierces.
Le Guide d’administration Dell EMC VPLEX GeoSynchrony fournit des informations supplémentaires
sur les topologies, l’installation, la configuration et la mise à niveau de MetroPoint, ainsi que les
scénarios de reprise sur incident.
ALUA
L'ALUA (Asymmetric Logical Unit Access) route les E/S de la LUN dirigées vers un processeur de
stockage inactif ou défaillant vers le processeur de stockage actif, sans modifier la propriété de la
LUN.
Chaque LUN dispose de deux types de chemins :
l Active/optimized paths sont des chemins directs vers le SP propriétaire de la LUN.
Les chemins actifs/optimisés constituent généralement le chemin optimal et fournissent une
bande passante plus large que les chemins actifs/non optimisés.
l Active/non-optimized paths sont des chemins indirects vers le processeur de stockage qui
n'est pas propriétaire de la LUN via un bus Interconnect.
Les E/S qui transitent par les chemins actifs/non optimisés doivent transférées vers le
processeur de stockage propriétaire de la LUN. Ce transfert augmente la latence et a un
impact sur la baie.
VPLEX détecte les différents types de chemin et opère un équilibrage de charge en permutation
circulaire sur les chemins actifs/optimisés.
VPLEX prend en charge les trois types d'ALUA :
l Explicit ALUA - Le processeur de stockage modifie l'état des chemins en réponse aux
commandes (par exemple, la commande Set Target Port Groups) de l'hôte (le VPLEX back-
end).
Le processeur de stockage doit recevoir une instruction explicite pour modifier l'état d'un
chemin.
Si le chemin actif/optimisé est en échec, VPLEX émet l'instruction afin de passer du chemin
actif/non optimisé au chemin actif/optimisé.
Il n'est pas nécessaire d'effectuer un basculement sur incident de la LUN.
l Implicit ALUA- Le processeur de stockage peut modifier l'état d'un chemin sans aucune
commande de l'hôte (le VPLEX back-end).
Si le contrôleur propriétaire de la LUN est en échec, la baie modifie l'état du chemin actif/non
optimisé en actif/optimisé et effectue un basculement de la LUN depuis le contrôleur en
échec.
Lors de l'E/S suivante, après avoir modifié l'état du chemin, le processeur de stockage
retourne une attention de l'unité « Asymmetric Access State Changed » (l'état de l'accès
asymétrique a été modifié) à l'hôte (le VPLEX back-end).
VPLEX redécouvre alors tous les chemins afin d'obtenir les états d'accès mis à jour.
l Implicit/explicit ALUA - L'hôte ou la baie peuvent initier la modification de l'état de l'accès.
Le processeur de stockage prend en charge implicite uniquement, explicite uniquement, ou les
deux.
Stockage intégré
Le stockage intégré fait référence au stockage créé via la fonctionnalité des services intégrés
VPLEX. Cette fonctionnalité requiert l'utilisation de fournisseurs de gestion de baies (AMP) afin de
tirer parti de la fonctionnalité sur la baie, en particulier sur les pools de stockage. Si votre
fonctionnalité de baie comprend des pools de stockage et que la baie est compatible avec VPLEX,
vous pouvez intégrer la baie via ce dernier et fournir du stockage à la baie. VIAS fait appel à la
norme Storage Management Initiative - Specification (SMI-S) et les API RESTFul VPLEX pour
communiquer avec les baies qui prennent en charge les services intégrés pour l'activation du
provisionnement.
Avant d'effectuer un provisionnement au départ des pools de stockage, vous devez tout d'abord
enregistrer l'AMP qui gère la baie. Votre système VPLEX peut intégrer des AMP qui gèrent une
partie ou l'ensemble des baies de votre environnement. Une baie doit être intégrée avec VPLEX
afin d'allouer du stockage depuis les pools de la baie. Veuillez noter qu'il est possible d'effectuer un
provisionnement au départ de volumes de stockage ainsi que sur une baie intégrée.
Pour de plus amples informations à propos de l'enregistrement des AMP et le provisionnement
depuis les pools de stockage, reportez-vous au chapitre sur le provisionnement du Guide
d'administration VPLEX.
Autre stockage
Autre stockage fait référence au stockage au départ de baies qui ne sont pas intégrées avec
VPLEX via les AMP. Étant donné que VPLEX ne peut accéder aux fonctionnalités de la baie, vous
ne pouvez utiliser les fonctionnalités de la baie telles que les pools de stockage. Dès lors, vous
pouvez uniquement effectuer une provision au départ des volumes de stockages découverts sur la
baie. Il existe deux manières d'allouer du stockage au départ de volumes de stockage :
Provisionnement EZ et provisionnement avancé.
La fonctionnalité unmap réclame les blocs VMFS inutilisés en supprimant le mappage entre les
blocs logiques et physiques. Cela supprime principalement le lien entre un bloc logique et un bloc
physique disposant de ressources inconnues ou inutilisées.
Figure 16 Tableau de bord de surveillance des performances Unisphere : sélectionnez les informations à
afficher (pour HTML5)
Les informations de performance sont affichées sous la forme d’un ensemble de graphiques. Par
exemple, la figure suivante illustre le débit front-end pour un directeur sélectionné (pour Flash) et
tous les directeurs (pour HTML5) :
Figure 17 Tableau de bord de surveillance des performances Unisphere : exemple de graphique (pour
Flash)
Figure 18 Tableau de bord de surveillance des performances Unisphere : exemple de graphique (pour
l’interface de ligne de commande)
Pour de plus amples informations sur les statistiques disponibles dans le tableau de bord de
surveillance des performances, consultez l’aide en ligne Dell EMC Unisphere for VPLEX disponible
dans l’interface graphique de VPLEX.
l Créez un moniteur de performances pour collecter des statistiques pour les opérations
CompareAndWrite (CAW), les inadéquations et la latence pour le volume virtuel spécifié sur le
directeur 1-1-B.
l Ajouter un récepteur de fichier pour envoyer la sortie vers le répertoire spécifié sur le serveur
de gestion.
Le Guide d’administration Dell EMC VPLEX décrit la procédure à suivre pour la surveillance des
performances de VPLEX à l’aide de l’interface de ligne de commande.
VPLEX_LOCAL_CAPACITY,VPLEX_METRO_CAPACITY, VPLEX_LOCAL_LARGE_CAPACITY
et VPLEX_METRO_LARGE_CAPACITY.
Ce chapitre décrit la manière dont les fonctions de haute disponibilité et de résilience de VPLEX
assurent une intégrité et une résilience solides du système.
Engine 1 Engine 1
VPLX-000394
Cluster
VPLEX est une architecture de cluster à part entière. Cela signifie que tous les composants sont
toujours disponibles, et que les E/S qui entrent dans le cluster depuis n'importe quel emplacement
peuvent être traitées par n'importe quel nœud au sein du cluster, tandis que le cache et la
cohérence sont conservés pour l'ensemble des lectures et des écritures.
À mesure que vous ajoutez des moteurs supplémentaires au cluster, vous bénéficiez des avantages
associés à une augmentation du cache, de la puissance de traitement et des performances.
Un cluster VPLEX fournit une tolérance aux pannes N–1, ce qui signifie que n'importe quelle panne
de composant peut être supportée, et que le cluster continuera à fonctionner tant qu'il reste un
directeur fonctionnel.
Un cluster VPLEX (exécuté sur un matériel VS2 ou VS6) est constitué de composants matériels
redondants.
Un moteur prend en charge deux directeurs. Si un directeur dans un moteur tombe en panne, le
second directeur dans le moteur continue à traiter les E/S. De la même façon, si un cluster VPLEX
contient plusieurs moteurs, VPLEX est en mesure de gérer plusieurs pannes sans interrompre de
service tant que le quorum (défini par les règles) est conservé.
Toutes les ressources matérielles (cycles CPU, ports d'E/S et mémoire cache) sont regroupées.
Les configurations à deux clusters (Metro) fournissent une véritable haute disponibilité. Les
opérations se poursuivent et les données restent en ligne même en cas de panne d'un site entier.
Elles offrent également une solution haute disponibilité avec un objectif de point de restauration
(RPO) nul.
Quorum
Le quorum correspond au nombre minimum de directeurs requis pour que le cluster traite et mette
à jour les opérations.
Il existe différentes règles de quorum pour qu'un quorum devienne opérationnel et commence à
traiter les E/S lors de son démarrage, également appelées « acquisition du quorum ». Le
« maintien du quorum » correspond à différentes règles d'un cluster opérationnel qui voit des
pannes de directeur demandant de continuer à traiter les opérations et les E/S après la gestion
d'une panne. L'arrêt du traitement des opérations et des E/S est appelé « perte du quorum ». Ces
règles sont décrites ci-dessous :
l Gaining quorum : Un cluster VPLEX non opérationnel acquiert le quorum et devient
opérationnel lorsque plus de la moitié des directeurs configurés redémarrent et entrent en
contact entre eux. Dans un cluster à un seul moteur, cela correspond à tous les directeurs.
l Maintaining quorum : Un cluster VPLEX opérationnel qui constate des défaillances continuera
à fonctionner dans les scénarios suivants :
n défaillances d'un directeur
– Si moins de la moitié des directeurs opérationnels avec le quorum rencontrent une
défaillance.
– Si la moitié des directeurs opérationnels avec le quorum sont en échec, les directeurs
restants vérifient l'état opérationnel des directeurs défaillants sur le réseau de gestion et
restent actifs.
Après avoir récupéré de cette défaillance, un cluster est en mesure de tolérer des
défaillances de directeur similaires jusqu'à ce qu'il ne reste plus qu'un seul directeur. Dans
un cluster avec un seul moteur, une seule défaillance de directeur est tolérée.
n Défaillance de la communication intracluster
– En cas de séparation au milieu, c'est-à-dire si la moitié des directeurs opérationnels perd
les communications avec l'autre moitié des directeurs, et si ces deux moitiés sont en
cours d'exécution, les directeurs détectent l'état opérationnel sur le réseau de gestion et
donnent l'instruction à la moitié des directeurs dont l'UUID est le plus faible de
poursuivre son exécution et à l'autre moitié (celle dont l'UUID n'est le plus faible) de
cesser ses opérations.
l Quorum loss - Un cluster VPLEX opérationnel qui constate des défaillances cesse de
fonctionner dans les scénarios suivants :
n Si plus de la moitié des directeurs opérationnels disposant du quorum présente une
défaillance en même temps.
n Si la moitié des directeurs opérationnels disposant du quorum rencontre une défaillance, et
que les directeurs sont incapables de déterminer l'état des opérations de l'autre moitié des
directeurs (dont l'appartenance comprend un UUID faible).
n dans un cluster à deux ou quatre moteurs, si tous les directeurs perdent le contact entre
eux.
Volumes de métadonnées
Les métavolumes stockent les métadonnées VPLEX, notamment les mappages virtuel-vers-
physique, les données concernant les périphériques, les volumes virtuels et les paramètres de
configuration système.
Les métadonnées sont stockées dans le cache et sauvegardées sur des volumes externes conçus
spécifiquement, appelés métavolumes.
Une fois le métavolume configuré, les mises à jour des métadonnées sont écrites à la fois dans le
cache et dans le métavolume lorsque la configuration de VPLEX est modifiée.
Chaque cluster VPLEX maintient ses propres métadonnées, notamment :
l La configuration locale du cluster.
l Les informations relatives à la configuration distribuée qui sont partagées entre les clusters.
Lors du démarrage du système, VPLEX lit les métadonnées et charge les informations de
configuration sur chaque directeur.
Lorsque vous modifiez la configuration système, VPLEX écrit les modifications dans le volume de
métadonnées.
Si VPLEX perd son accès au volume de métadonnées, les directeurs VPLEX continuent sans
interruption, en utilisant la copie de la configuration en mémoire. VPLEX bloque les modifications
du système jusqu'à ce que l'accès soit restauré ou que le volume de métadonnées de sauvegarde
automatique soit activé.
Les métavolumes font l'objet d'importantes E/S lors du démarrage et de la mise à niveau du
système.
L'activité des E/S est minime lors d'opérations normales.
Volumes de consignation
Les volumes de consignation gardent une trace des blocs écrits :
l Pendant une panne d'une liaison intercluster.
l Lorsqu'un tronçon d'un DR1 devient inaccessible puis est restauré.
Après la restauration de la liaison ou du tronçon intercluster, le système VPLEX utilise les
informations des volumes de consignation pour synchroniser les miroirs en envoyant uniquement
les régions de blocs modifiées sur la liaison.
Les volumes de consignation peuvent également suivre les modifications lors d'une perte de
volume lorsque ce dernier est un miroir dans un périphérique distribué.
ATTENTION Si aucun volume de consignation n'est accessible, le tronçon entier est marqué
comme étant obsolète. Une resynchronisation complète est nécessaire lorsque le tronçon est
reconnecté.
Les volumes de consignation sur le cluster restant connaissent un niveau important d'E/S dans les
circonstances suivantes :
l Pannes de réseau ou de cluster
l Synchronisation incrémentielle
Lorsque le réseau ou le cluster est restauré, VPLEX lit le volume de consignation afin de
déterminer les écritures à synchroniser avec le volume reconnecté.
Il n'y a aucune activé d'E/S lors de opérations normales.
Cache global
Les systèmes de mémoire de chaque directeur assurent la durabilité des données utilisateur et des
données critiques. Les systèmes synchrones (mode de mise en cache à écriture différée) tirent le
meilleur parti de la baie back-end en écrivant les données utilisateur sur la baie. Il est nécessaire de
recevoir un accusé de réception pour les données écrites avant que l'écriture ne fasse l'objet d'un
accusé de réception adressé en retour à l'hôte.
Moteurs VPLEX
Un moteur VPLEX contient deux directeurs, des modules d’E/S, des ventilateurs et des
alimentations redondantes. Un cluster VPLEX peut avoir un (unique), deux (double), ou
quatre (quadruple) moteurs. Un cluster doté de plusieurs moteurs utilise des switches réseau
redondants pour la communication intracluster. Chaque switch repose sur un onduleur (UPS)
dédié. Les directeurs fournissent des connexions d'E/S front-end et back-end redondantes. Une
alimentation de secours redondante fournit une sauvegarde par batterie à chaque moteur en cas
de pannes d’alimentation.
Remarque: Dans un cluster qui s’exécute sur un matériel VS6, le premier moteur contient les
stations pilotes de module de gestion (MMCS-A et MMCS-B), qui est l’entité de gestion du
matériel VS6.
Dans une configuration à deux ou quatre moteurs, en cas de panne d'un moteur, un autre moteur
termine le traitement des E/S de l'hôte, comme illustré dans la figure suivante.
Engine 1 Engine 2
Virtual Volume
VPLX-000393
Dans une configuration VPLEX Metro, le logiciel de multipathing ainsi que la présentation des
volumes sur des moteurs différents permet une disponibilité continue des données en cas de panne
de moteurs.
Directeurs
Un directeur VPLEX est le composant qui traite les demandes d’E/S des hôtes dans un
environnement VPLEX. Il interagit avec les baies de stockage back-end pour traiter les E/S.
Un directeur dispose de deux modules d’E/S pour traiter les E/S à partir des baies : un pour la
connexion aux baies de stockage sur le back-end et un autre pour la connexion aux hôtes sur le
front-end. Le module de gestion dans le directeur est utilisé pour la connectivité de gestion aux
directeurs et pour la communication intracluster. Le module de communication local est
entièrement dédié à la communication intracluster.
Les ports front-end sur tous les directeurs peuvent fournir un accès à n'importe quel volume virtuel
dans le cluster. Incluez plusieurs ports front-end dans chaque vue du stockage afin d'assurer une
protection contre les pannes de ports. En cas de panne d'un port directeur, le logiciel de
multipathing effectue un basculement transparent vers un autre chemin via un port différent,
comme illustré dans la figure suivante :
Engine 1
Virtual Volume
VPLX-000376
Engine 1
Virtual Volume
VPLX-000392
Serveur de gestion
Chaque cluster VPLEX dispose d'un serveur de gestion. Vous pouvez gérer les deux clusters de la
configuration VPLEX Metro depuis un serveur de gestion. Le serveur de gestion agit en tant
qu’interface de gestion pour d’autres composants VPLEX dans le cluster. Les interfaces IP du
réseau interne redondant relient le serveur de gestion au réseau public. En interne, le serveur de
gestion se trouve sur un réseau IP de gestion dédié qui donne accès à tous les principaux
composants du cluster.
Le rôle principal du serveur de gestion inclut :
Les alimentations
Le cluster VPLEX est connecté à votre source d'alimentation CA. Chaque cluster est équipé d'un
nombre suffisant d'onduleurs permettant au cluster de continuer de fonctionner malgré les
interruptions d'alimentation. Les unités d’alimentation diffèrent entre les matériels VS2 et VS6.
L’architecture de l’alimentation d’un cluster VPLEX s’exécutant sur le matériel VS2 comporte les
éléments suivants :
l Des panneaux d'alimentation (PDP) sont reliés à la source d'alimentation CA du cluster et la
transfèrent aux composants VPLEX par le biais des unités d'alimentation (PDU). Ce système
fournit une interface d'alimentation centralisée et un contrôle de la distribution pour les lignes
d'alimentation d'entrée. Les panneaux d'alimentation sont équipés d'interrupteurs
d'alimentation manuels pour leurs fiches d'alimentation.
l Les unités de distribution d’alimentation qui se connectent à la source d’alimentation CA du
cluster pour alimenter les composants VPLEX via les alimentations de secours. Les unités de
distribution d’alimentation comportent des disjoncteurs, ce qui protège les composants
matériels des fluctuations de l’alimentation.
l Les unités d’alimentation de secours disposant d'une capacité suffisante pour faire face aux
coupures d’alimentation temporaires. Une seule source d'alimentation de secours fournit
suffisamment d'alimentation pour permettre au moteur attaché de continuer de fonctionner
malgré 2 pannes d'alimentation successives de 5 minutes. Un bloc d’alimentation de secours
(deux modules) fournit du courant à chaque moteur en cas d’interruption de l’alimentation CA.
Chaque module d’alimentation de secours compense la perte d’alimentation pendant deux
périodes de cinq minutes lors de la phase d’arrêt du moteur.
l Les clusters à deux et quatre moteurs comprennent deux onduleurs : l'onduleur A et
l'onduleur B. Le premier onduleur fournit des batteries de secours pour le premier switch du
réseau et le serveur de gestion. Quant au second, il fournit une sauvegarde par batterie pour
l’autre switch. Chaque module d’onduleur compense la perte d’alimentation pendant deux
périodes de cinq minutes lors de la phase d’arrêt du moteur.
L’architecture de l’alimentation d’un cluster VPLEX s’exécutant sur le matériel VS6 comporte les
éléments suivants :
l Les unités de distribution d’alimentation qui se connectent à la source d’alimentation CA du
cluster pour alimenter les composants VPLEX via les unités d’alimentation (PSU) Les unités de
distribution d’alimentation comportent des disjoncteurs, ce qui protège les composants
matériels des fluctuations de l’alimentation.
l Les blocs-batteries de secours (BBU) disposant d'une capacité suffisante pour faire face aux
coupures d’alimentation temporaires. Un ensemble de blocs-batteries (deux modules de bloc-
batteries) fournit du courant à chaque moteur en cas d’interruption de l’alimentation CA.
l Les clusters à deux et quatre moteurs comprennent deux onduleurs : l'onduleur A et
l'onduleur B. Le premier onduleur fournit des batteries de secours pour le premier switch du
réseau. Quant au second, il fournit une sauvegarde par batterie pour l’autre switch. Chaque
module d’onduleur compense la perte d’alimentation pendant deux périodes de cinq minutes
lors de la phase d’arrêt du moteur.
Failure Domain #3
VPLEX Witness
Inter-cluster
Network A
Inter-cluster
Network B
Le serveur VPLEX WITNESS doit être déployé dans un domaine de panne séparé des deux
clusters VPLEX. Ce déploiement permet à VPLEX Witness de distinguer une panne de site d'une
liaison et de fournir une aide appropriée.
VPLEX Metro HA
Les configurations VPLEX Metro haute disponibilité (HA) sont composées d'un système
VPLEX Metro déployé en conjonction avec VPLEX Witness. Il existe deux types de configuration
de Metro HA :
l VPLEX Metro HA peut être déployé aux endroits où les clusters sont séparés par un RTT de
latence de 5 ms ou moins.
l VPLEX Metro HA associé à Cross Connect entre les clusters et les hôtes VPLEX peut être
déployé aux endroits où les clusters sont séparés par une latence dont le RTT est au maximum
de 1 ms.
l Lorsque VMware Distributed Resource Scheduler (DRS) est activé, distribuez les pics de
charges applicatives entre les datacenters, afin de réduire les besoins en stockage
supplémentaire à acheter.
l Supprimez l'obligation d'étendre le fabric Fibre Channel entre les sites. Vous pouvez conserver
l'isolement des fabrics entre les deux sites.
Dans ce déploiement, les machines virtuelles peuvent écrire vers le même périphérique distribué,
depuis n'importe quel cluster, et se déplacer entre deux emplacements géographiquement
disparates.
Si vous utilisez VMware Distributed Resource Scheduler (DRS) afin d'automatiser la distribution
des charges sur les machines virtuelles sur plusieurs serveurs ESX, vous pouvez déplacer une
machine virtuelle d'un serveur ESX attaché à un cluster VPLEX vers un serveur ESX attaché au
second cluster VPLEX, sans perdre l'accès au stockage sous-jacent.
Défaillance d'une baie de stockage Les applications ne sont pas affectées. VPLEX
redirige dynamiquement les E/S vers la copie
miroir sur la baie restante.
Remarque: Cet exemple part du principe
que tous les volumes distribués sont
également mis en miroir sur le cluster
local. Si ce n'est pas le cas, l'application
reste disponible car les données peuvent
être extraites du cluster distant et
envoyées depuis/vers celui-ci. Toutefois,
chaque opération de lecture/écriture a
désormais un coût en termes de
performances.
par rapport au Fibre Channel sur le WAN et est disponible avec les configurations à un, deux et
quatre moteurs. Metro via IP fonctionne avec du matériel VS2 et VS6.
Ce chapitre décrit le logiciel GeoSynchrony, qui s’exécute sur les directeurs VPLEX, et sa mise à
niveau sans perturbation.
l GeoSynchrony.......................................................................................................................62
l Mise à niveau sans perturbation (NDU).................................................................................64
GeoSynchrony
GeoSynchrony est le système d'exploitation exécuté sur les directeurs VPLEX. GeoSynchrony
fonctionne à la fois sur les matériels VS2 et VS6.
GeoSynchrony est :
l conçu pour fournir une haute disponibilité et un fonctionnement robuste dans des
environnements dispersés géographiquement
l mû par des opérations d'E/S en temps réel
l intelligent en matière de localité d'accès
l conçu pour fournir le répertoire global prenant en charge AccessAnywhere
Le tableau suivant reprend brièvement les fonctionnalités offertes par GeoSynchrony et
AccessAnywhere :
Encapsulation du volume de stockage Les LUN sur une baie back-end peuvent être
importées dans une instance de VPLEX et
utilisées sans crainte pour leurs données.
d’applications prises en charge par VPLEX. La matrice de support simplifiée EMC peut être
consultée à l’adresse :
https://www.dell.com/support
Un cluster VPLEX peut comprendre un, deux ou quatre moteurs. Chaque moteur VPLEX comprend
deux directeurs. Chaque directeur fournit des connexions d'E/S front-end et back-end.
La figure suivante présente la vue avant du rack à quatre moteurs VPLEX.
Figure 24 Cluster VS6 à quatre moteurs - vue avant
Le tableau suivant décrit les principaux composants d'un cluster VPLEX et leurs fonctions.
Composant Description :
l deux directeurs ;
l deux modules de base ;
l des modules d’E/S ;
l 20 ventilateurs par système ;
l 6 ventilateurs par directeur ;
l 8 ventilateurs pour le refroidissement des
baies de disque (quatre par module de
base et quatre montés sur châssis).
Remarque: VS6 utilise des modules de
remplissage de ventilateur
uniquement pour les baies de disque.
La section Haute disponibilité et matériel VPLEX fournit davantage d’informations sur les
composants VPLEX et leur prise en charge des fonctions d’intégrité et de résilience de VPLEX.
Un cluster VPLEX qui s’exécute sur le matériel VS2 peut comporter un, deux ou quatre moteurs.
Chaque moteur VPLEX comprend deux directeurs. Chaque directeur fournit des connexions d'E/S
front-end et back-end.
La figure suivante présente la vue avant du rack à quatre moteurs VPLEX VS2.
Figure 25 Cluster à quatre moteurs VS2
Engine 4, Director B ON
I
O
OFF
ON
I
O
OFF
Engine 4, Director A
SPS 4B SPS 4A
ON ON
I I
O O
OFF OFF
SPS 3B SPS 3A
Laptop tray
Fibre Channel switch B
UPS B
Fibre Channel switch A
UPS A
OFF OFF
O O
I I
Management server
ON ON
SPS 2B SPS 2A
OFF OFF
O O
I I
ON ON
SPS 1B SPS 1A
VPLX-000228
Le tableau suivant décrit les principaux composants d'un cluster VPLEX et leurs fonctions.
Composant Description :
Composant Description :
Directeur Contient :
l cinq modules d’E/S (IOM)
l un module de gestion pour la
communication intracluster
l deux alimentations redondantes de 400 W
avec ventilateurs intégrés
l CPU
l un disque SSD contenant l'environnement
d'exploitation GeoSynchrony
l RAM
Switches Fibre Channel COM (pour les Fournit une prise en charge de la
clusters à deux ou quatre moteurs communication intracluster parmi les
uniquement) directeurs. Celle-ci est indépendante du
stockage d'E/S.
Composant Description :
La section Haute disponibilité et matériel VPLEX fournit davantage d’informations sur les
composants VPLEX et leur prise en charge des fonctions d’intégrité et de résilience de VPLEX.
accès direct à la L'accès direct à la mémoire distante permet aux ordinateurs d'un même réseau
mémoire distante d'échanger des données en utilisant leur mémoire principale, sans avoir recours au
(RDMA) processeur, au cache ou au système d'exploitation d'un des ordinateurs.
AccessAnywhere AccessAnywhere est le nom de la technologie révolutionnaire qui permet aux clusters
VPLEX de fournir un accès aux informations entre des clusters éloignés les uns des
autres.
actif/actif Ce terme désigne un cluster dénué de serveur principal ou de serveur de secours car
tous les serveurs peuvent exécuter les applications et servir de serveur de sauvegarde
pour n'importe quel autre.
actif/passif Ce terme désigne un composant sous tension prêt à entrer en opération en cas de
défaillance d'un composant principal.
Active Directory Active Directory (AD) est un service d'annuaire intégré à la plupart des systèmes
d'exploitation Windows Server. AD authentifie et autorise les utilisateurs et les
ordinateurs sur un réseau dont le type de domaine est Windows.
Adaptateur HBA (host Un HBA est un adaptateur d'E/S qui gère le transfert d'informations entre le bus de
bus adapter) l'ordinateur hôte et le système mémoire. Cet adaptateur remplit plusieurs fonctions
d'interface de bas niveau, soit de manière automatique, soit avec la participation
minimale des processeurs afin de limiter autant que possible l'impact sur la
performance des processeurs hôtes.
appliance RecoverPoint Une RPA est un matériel qui gère tous les aspects de la protection des données d’un
(RPA) groupe de stockage, notamment la capture des modifications, le stockage des images
dans les volumes de consignation et l’exécution de la restauration d’images.
architecture réseau L'architecture désigne la conception d'un réseau, à savoir le matériel, les logiciels, la
méthode de connexion et le protocole utilisés.
asynchrone Ce terme décrit les objets ou les événements qui ne sont pas coordonnés dans le
temps. Un processus se déroule indépendamment d'autres processus ; il est amorcé
puis abandonné en faveur d'une autre tâche avant d'avoir fait l'objet d'un accusé de
réception. Par exemple, un hôte écrit des données sur les lames puis commence une
autre tâche tandis que ces données sont transférées de manière asynchrone sur un
disque local sur le WAN.
baie découverte Une baie découverte est une baie connectée au SAN et découverte par VPLEX.
baie enregistrée Il s'agit d'une baie qui est enregistrée avec VPLEX. L'enregistrement est indispensable
pour que la baie soit disponible pour le provisionnement basé sur les services.
L'enregistrement comprend la connexion ainsi que la sensibilisation aux fonctionnalités
intelligentes de la baie. Seules les baies VMAX et VNX peuvent être enregistrées.
bande passante La bande passante désigne la plage de fréquences de transmission qu'un réseau peut
prendre en charge, exprimée comme la différence entre les fréquences les plus élevées
et les plus basses d'un cycle de transmission. Une bande passante élevée permet un
plus grand volume de transmissions ou des transmissions plus rapides.
biais Lorsqu'un cluster a un biais en faveur d'un DR1 donné, il continue de traiter les E/S sur
les volumes de ce cluster en cas de perte de connectivité (en raison d'une partition de
cluster ou d'une défaillance du cluster) avec le cluster distant. Le biais pour un volume
particulier est déterminé par les règles de déconnexion du volume, les règles de
déconnexion du groupe de cohérence (si le volume est membre d'un tel groupe) et
VPLEX Witness (si VPLEX Witness est déployé).
bit Un bit est une unité d'information dont la valeur binaire est 0 ou 1.
bloc Un bloc désigne la plus petite quantité de données transférable selon les normes SCSI,
qui correspond généralement à 512 octets. Les volumes virtuels sont présentés aux
utilisateurs sous la forme de listes contiguës de blocs.
Bookmark Un signet est un libellé appliqué à un instantané afin que ce dernier puisse être
explicitement appelé (identifié) au cours du processus de restauration (pendant l'accès
à l'image). Les signets sont créés via la CLI ou la GUI et peuvent être créés
manuellement par l'utilisateur ou automatiquement par le système. Les signets peuvent
être créés automatiquement, soit à
intervalles réguliers prédéfinis, soit en réponse à un événement système particulier. Les
signets parallèles sont des signets créés simultanément sur plusieurs groupes de
cohérence.
cache Le cache désigne l'espace de stockage temporaire des écritures récentes et des
données récemment consultées. Les données du disque sont lues via le cache si bien
qu'il contient également les références de lecture ultérieures.
cache sur disque Le cache sur disque désigne une section de RAM qui fournit un cache entre le disque et
le CPU. Le délai d'accès du RAM est beaucoup plus rapide que le délai d'accès du
disque. Par conséquent, un système de mise en cache sur disque permet à l'ordinateur
de fonctionner plus rapidement en plaçant les données récemment consultées sur ce
cache.
cluster Un cluster est un minimum de deux directeurs VPLEX formant un cluster unique
tolérant aux pannes, déployé sous forme d'un à quatre moteurs.
clustering Le clustering désigne l'utilisation d'au moins deux ordinateurs qui fonctionnent comme
une seule entité. La tolérance aux pannes et l'équilibrage de charge sont deux
avantages du clustering qui améliorent la fiabilité et la durée d'activité.
Cluster RecoverPoint Le cluster RecoverPoint regroupe l'ensemble des appliances RecoverPoint connectées
de chaque côté de la réplication.
cohérence du cache Ce terme désigne la gestion du cache pour éviter qu'il ne soit perdu, corrompu ou
remplacé. Lorsque plusieurs processeurs sont présents, les blocs de données peuvent
exister en plusieurs copies : une copie dans la mémoire principale et une autre copie
dans chacune des mémoires cache. La cohérence du cache propage les blocs de
plusieurs utilisateurs dans le système en temps opportun, de manière à ce que les blocs
de données aient tous la même version dans les différents caches des processeurs.
continuité des La continuité des opérations désigne l'objectif visant à définir des stratégies et des
opérations (COOP) procédures à utiliser en cas d'urgence, notamment en ce qui concerne la capacité de
traiter, de stocker et de transmettre des données avant et après cette situation
d'urgence.
contrôle de parité Le contrôle de parité désigne la vérification des erreurs dans les données binaires.
Selon que l'octet comprend un nombre de bits pair ou impair, un bit supplémentaire 0
ou 1 est ajouté à chaque octet dans une transmission ; ce bit supplémentaire est
nommé bit de parité. L'émetteur et le récepteur s'accordent sur la parité impaire, la
parité paire ou l'absence de parité. S'ils s'accordent sur la parité paire, un bit de parité
est ajouté à chaque octet pour le rendre pair. S'ils s'accordent sur la parité impaire, un
bit de parité est ajouté à chaque octet pour le rendre impair. Si les données sont
transmises de manière incorrecte, le changement de parité révélera l'erreur.
directeur Un directeur est un module CPU qui exécute GeoSynchrony, le logiciel principal de
VPLEX. Chaque moteur comprend deux directeurs (A et B), chacun d'entre eux
disposant de ses propres ressources et pouvant fonctionner indépendamment.
domaine de panne Un domaine de panne est un ensemble de composants qui partagent un point unique de
défaillance. VPLEX repose sur le concept de la séparation de chaque composant d'un
système hautement disponible disponibilité, si bien que si une panne se produit dans un
domaine, elle n'entraînera pas de panne dans les autres domaines auxquels elle est
connectée.
données non Il s'agit des données à écrire stockées dans la mémoire cache, qui n'ont pas encore été
synchronisées écrites sur le disque.
échec Il y a échec lorsqu'une opération de recherche sur le cache ne permet pas de retrouver
les données sollicitées, si bien que ces données doivent être consultées depuis le
disque.
ensemble de réplication Lorsque RecoverPoint est déployé, un ensemble de réplication désigne un volume de
production source et un ou plusieurs volumes de réplica sur lequel il est répliqué.
entrée/sortie (E/S) Il peut s'agir d'une opération, d'un programme ou d'un périphérique quelconque qui
transfère des données en provenance ou à destination d'un ordinateur.
espace de nommage Ce terme désigne un ensemble de noms reconnus par un système de fichiers dans
lequel tous les noms sont uniques.
Ethernet Un protocole de réseau local (LAN). Ethernet utilise une topologie en bus, ce qui
signifie que tous les périphériques sont connectés à un câble central, et prend en
charge des taux de transfert de données compris entre 10 mégabits et 10 gigabits par
seconde. Par exemple 100 Base-T prend en charge des taux de transfert de données
de 100 Mbit/s.
événement Un événement désigne un message de log qui est le résultat d'une action significative
initiée par un utilisateur ou par le système.
extension Une extension représente la totalité ou une portion (plage de blocs) d'un volume de
stockage.
fiabilité La fiabilité désigne la capacité d'un système à restaurer les données perdues.
Fibre Channel (FC) FC est un protocole de transmission des données entre périphériques informatiques. La
fibre optique doit être utilisée pour les distances plus longues. Toutefois, FC fonctionne
également en utilisant un câble coaxial et des supports de téléphone ordinaires à paires
torsadées. Fibre Channel prend en charge des interfaces point à point, commutées et
boucle. Il est utilisé avec un SAN pour acheminer le trafic SCSI.
Fibre Channel over IP FCIP combine les caractéristiques de Fibre Channel et du protocole Internet pour
(FCIP) connecter les SAN dans des systèmes distribués géographiquement.
gigabit (Gbit) 1 073 741 824 (2^30) bits. Souvent arrondi à 10^9.
gigabit Ethernet Il s'agit de la version d'Ethernet qui prend en charge des taux de transfert de données
d'un gigabit par seconde.
gigaoctet (Go) 1 073 741 824 (2^30) octets. Souvent arrondi à 10^9.
groupe de cohérence Un groupe de cohérence est une structure VPLEX qui regroupe les volumes virtuels et
applique les mêmes règles de déconnexion et de basculement à tous les volumes qui la
composent. Les groupes de cohérence garantissent l'application uniforme d'un
ensemble de propriétés à un groupe entier. Créez des groupes de cohérences pour les
ensembles de volumes qui doivent adopter le même comportement E/S en cas de
panne d’une liaison. Il existe deux types de groupe de cohérence :
l Groupes de cohérence synchrone : utilisent un mode de cache à écriture immédiate
(synchrone) pour écrire les données sur le stockage sous-jacent avant qu'un
accusé de réception ne soit envoyé à l'hôte. Cette opération dépend de la latence
entre les clusters et de la tolérance des applications à cette latence.
l Groupes de cohérence synchrone : utilisent un mode de cache à écriture différée
(asynchrone) pour écrire et protéger les données en les mettant en miroir dans la
mémoire d'un autre directeur du cluster. Les données sont reclassées de manière
asynchrone sur les baies de stockage back-end. Les lectures font l'objet d'un
accusé de réception une fois que les données ont été validées sur le disque dans
l'ordre d'écriture.
groupe de cohérence Il s'agit d'un groupe de cohérence qui protège un volume DR1 dans une topologie
MetroPoint (groupe MetroPoint.
Metro)
groupe de cohérence Il s'agit d'une entité logique consistant en un regroupement de plusieurs ensembles de
RecoverPoint réplication afin de garantir la cohérence de l'ordre d'écriture sur tous les volumes
primaires des ensembles de réplication.
Les groupes de cohérence RecoverPoint sont utilisés pour configurer les politiques de
protection et pour définir les stratégies RPO et RTO. Les stratégies d'un groupe de
cohérence déterminent le comportement pendant les pannes et les reprises. Une
opération sur un groupe de cohérence RecoverPoint s'applique à tous les ensembles de
réplication du groupe concerné, ainsi qu'à leurs volumes de production, de réplica et de
consignation connexes
Les groupes de cohérence RecoverPoint surveillent tous les volumes membres pour
garantir la cohérence et le respect de l’ordre des écritures. Si deux datasets dépendent
l'un de l'autre (par exemple, une base de données et un fichier log de base de
données), ils doivent appartenir au même groupe de cohérence RecoverPoint.
Il existe trois types de groupe de cohérence RecoverPoint :
l groupes de cohérence non distribués
l Groupes de cohérence distribués
l groupes de cohérence MetroPoint
Groupes de cohérence Les groupes de cohérence RecoverPoint sont divisés en quatre segments. Chaque
distribués segment s'exécute sur une RPA primaire et entre une et trois RPA secondaires.
Les groupes de cohérence distribués permettent d'obtenir un débit et un taux d'IOPS
beaucoup plus élevés, quelle que soit la quantité de données en cours de réplication.
groupes de cohérence Ce type de groupe transfère les données via une RPA primaire désignée par l'utilisateur
non distribués lors de la création du groupe. Les politiques mises en application par le groupe de
cohérence peuvent être modifiées à tout moment.
Cependant, en cas de panne d'une RPA, les groupes transférant leurs données via
cette RPA seront déplacés sur d’autres RPA du cluster.
ID de cluster Il s'agit de l'identifiant de chaque cluster dans un déploiement à plusieurs clusters. Cet
ID est attribué au cours de l'installation.
ID de site Il s'agit de l'identifiant de chaque cluster dans un VPLEX à plusieurs clusters. Par
défaut, dans un système non distribué géographiquement, l’ID est 0. Dans un système
distribué géographiquement, l'ID du premier cluster est 1, le suivant est 2 et ainsi de
suite, chaque numéro identifiant un cluster physiquement distinct. Ces identifiants sont
attribués au cours de l'installation.
ID du déploiement de Il s'agit de l'identifiant numérique de cluster, unique au sein d'un cluster VPLEX. Par
cluster défaut, l'ID de déploiement des clusters VPLEX est 1. Pour les déploiements à plusieurs
clusters, tous les clusters sauf un doivent être reconfigurés afin de leur attribuer un ID
de déploiement de cluster différent.
infiniband Une norme réseau utilisée pour la transmission des données sur et entre les
ordinateurs. Le matériel VS6 utilise ce protocole pour les communications intracluster.
interface de ligne de Il s'agit d'une interface qui prend en charge l'utilisation de commandes saisies pour
commande (CLI) exécuter des tâches spécifiques.
intranet Un intranet est un réseau fonctionnant comme le World Wide Web mais dont l'accès
est restreint à un groupe limité d'utilisateurs autorisés.
iSCSI (Internet Small Ce protocole permet aux commandes de transiter via les réseaux IP en acheminant les
Computer System données des unités de stockage vers les serveurs, quel que soit leur emplacement sur
Interface) un réseau informatique.
IUUID (identifiant unique Il s'agit d'un numéro à 64 bits utilisé pour identifier de manière unique chaque directeur
universel) VPLEX. Ce numéro est basé sur le numéro de série de matériel attribué à chaque
directeur.
latence La latence désigne le délai nécessaire pour satisfaire à une demande E/S.
métavolume Un métavolume est un volume de stockage utilisé par le système qui contient les
métadonnées de tous les volumes virtuels gérés par le système. Chaque cluster
comporte un volume de stockage de métadonnées.
Metro-Plex Deux clusters VPLEX Metro connectés dans un rayon Metro (synchrone), soit environ
60 miles ou 100 kilomètres.
microprogramme Ce terme désigne le logiciel qui est chargé sur la ROM Flash des directeurs VPLEX et
qui s'exécute depuis celle-ci.
microprogramme Ce terme désigne le logiciel qui est chargé sur la ROM Flash des directeurs VPLEX et
qui s'exécute depuis celle-ci.
miroir actif Un miroir actif désigne une copie des données qui font partie d'un service de mise en
miroir locale ou à distance.
mise en miroir Ce terme désigne l'écriture de données sur au moins deux disques simultanément. En
cas de panne de l'une des unités de disque, le système peut instantanément se reporter
sur l'un des autres disques sans perte de données ni de service. RAID 1 assure la mise
en miroir.
mode d'écriture différée Avec cette technique de mise en cache, l'achèvement d'une demande d'écriture est
communiqué dès que les données sont mises en cache, tandis que l'écriture sur le
disque se produit à un moment différent. L'écriture différée est plus rapide que
l'écriture immédiate mais elle est exposée au risque d'une panne système avant que les
données soient écrites sur le disque et, donc, sécurisées.
mode d'écriture Avec cette technique de mise en cache, l'achèvement d'une demande d'écriture est
immédiate uniquement communiqué une fois que les données ont été écrites sur le disque. Cette
technique est quasiment semblable aux systèmes sans cache, mais avec la protection
des données.
numéro d'unité logique L'unité logique est un espace de stockage virtuel auquel il est possible de donner accès
(LUN) ou refuser l'accès à un serveur particulier connecté physiquement au dispositif de
stockage sous-jacent. Les LUN sont utilisées pour identifier les dispositifs SCSI, tels
que les disques durs externes qui sont connectés à un ordinateur. Un numéro de LUN
est attribué à chaque périphérique et représente son adresse unique.
Objectif de point de Objectif de point de restauration. Le RPO correspond à l'intervalle de temps entre le
restauration (RPO) point de défaillance d'un système de stockage et le point dans le passé à partir duquel
le système de stockage devrait être en mesure de restaurer les données client. En
termes informels, le RPO représente la quantité maximale de perte de données que
l'application peut tolérer après une défaillance. La valeur du RPO dépend fortement de
la technique de restauration utilisée. Par exemple, le RPO se compte généralement en
jours pour les restaurations et en minutes pour les réplications asynchrones, tandis que
pour la mise en miroir ou la réplication synchrone, il se compte en secondes ou est
instantané.
Objectif de temps de Objectif de temps de récupération. À ne pas confondre avec le RPO, le RTO
restauration (RTO) correspond au délai dans lequel une solution de stockage est censée récupérer après
une panne et commencer à traiter les demandes des applications. En termes informels,
le RTO représente la panne d'application tolérable la plus longue en raison d'une
défaillance d'un système de stockage. Le RTO est une fonction de la technologie de
stockage. Il peut se mesurer en heures pour les systèmes de sauvegarde, en minutes
pour une réplication distante et en secondes (ou moins) pour une mise en miroir.
octet Un octet représente l'espace mémoire utilisé pour stocker huit bits de données.
onduleur Un onduleur est une alimentation électrique qui comprend une batterie afin de
poursuivre l'alimentation en cas de panne électrique.
partage des données Ce terme désigne la capacité à partager l'accès aux mêmes données avec plusieurs
serveurs, indépendamment du moment et de l'emplacement.
partition Une partition désigne une subdivision d'un disque physique ou virtuel, qui est une entité
logique uniquement visible par l'utilisateur final mais par aucun des dispositifs.
partition de réseau On parle de partition lorsqu'un site perd le contact ou la communication avec un autre
site.
pause du Il s'agit d'un attribut d'une baie enregistrée qui vous permet de rendre cette baie
provisionnement indisponible afin de provisionner un nouvel espace de stockage.
périphérique Un périphérique local est une combinaison d'une ou plusieurs extensions auxquelles
vous ajoutez des propriétés RAID spécifiques. Les périphériques locaux utilisent le
stockage d'un seul cluster. Dans les configurations VPLEX Metro et Geo, les
périphériques distribués utilisent le stockage des deux clusters.
périphérique distribué Un périphérique distribué est un périphérique RAID 1 dont les miroirs se situent dans
différents clusters VPLEX.
périphérique local Un périphérique local est une combinaison d'une ou plusieurs extensions auxquelles
vous ajoutez des propriétés RAID spécifiques. Les périphériques locaux utilisent le
stockage d'un seul cluster.
périphérique RAID1 Les périphériques distribués disposent de volumes physiques sur les deux clusters dans
distribué (DR1) une configuration VPLEX Metro pour permettre un accès simultané actif/actif et
lecture/écriture en utilisant AccessAnywhere.
pièce de remplacement Il s'agit d'une unité ou d'un composant d'un système qui peut être remplacé sur place,
sur site (FRU) sans qu'il ne soit nécessaire de renvoyer le système au fabricant pour qu'il le répare.
port back-end Le port back-end désigne le port directeur de VPLEX connecté aux baies de stockage
(agit comme initiateur).
port front-end Le port front-end est le port directeur VPLEX connecté aux initiateurs hôtes (agit
comme initiateur).
protocole Internet Fibre Ce protocole utilise TCP pour connecter des périphériques de stockage Fibre Channel
Channel (iFCP) à des SAN ou à Internet dans des systèmes distribués géographiquement.
RAID RAID désigne l'utilisation d'au moins deux volumes de stockage en vue d'améliorer la
performance, la reprise après erreur et la tolérance aux pannes.
RAID 0 RAID 0 désigne une technique de mappage des données agrégées par bandes ou
dispersées orientée sur la performance. Des blocs de stockage de taille uniforme sont
attribués selon une séquence régulière à tous les disques des baies. RAID 0 garantit
une performance élevée en E/S pour un coût inhérent faible. Aucun disque
supplémentaire n’est requis. Les avantages de RAID 0 proviennent de sa conception
très simple et de sa facilité d'implémentation.
RAID 1 RAID 1, appelé également mise en miroir, est utilisé depuis plus longtemps que toute
autre forme de RAID. Il demeure populaire en raison de sa simplicité et du niveau élevé
de disponibilité des données. Une baie mise en miroir se compose d'un minimum de
deux disques. Dans une baie mise en miroir, chaque disque conserve une image
identique des données utilisateur. RAID 1 n'a pas de striping. La performance en lecture
est améliorée car n'importe quels disques peuvent être lus au même moment. La
performance en écriture est en revanche inférieure à celle du stockage sur un seul
disque. En effet, avec RAID 1, les données doivent être écrites sur tous les disques ou
miroirs. RAID 1 garantit une très grande fiabilité des données pour les applications à
taux de lecture élevés.
règles de déconnexion Il s'agit de règles prédéfinies qui déterminent quel cluster continue les E/S en cas de
perte de connectivité entre les clusters. Un cluster perd la connectivité à son cluster
homologue en raison d'une partition ou d'une défaillance de cluster.
Les règles de déconnexion sont appliquées à deux niveaux : aux volumes individuels et
aux groupes de cohérence. Si un volume est membre d'un groupe de cohérence, les
règles de déconnexion de ce groupe prévaudront sur les règles définies pour les
volumes individuels. Notez que toutes les règles de déconnexion peuvent être
remplacées par VPLEX Witness, si celui-ci est déployé.
Répartition Cette technique permet de répartir les données sur plusieurs unités de disque. La
répartition sur disque peut accélérer les opérations qui extraient des données depuis le
stockage sur disque. Les données sont divisées en unités puis distribuées entre les
disques disponibles. RAID 0 prend en charge la répartition sur disque.
reprise après sinistre Ce terme désigne la capacité à redémarrer les opérations système après une erreur,
évitant ainsi toute perte de données.
réseau local (LAN) Un réseau local est un groupe d'ordinateurs et de périphériques associés qui partagent
une même ligne de communication et, en règle générale, les ressources d'un même
processeur ou serveur dans une zone géographique peu étendue.
restaurer source Cette opération restaure le groupe de cohérence source à partir des données de la
copie cible.
SAN (Storage Area Un SAN est un réseau ou un sous-réseau à grande vitesse et à usage spécial qui
Network) raccorde entre eux différents types de dispositif de stockage de données avec les
serveurs de données qui leur sont associés au nom d'un plus vaste réseau d'utilisateurs.
SCSI (Small Computer SCSI désigne un ensemble d'interfaces électroniques standard ANSI évolutives qui
System Interface) permettent aux ordinateurs personnels de communiquer plus rapidement et de manière
plus flexible que les interfaces précédentes avec le matériel périphérique tel que les
unités de disque, les lecteurs de bande, les lecteurs de CD-ROM, les imprimantes et les
scanners.
seed IP du cluster Le seed IP du VPLEX sert à générer les adresses IP utilisées par les composants
internes du VPLEX. Pour en savoir plus sur les composants et leurs adresses IP,
reportez-vous au Guide d’installation et de configuration Dell EMC VPLEX. L’ID du
cluster est utilisé par le logiciel de virtualisation (messagerie interdirecteurs,
identification des clusters).
séparateur Ce terme désigne la technologie de séparation des écritures Dell EMC RecoverPoint
intégrée à GeoSynchrony à partir de la version 5.1.
services de mise en Il s'agit des fonctionnalités de mise en miroir fournies via un profil de service de
miroir stockage.
site RecoverPoint Un site RecoverPoint regroupe toutes les entités RecoverPoint qui se trouvent sur un
côté de la réplication.
SLES SUSE Linux Enterprise Server (SLES) est une distribution Linux fournie par SUSE
ciblant le marché des entreprises.
Snapshot/PIT Il s'agit d'une copie ponctuelle qui préserve l'état des données à un instant particulier
dans le temps en stockant uniquement les blocs qui diffèrent de ceux d'une copie
complète déjà existante des données.
Les snapshots sont également nommés « point dans le temps » (PIT). Les snapshots
stockés dans un journal de réplica correspondent aux données modifiées sur le
stockage de production depuis la capture du snapshot précédent.
SNMP (Simple Network Le protocole SNMP surveille les systèmes et les dispositifs dans un réseau.
Management Protocol)
Station pilote des L’entité de gestion (serveur de gestion) est le matériel VS6. Le premier moteur dans un
module de gestion cluster comprend les deux MMCS suivants : A et B. Tous les autres moteurs disposent
(MMCS) de modules de gestion Akula pour la connectivité de la gestion.
synchrone Ce terme décrit les objets ou les événements qui sont coordonnés dans le temps. Il
implique qu'un processus a été initié et doit se terminer avant qu'une autre tâche soit
autorisée à commencer.
Par exemple, dans le domaine bancaire, deux retraits d'argent d'un compte courant qui
ont commencé au même moment ne doivent pas se chevaucher ; ils sont donc traités
de manière synchrone.
système de fichiers Ce système permet le partage de fichiers et de ressources sous la forme d'un stockage
distribué (DFS) persistant sur un réseau.
système de fichiers UN GFS est un cluster avec stockage partagé ou un système de fichiers distribué.
global (GFS)
système distribué Il s'agit d'un système qui est distribué physiquement entre un minimum de deux sites
géographiquement géographiques différents. Le degré de distribution peut varier fortement, ces
différents sites pouvant aussi bien se trouver sur un même campus que sur différents
continents.
taille de transfert La taille de transfert correspond à la taille de la région du cache utilisée pour réaliser la
migration des données. Cette zone est globalement verrouillée, lue à la source et écrite
sur la cible. La taille du transfert peut être aussi petite que 40 Ko ou aussi grande que
128 Mo et doit être un multiple de 4 Ko. La valeur par défaut est 128 Ko.
Une taille de transfert plus élevée se traduit par une meilleure performance de la
migration mais peut avoir un impact négatif sur les E/S front-end. Cela est
particulièrement vrai pour les migrations VPLEX Metro. Définissez une taille de
transfert élevée pour les migrations lorsque votre priorité est la protection des données
ou la performance de la migration.
Une taille de transfert plus petite se traduit par une plus faible performance de la
migration mais aussi par un impact réduit sur les E/S front-end et les délais de réponse
pour les hôtes. Définissez une taille de transfert moins élevée pour les migrations
lorsque votre priorité est le temps de réponse du stockage front-end.
TCL (tool command TCL est un langage de script fréquemment utilisé pour les prototypes rapides et les
language) applications scriptées.
TCP/IP (Transmission Il s'agit du langage ou du protocole de communication de base utilisé pour le trafic sur
Control Protocol/ un réseau privé et sur Internet.
Internet Protocol)
tolérance aux pannes La tolérance aux pannes désigne la capacité d'un système à continuer de fonctionner
en cas de panne matérielle ou logicielle, généralement possible grâce à la duplication
des composants système essentiels.
tronçon RAID Ce terme désigne une copie des données, appelée miroir, qui se situe à l'emplacement
actuel de l'utilisateur.
Unité de batterie de Les BBU fournissent du courant à chaque moteur en cas d’interruption de
secours (BBU) l’alimentation CA. Chaque moteur VPLEX dispose d'un ensemble de BBU comprenant
deux modules BBU.
virtualisation Ce terme désigne une couche d'abstraction implémentée dans les logiciels que les
serveurs utilisent afin de diviser le stockage physique disponible en volumes de
stockage ou en volumes virtuels.
volume de référentiel Un volume de référentiel est un volume dédié à RecoverPoint pour chaque cluster RPA.
Il sert toutes les RPA d'un cluster RPA donné ainsi que le séparateur associé à ce
cluster. Il stocke les informations de configuration relatives aux RPA et aux groupes de
cohérence RecoverPoint. Il existe un volume de référentiel par cluster RPA.
volume de stockage Un volume de stockage est une unité logique (LUN) ou une unité de stockage
présentée par la baie back-end.
Volumes de consignation Les volumes de consignation contiennent les données en attente de distribution vers
les volumes de réplica cibles ainsi que les copies de données précédemment distribuées
vers les volumes cibles. Ils permettent d’effectuer un retour arrière à un point dans le
temps en toute facilité. Il est ainsi possible de restaurer instantanément des
environnements applicatifs.
volumes de journal de Il s'agit des volumes qui stockent les informations de marquage delta du système.
production
Volumes de production Il s'agit des volumes sur lesquels les applications hôtes écrivent leurs données. Les
écritures sur les volumes de production sont divisées de manière à être envoyées
simultanément sur les volumes normalement désignés et sur les RPA.
Chaque volume de production doit être exactement de la même taille que le volume de
réplica sur lequel il est reproduit.
volumes de réplica Il s'agit des volumes sur lesquels les volumes de production sont répliqués. Dans les
versions précédentes, un volume de réplica doit avoir exactement la même taille que
son volume de production. Dans RecoverPoint (RP) 4.0 et GeoSynchrony version 5.2,
RecoverPoint prend en charge une fonctionnalité nommée Fake Size, grâce à laquelle
la taille du volume de réplica peut être supérieure à la taille du volume de production.
volume virtuel Un volume virtuel est une unité de stockage présentée aux hôtes par les ports front-
end du VPLEX. Un volume virtuel ressemble à un volume contigu mais il peut être
distribué sur deux volumes de stockage ou plus.
vue du stockage Il s'agit d'une combinaison d'initiateurs enregistrés (hôtes), de ports front-end et de
volumes virtuels utilisés pour contrôler l'accès d'un hôte au stockage.
WAN (Wide Area Un WAN est un réseau de télécommunication distribué géographiquement. Ce terme
Network) distingue une structure de télécommunication plus vaste d'un réseau local (LAN).
WWN (nom universel) Il s'agit d'un identifiant spécifique Fibre Channel qui est unique au monde et qui est
représenté par une valeur binaire non signée de 64 bits.
A G
AccessAnywhere 27, 56 GeoSynchrony 62
actualisation des technologies 26 gestion de la configuration 48
ALIMENTATION 54 gestion de la ligne de commande 19
alimentation du cluster 54 gestion des clusters 18
ALUA 36 groupes de cohérence 55
API 20
API Element Manager 20
Appliance RecoverPoint 28, 30, 31
H
architecture 17 HTTPS 36
B I
Big Data 27 informations de support 9
intégrité 46
Interface graphique d’Unisphere 19
C Interface graphique de gestion 19
cache global 49 IPsec 36
CAW 41
certificats 36
charge back-end 39
L
charge de la liaison WAN 39 LDAP 36
Charge du processeur 39
charge front-end 39 M
CLI 19 Matériel VPLEX 50
cluster 17, 31, 47, 50 Metro HA 56, 57, 59
cluster à deux moteurs 50 Metro HA 56
cluster à quatre moteurs 50 MetroPoint 32
cluster à un moteur 50 migration 26
Cluster RecoverPoint 31 miroirs 49
clusters 18, 46 mise à niveau 64
collaboration 27 mise à niveau sans perturbation 64
commentaires 9 mobilité 24, 26
Connexion intercluster de VMware 59 mots de passe d’ 36
Contrôle des performances VPLEX 42 MSCE 30
conventions de publication 9 multipathing 46
cross-connect 57, 59
N
D Nom universel 17
défaillances 46, 47, 57
Défaillances 59
directeur 51 O
disponibilité 46, 55 octroi de licences numériques 20
distribution des sites 46 Octroi des licences 42
documentation connexe 9 optimisation des chemins 36
DRS 56 outil de surveillance de Unisphere 39
E P
ensembles de règles 55 pannes 46
performances 39, 41
Plates-formes matérielles VPLEX 17
F préface 9
fournisseurs de gestion de baie 37 protection à distance 29
protection locale 29, 30
protection locale et à distance 30
provisionnement du stockage 37
public 9
Q
quorum 47
R
RecoverPoint 28–30, 32
redondance 28, 46, 47
répartition de charge 39
réplication 28, 30–32
Réplication à distance 30
Réplication locale 29, 30
reprise après sinistre 30, 31
résilience 46, 49
REST 20
restauration de site 32
rôles d’utilisateur 36
RPA 30
RPO 55
RTO 55–57
RTT 56
S
sécurité 36
séparateur 31
séparateur RecoverPoint 28, 31
serveur de gestion 53
Site Recovery Manager 32
SMI-S 37
SRM 32
statistiques 41
stockage 37
stockage intégré 37
suppression du mappage 38
surveillance 39, 41
surveillance de CLI 41
switches 54
U
Unisphere pour VPLEX 19
utilisation des ports 36
V
vCenter 32
vérificateurs 41
VIAS 37
VMware HA 56
volume thin 38
volumes de consignation 49
volumes de métadonnées 48
volumes de métadonnées des sauvegardes 49
volumes de réplica 29, 30
retour arrière 29
VPLEX Metro
Metro via IP 59
VPLEX Witness 46, 55–57, 59