Vous êtes sur la page 1sur 304

Stockage vSphere

ESXi 5.5
vCenter Server 5.5

Ce document prend en charge la version de chacun des produits


rpertoris, ainsi que toutes les versions publies par la suite
jusqu'au remplacement dudit document par une nouvelle
dition. Pour rechercher des ditions plus rcentes de ce
document, rendez-vous sur :
http://www.vmware.com/fr/support/pubs.

FR-001260-00

Stockage vSphere

Vous trouverez la documentation technique la plus rcente sur le site Web de VMware l'adresse :
http://www.vmware.com/fr/support/
Le site Web de VMware propose galement les dernires mises jour des produits.
Nhsitez pas nous transmettre tous vos commentaires concernant cette documentation ladresse suivante :
docfeedback@vmware.com

Copyright 20092013 VMware, Inc. Tous droits rservs. Ce produit est protg par les lois amricaines et internationales
relatives au copyright et la proprit intellectuelle. Les produits VMware sont protgs par un ou plusieurs brevets
rpertoris l'adresse http://www.vmware.com/go/patents-fr.
VMware est une marque dpose ou une marque de VMware, Inc. aux tats-Unis et/ou dans d'autres juridictions. Toutes les
autres marques et noms mentionns sont des marques dposes par leurs propritaires respectifs.

VMware, Inc.
3401 Hillview Ave.
Palo Alto, CA 94304
www.vmware.com

VMware, Inc.
100-101 Quartier Boieldieu
92042 Paris La Dfense
France
www.vmware.com/fr

VMware, Inc.

Table des matires

propos de vSphere Storage 9

1 Introduction au stockage 11

Virtualisation de stockage 11
Types de stockage physique 12
Reprsentations de priphriques et de cibles 16
Caractristiques du priphrique de stockage 16
Adaptateurs de stockage pris en charge 18
Caractristiques des banques de donnes 19
Accs des machines virtuelles au stockage 22
Comparaison des types de stockage 23

2 Prsentation de l'utilisation d' ESXi avec un SAN 25

Cas d'utilisation d' ESXi et du SAN 26


Informations dtailles sur l'utilisation du stockage SAN avec ESXi
Htes ESXi et baies de stockage multiples 27
Prendre des dcisions LUN 27
Choisir l'emplacement des machines virtuelles 28
Applications par couches 29
Applications de gestion tierces 30
Considrations sur la sauvegarde de stockage SAN 31

26

3 Utilisation d' ESXi avec un SAN Fibre Channel 33

Concepts du SAN Fibre Channel 33


Utilisation du zonage avec les SAN Fibre Channel 35
Accs des machines virtuelles aux donnes sur un SAN Fibre Channel 35

4 Configuration du stockage Fibre Channel 37


ESXi 37
tapes d'installation et de configuration 39
Virtualisation d'identification N-Port 39

5 Configuration de Fibre Channel over Ethernet 43

Adaptateurs Fibre Channel over Ethernet 43


Instructions de configuration pour le FCoE logiciel 44
Configurer la mise rseau pour un FCoE logiciel dans Client Web vSphere
Ajouter des adaptateurs FCoE de logiciel dans Client Web vSphere 45

44

6 Modification du stockage Fibre Channel pour ESXi 47

Test des configurations SAN de l' ESXi 48


Considrations gnrales de configuration pour les baies SAN Fibre Channel

VMware, Inc.

48

Stockage vSphere

Systmes de stockage EMC CLARiiON dans les configurations SAN Fibre Channel 49
Systmes de stockage EMC Symmetrix 49
Systmes de stockage IBM System Storage DS4800 50
Systmes IBM Storage 8000 et IBM ESS800 51
Systmes de stockage HP StorageWorks 52
Stockage Hitachi Data Systems 52
Stockage Network Appliance 53
Systmes de stockage bass sur LSI 53

7 Dmarrage ESXi partir du SAN Fibre Channel 55

Avantages du dmarrage partir d'un SAN 55


Considrations et spcifications du dmarrage partir du SAN Fibre Channel 56
Prparation pour le dmarrage partir du SAN 56
Configurer Emulex HBA pour un dmarrage partir du SAN 58
Configurer QLogic HBA pour un dmarrage partir du SAN 59

8 Dmarrage ESXi avec le FCoE logiciel 61

Considrations et exigences de dmarrage du FCoE logiciel 61


Meilleures pratiques concernant le dmarrage du FCoE logiciel 62
Configurer le dmarrage du FCoE logiciel 62
Dpannage installation et dmarrage partir du FCoE logiciel 64

9 Meilleures pratiques pour le stockage Fibre Channel 65

Prvention des problmes de SAN Fibre Channel 65


Dsactiver l'enregistrement automatique d'hte dans Client Web vSphere
Optimisation des performances du stockage SAN Fibre Channel 66
Liste de vrification de la configuration du SAN Fibre Channel 68

66

10 Utilisation d' ESXi avec un SAN iSCSI 69

Concepts SAN iSCSI 69


Accs des machines virtuelles aux donnes sur un SAN iSCSI 74

11 Configuration des adaptateurs iSCSI et du stockage 77

Conditions du SAN ESXi iSCSI 78


ESXi iSCSI 78
Dfinition des allocations de LUN pour iSCSI 78
Configuration de rseau et authentification 79
Configurer des adaptateurs de matriel iSCSI dpendants 79
Configuration des adaptateurs de matriel iSCSI dpendants 81
Configuration de l'adaptateur iSCSI logiciel 83
Modifier les proprits gnrales des adaptateurs iSCSI 84
Paramtrage du rseau iSCSI 85
Utilisation des trames Jumbo avec iSCSI 93
Configuration des adresses de dcouverte des adaptateurs iSCSI 94
Configurer des paramtres CHAP pour des adaptateurs iSCSI 96
Configuration des paramtres avancs iSCSI 99
Gestion des sessions iSCSI 101

VMware, Inc.

Table des matires

12 Modification des systmes de stockage iSCSI pour ESXi 105

Test des configurations SAN de l' ESXi iSCSI 105


Considrations gnrales pour les systmes de stockage SAN iSCSI 106
Systmes de stockage EMC CLARiiON 106
Systmes de stockage EMC Symmetrix 107
Activer HP StorageWorks MSA1510i pour communiquer avec ESXi 107
Systmes de stockage EVA HP StorageWorks 108
Systmes de stockage NetApp 109
Systmes de stockage Dell EqualLogic 109
Systmes de stockage HP StorageWorks SAN/iQ 110
Systmes de stockage Dell PowerVault MD3000i 110
Cibles iSCSI dans vApp 110

13 Dmarrage partir du SAN iSCSI 111

Recommandations gnrales de dmarrage partir du SAN iSCSI 111


Prparation du SAN iSCSI 112
Configurez l'adaptateur iSCSI matriel indpendant pour le dmarrage partir du SAN
Prsentation de iBFT iSCSI Boot 114

112

14 Meilleures pratiques pour le stockage iSCSI 121

Prvention des problmes de iSCSI SAN 121


Optimisation des performances du stockage SAN iSCSI 122
Consultation des statistiques des commutateurs Ethernet 126
Liste de vrification de la configuration du SAN iSCSI 126

15 Gestion des priphriques de stockage 129

Explication du nommage de priphriques de stockage 129


Oprations d'actualisation et de ranalyse du stockage 131
Identification des problmes de connexion de priphrique 133

16 Utilisation des banques de donnes 143

Prsentation des banques de donnes VMFS 144


Prsentation des banques de donnes NFS 148
Cration de banques de donnes 150
Administration des banques de donnes VMFS dupliques 152
Mise niveau des banques de donnes VMFS 154
Augmentation de la capacit d'une banque de donnes VMFS 155
Renommer les banques de donnes VMFS ou NFS dans Client Web vSphere
Dmonter des banques de donnes VMFS ou NFS 157
Monter des banques de donnes VMFS 157
Supprimer des banques de donnes VMFS dans Client Web vSphere 158
Filtres de stockage 159
Configuration de la mise en miroir des disques dynamiques 160
Crer une partition de diagnostic 161
Vrification de la cohrence des mtadonnes avec VOMA 163
Configuration du cache de blocs de pointage VMFS 164

VMware, Inc.

156

Stockage vSphere

17 Mappage de priphrique brut 167

propos du mappage de priphrique brut 167


Caractristiques du mappage de priphrique brut 171
Crer des machines virtuelles avec des RDM dans Client Web vSphere 173
Grer les chemins d'accs d'un LUN mapp dans Client Web vSphere 174

18 Activation des disques l'tat solide 177

Avantage de l'activation des SSD 177


Auto-Dtection des priphriques SSD 178
Marquer les priphriques comme SSD 178
Supprimer un priphrique SSD 179
Supprimer un priphrique SSD dtect automatiquement 180
Marquer les priphriques comme local 181
Contrler les priphriques SSD 182
Identifier les priphriques SSD 182
Identification d'un priphrique SSD virtuel 182
Meilleures pratiques pour les dispositifs SSD 183
Permutation vers le cache de l'hte 183
Empcher le formatage du SSD lors du partitionnement automatique
Impossible de dtecter les SSD locaux 185

184

19 Utilisation du rseau SAN virtuel 187

propos du rseau SAN virtuel 187


Activation du rseau SAN virtuel 194
Gestion des groupes de disques 198
Surveillance du rseau SAN virtuel 200
Gestion du rseau SAN virtuel 202
Rseau SAN virtuel et gestion du stockage base sur des stratgies
Dpannage du rseau SAN virtuel 207

203

20 propos des rgles de stockage de machine virtuelle 211


Prsentation des capacits de stockage 211
Description des rgles de stockage des machines virtuelles 213

21 propos du cache de lecture Flash de VMware vSphere 223

Prise en charge du cache de lecture Flash par DRS 224


Prise en charge du cache de lecture Flash par vSphere High Availability 224
Utilisation d'une ressource de Flash virtuel pour configurer un cache d'change 224
Limites de volume de Virtual Flash 224
Configurer une ressource Virtual Flash 225
Configurer plusieurs ressources de Flash virtuel 225
Configurer le cache d'change d'hte avec des ressources Virtual Flash 226
Configurer Flash Read Cache pour une machine virtuelle 226
Supprimer une ressource de Flash virtuel 227
Migration de machines virtuelles avec Flash Read Cache 227
Les disques SSD locaux ne sont pas disponibles pour tre utiliss avec Virtual Flash 228
Utilisation des commandes esxcli avec Virtual Flash 228

VMware, Inc.

Table des matires

22 VMkernel et Stockage 231


API de stockage 232

23 Prsentation de la gestion gestion multivoie et du basculement 235


Basculement avec Fibre Channel 236
Basculement bas sur hte avec iSCSI 236
Basculement base de baie avec iSCSI 238
Basculement de chemin et machines virtuelles 239
Gestion des chemins multiples 240
Module de gestion multivoie de VMware 241
Analyse et rclamation des chemins 243
Gestion des chemins de stockage et des plug-ins gestion multivoie 247

24 Acclration matrielle du stockage 257

Avantages de l'acclration matrielle 257


Conditions requises pour l'acclration matrielle 258
tat de la prise en charge de l'acclration matrielle 258
Acclration pour les priphriques de stockage de blocs 258
Acclration matrielle sur les priphriques NAS 264
Considrations sur l'acclration matrielle 266

25 Provisionnement dynamique du stockage 269

Sur-abonnement de stockage 269


Provisionnement dynamique du disque virtuel 269
Allocation dynamique des baies et banques de donnes VMFS 273

26 Utilisation de fournisseurs de stockage 277

Fournisseurs de stockage et reprsentation des donnes de stockage 277


Exigences et considrations relatives au fournisseur de stockage 278
Rapport de l'tat de stockage 279
Enregistrement des fournisseurs de stockage 279
Scurisation de la communication avec les fournisseurs de stockage 280
Afficher les informations des fournisseurs de stockage dans Client Web vSphere
Annuler l'enregistrement des fournisseurs de stockage dans Client Web vSphere
Mettre jour les fournisseurs de stockage dans Client Web vSphere 281

280
281

27 Utilisation de vmkfstools 283

Syntaxe des commandes vmkfstools 283


Options vmkfstools 284

Index

VMware, Inc.

295

Stockage vSphere

VMware, Inc.

propos de vSphere Storage

vSphere Storage dcrit les options de stockage disponibles de VMware ESXi et montre comment configurer
votre systme ESXi afin qu'il puisse utiliser et grer diffrents types de stockage. En outre, vSphere Storage se
concentre explicitement sur les rseaux de zone de stockage (SAN) Fibre Channel et iSCSI comme options
de stockage et dcrit les particularits de l'utilisation de ESXi dans les environnements Fibre Channel et
iSCSI.

Public cible
Ces informations s'adressent des administrateurs systme expriments qui matrisent la technologie de
machine virtuelle et les oprations associes aux centres de donnes et les concepts de stockage SAN.

VMware, Inc.

Stockage vSphere

10

VMware, Inc.

Introduction au stockage

Cette introduction dcrit les options de stockage disponibles pour ESXi et explique comment configurer
votre hte de sorte qu'il puisse utiliser et grer diffrents types de stockage.
Ce chapitre aborde les rubriques suivantes :
n

Virtualisation de stockage , page 11

Types de stockage physique , page 12

Reprsentations de priphriques et de cibles , page 16

Caractristiques du priphrique de stockage , page 16

Adaptateurs de stockage pris en charge , page 18

Caractristiques des banques de donnes , page 19

Accs des machines virtuelles au stockage , page 22

Comparaison des types de stockage , page 23

Virtualisation de stockage
ESXi offre une virtualisation de stockage de niveau hte, qui extrait logiquement la couche de stockage
physique des machines virtuelles.
Une machine virtuelle ESXi utilise un disque virtuel pour stocker son systme d'exploitation, les fichiers de
programmes et d'autres donnes lies ses activits. Un disque virtuel est un grand fichier physique, ou un
ensemble de fichiers, qui peut tre copi, dplac, archiv et sauvegard aussi facilement que n'importe quel
autre fichier. Vous pouvez configurer les machines virtuelles avec plusieurs disques virtuels.
Pour accder des disques virtuels, une machine virtuelle utilise les contrleurs SCSI virtuels. Ces
contrleurs virtuels sont notamment BusLogic Parallel, LSI Logic Parallel, LSI Logic SAS, et VMware
Paravirtual. Ces contrleurs sont les seuls types de contrleurs SCSI visibles et accessibles par une machine
virtuelle.
Chaque disque virtuel rside sur une banque de donnes VMFS vSphere ou une banque de donnes NFS,
qui sont dployes dans un stockage physique. Du point de vue de la machine virtuelle, chaque disque
virtuel apparat comme un lecteur SCSI connect un contrleur SCSI. Que le priphrique de stockage
physique rel soit accessible via des adaptateurs SCSI parallles, iSCSI, rseau, Fibre Channel ou FCoE sur
l'hte, il est transparent pour le systme d'exploitation client et pour les applications s'excutant sur la
machine virtuelle.
Eu sus des disques virtuels, vSphere propose un mcanisme appel mappage de priphrique brut (RDM).
Le RDM est utile lorsqu'un systme d'exploitation invit l'intrieur d'une machine virtuelle requiert un
accs direct un priphrique de stockage. Pour plus d'informations sur les RDM, consultez Chapitre 17,
Mappage de priphrique brut , page 167.

VMware, Inc.

11

Stockage vSphere

Types de stockage physique


Le processus de gestion de stockage de l'ESXi dbute avec l'espace de stockage prallou par votre
administrateur stockage sur diffrents systmes de stockage.
ESXi prend en charge les types de stockage suivants :
Stockage local

Stocke des fichiers de machine virtuelle sur des disques de stockage externes
connects directement ou internes.

Stockage en rseau

Stocke des fichiers de machine virtuelle sur des baies ou disques de stockage
externes relis votre hte via une connexion directe ou un rseau haut
dbit.

Stockage local
Le stockage local peut tre des disques durs internes situs dans votre hte ESXi ou des systmes de
stockage externes situs l'extrieur et directement connects l'hte via des protocoles comme SAS ou
SATA.
Le stockage local ne requiert pas de rseau de stockage pour communiquer avec votre hte. Vous avez
besoin d'un cble connect l'unit de stockage et, si ncessaire, d'un HBA compatible dans votre hte.
L'illustration suivante dcrit une machine virtuelle utilisant un stockage SCSI local.
Figure 11. Stockage local
Hte

Machine
virtuelle

SCSI

VMFS

Dans cet exemple de topologie de stockage local, l'hte emploie une connexion unique un disque. Sur ce
disque, vous pouvez crer une banque de donnes VMFS que vous utilisez pour stocker les fichiers de
disque de la machine virtuelle.
Bien que cette configuration de stockage soit possible, cette topologie n'est pas recommande. L'utilisation
de connexions uniques entre des baies de stockage et des htes cre des points de dfaillance uniques
(SPOF) pouvant causer des interruptions lorsqu'une connexion devient instable ou choue.
ESXi prend en charge divers priphriques de stockage local internes et externes, y compris des systmes de
stockage SAS, SCSI, IDE, SATA et USB. Quel que soit le type de stockage utilis, votre hte masque une
couche de stockage physique aux machines virtuelles.
REMARQUE Vous ne pouvez pas utiliser de lecteurs IDE/ATA ou USB pour stocker des machines virtuelles.

12

VMware, Inc.

Chapitre 1 Introduction au stockage

Les priphriques de stockage local ne prend en chargent pas le partage sur plusieurs htes. Une banque de
donnes sur un priphrique de stockage local peut tre accde seulement par un seul hte.
Puisque la majorit des priphriques de stockage local ne prennent pas en charge de connexions multiples,
vous ne pouvez pas utiliser plusieurs chemins d'accs pour accder au stockage local.

Stockage en rseau
Le stockage en rseau est compos de systmes de stockage externes que votre hte ESXi utilise pour stocker
des fichiers de machine virtuelle distance. En rgle gnrale, l'hte accde ces systmes sur un rseau de
stockage haut-dbit.
Les priphriques de stockage en rseau sont partags. Les banques de donnes sur des priphriques de
stockage en rseau sont accessibles par plusieurs htes simultanment. ESXi prend en charge les
technologies de stockage en rseau suivantes.
REMARQUE L'accs simultan au mme stockage via des protocoles de transport diffrents, tels qu'iSCSI et
Fibre Channel, n'est pas pris en charge.

Fibre Channel (FC)


Stocke des fichiers de machine virtuelle distance sur un rseau de zone de stockage FC (SAN). FC SAN est
un rseau haut dbit spcialis qui connecte vos htes des priphriques de stockage haute performance.
Le rseau utilise le protocole Fibre Channel pour acheminer le trafic SCSI depuis des machines virtuelles
vers des priphriques FC SAN.
Pour se connecter au FC SAN, votre hte doit tre quip d'adaptateurs de bus hte (HBA) Fibre Channel.
moins d'utiliser un stockage de connexion directe Fibre Channel, vous avez besoin de commutateurs Fibre
Channel pour acheminer le trafic de stockage. Si votre hte contient des adaptateurs FCoE (Fibre Channel
over Ethernet), vous pouvez vous connecter vos priphriques Fibre Channel partags l'aide d'un rseau
Ethernet.
Stockage Fibre Channel dcrit les machines virtuelles utilisant le stockage Fibre Channel.
Figure 12. Stockage Fibre Channel
Hte

machine
virtuelle

HBA
fibre
channel
SAN

VMFS
baie fibre

VMware, Inc.

13

Stockage vSphere

Dans cette configuration, un hte se connecte une infrastructure SAN, qui est constitue de commutateurs
Fibre Channel et de baies de stockage, en utilisant un adaptateur Fibre Channel. Les LUN d'une baie de
stockage deviennent disponibles pour l'hte. Vous pouvez accder aux LUN et crer des banques de
donnes pour vos besoins de stockage. Les banques de donnes utilisent le format VMFS.
Pour plus d'informations spcifiques sur la configuration du SAN Fibre Channel, consultez Chapitre 3,
Utilisation d'ESXi avec un SAN Fibre Channel , page 33.

SCSI Internet (iSCSI)


Stocke des fichiers de machine virtuelle sur des priphriques de stockage iSCSI distance. iSCSI rassemble
le trafic de stockage SCSI dans le protocole TCP/IP de sorte qu'il puisse tre achemin via des rseaux
TCP/IP standard, et non le rseau FC spcialis. Grce une connexion iSCSI, votre hte sert d'initiateur qui
communique avec une cible, situe dans des systmes de stockage iSCSI distance.
ESXi offre les types de connexions iSCSI suivants :
iSCSI matriel

Votre hte se connecte au stockage via un adaptateur tiers capable de


dcharger la gestion de rseau et iSCSI. Les adaptateurs matriels peuvent
tre dpendants et indpendants.

iSCSI logiciel

Votre hte utilise un initiateur iSCSI logiciel dans le VMkernel pour se


connecter au stockage. Avec ce type de connexion iSCSI, votre hte ne
requiert qu'un adaptateur rseau standard pour la connectivit rseau.

Vous devez configurer les initiateurs iSCSI de l'hte pour qu'il accde et affiche les priphriques de
stockage iSCSI.
Le stockage iSCSI dcrit diffrents types d'initiateurs iSCSI.
Figure 13. Stockage iSCSI
Hte

machine
virtuelle

machine
virtuelle
adaptateur
logiciel

HBA
iSCSI

NIC
ethernet

LAN

LAN

VMFS
Baie iSCSI

Dans l'exemple de gauche, l'hte utilise l'adaptateur iSCSI matriel pour se connecter au systme de
stockage iSCSI.
Dans l'exemple de droite, l'hte utilise un adaptateur iSCSI logiciel et un adaptateur d'interface rseau
Ethernet pour se connecter au stockage iSCSI.

14

VMware, Inc.

Chapitre 1 Introduction au stockage

Les priphriques de stockage iSCSI du systme de stockage deviennent disponibles pour l'hte. Vous
pouvez accder aux priphriques de stockage et crer des banques de donnes VMFS pour vos besoins de
stockage.
Pour plus d'informations spcifiques sur la configuration du SAN iSCSI, consultez Chapitre 10, Utilisation
d'ESXi avec un SAN iSCSI , page 69.

Stockage reli au rseau (NAS)


Stocke les fichiers de machine virtuelle sur des serveurs de fichiers distance accessibles sur un rseau
TCP/IP standard. Le client NFS intgr dans ESXi utilise le protocole NFS (Network File System) version 3
pour communiquer avec les serveurs NAS/NFS. Pour une connectivit rseau, l'hte requiert un adaptateur
rseau standard.
REMARQUE ESXi ne prend pas en charge la fonctionnalit d'utilisateur dlgu qui permet d'accder aux
volumes NFS via des informations d'identification non-racine.
Stockage NFS dcrit une machine virtuelle utilisant le volume NFS pour stocker ses fichiers. Dans cette
configuration, l'hte se connecte au serveur NFS stockant les fichiers du disque virtuel via un adaptateur
rseau normale.
Figure 14. Stockage NFS
Hte

machine
virtuelle

NIC
ethernet
LAN

NFS
botier NAS

SAS (Serial Attached SCSI) partag


Stocke des machines virtuelles sur des systmes de stockage directement relis au SAS qui offrent un accs
partag plusieurs htes. Ce type d'accs permet plusieurs htes d'accder la mme banque de donnes
VFMS sur un LUN.

VMware, Inc.

15

Stockage vSphere

Reprsentations de priphriques et de cibles


Dans un contexte ESXi, le terme cible identifie une unit de stockage unique accessible par l'hte. Les termes
priphrique et LUN dcrivent un volume logique qui reprsente l'espace de stockage sur une cible. En
gnral, les termes priphrique et LUN, dans un contexte ESXi, signifient qu'un volume de stockage est
prsent l'hte depuis une unit de stockage cible et disponible pour un formatage.
Diffrents fournisseurs de stockage prsentent les systmes de stockage pour les htes ESXi de diffrentes
manires. Certains fournisseurs prsentent une cible unique comportant plusieurs LUN ou priphriques de
stockage, tandis que d'autres proposent plusieurs cibles disposant chacune d'un LUN.
Figure 15. Reprsentations LUN et de cibles
cible
LUN

LUN

LUN

cible

cible

cible

LUN

LUN

LUN

baie de stockage

baie de stockage

Dans cette illustration, trois LUN sont disponibles pour chaque configuration. Dans un cas, l'hte voit une
cible, mais cette cible comporte trois LUN utiliser. Chaque LUN reprsente un volume de stockage
individuel. Dans l'autre exemple, l'hte voit trois cibles diffrentes, chacune disposant d'un LUN.
Les cibles accessibles via le rseau ont des noms uniques fournis par les systmes de stockage. Les cibles
iSCSI utilisent des noms iSCSI, tandis que les cibles Fibre Channel utilisent des noms mondiaux dits Noms
mondiaux (WWN).
REMARQUE ESXi ne prend pas en charge l'accs au mme LUN via diffrents protocoles de transport, tels
que iSCSI et Fibre Channel.
Un priphrique, ou LUN, est identifi par son nom UUID. Si un LUN est partag par plusieurs htes, il doit
tre prsent tous les htes ayant le mme UUID.

Caractristiques du priphrique de stockage


Vous pouvez afficher tous les priphriques de stockages ou LUN disponibles pour l'hte, y compris tous
les priphriques en rseau et locaux. Si vous utilisez des plug-ins gestion multivoie tiers, les priphriques
de stockage disponibles via les plug-ins apparaissent galement dans la liste.
Pour chaque adaptateur de stockage, vous pouvez afficher une liste distincte de priphriques de stockage
disponibles pour cet adaptateur.
En rgle gnrale, lorsque vous consultez les priphriques de stockages, vous voyez les informations
suivantes.
Tableau 11. Informations du priphrique de stockage
Informations du
priphrique de stockage

16

Description

Nom

Appel galement Nom d'affichage. C'est un nom que l'hte ESXi affecte un
priphrique selon le type de stockage et le fabricant. Vous pouvez changer ce nom par
le nom de votre choix.

Identificateur

Identificateur universel unique intrinsque au priphrique.

tat oprationnel

Indique si le priphrique est mont ou non mont. Pour des dtails, veuillez vous
reporter la section Dconnexion des priphriques de stockage , page 135.

VMware, Inc.

Chapitre 1 Introduction au stockage

Tableau 11. Informations du priphrique de stockage (suite)


Informations du
priphrique de stockage

Description

LUN

LUN (Logical Unit Number) l'intrieur de la cible SCSI. Le numro de LUN est fourni
par le systme de stockage. Si une cible n'a qu'un seul LUN, le numro de LUN est
toujours zro (0).

Type

Type de priphrique, par exemple, disque ou CD-ROM.

Type de lecteur

Informations indiquant si le priphrique est un lecteur l'tat solide (SSD) ou un


disque dur ordinaire non SSD. Pour plus de dtails, consultez Chapitre 18, Activation
des disques l'tat solide , page 177.

Transport

Protocole de transport utilis par votre hte pour accder au priphrique.

Capacit

Capacit totale du priphrique de stockage.

Propritaire

Le plug-in, tel que le NMP ou un plug-in tiers, que l'hte utilise pour grer les chemins
vers le priphrique de stockage. Pour plus de dtails, consultez Gestion des chemins
multiples , page 240.

Acclration matrielle

Informations indiquant que le priphrique de stockage assiste l'hte avec des


oprations de gestion de machine virtuelle. L'tat peut tre Pris en charge, Non pris en
charge ou Inconnu. Pour plus de dtails, consultez Chapitre 24, Acclration
matrielle du stockage , page 257.

Emplacement

Chemin d'accs au priphrique de stockage dans l'inventaire /vmfs/devices/.

Format de partition

Un systme de partition utilis par le priphrique de stockage. Ce pourrait tre un


format MBR (master boot record) ou un format GDT (GUID partition table) GUID. Les
priphriques GPT peuvent prendre en charge des banques de donnes d'une taille
suprieure 2 To. Pour plus d'informations, voir Formats de banques de donnes
VMFS et de disque de stockage , page 145.

Partitions

Partitions logiques et principales, y compris une banque de donnes VMFS, si


configure.

Gestions multivoie (banques


de donnes VMFS)

Rgle de slection de chemin et rgle de type de baie de stockage utilises par l'hte
pour grer les chemins de stockage. Pour plus d'informations, voir Chapitre 23,
Prsentation de la gestion gestion multivoie et du basculement , page 235.

Chemins (banques de donnes


VMFS)

Chemins utiliss pour accder au stockage et leur tat.

Afficher les priphriques de stockage pour un hte dans Client Web vSphere
Afficher tous les priphriques de stockage disponibles pour un hte. Si vous utilisez des plug-ins gestion
multivoies tiers, les priphriques de stockage disponibles via les plug-ins apparaissent galement dans la
liste.
La vue Priphriques de stockage vous permet de rpertorier les priphriques de stockage des htes,
d'analyser leurs informations et de modifier leurs proprits.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Priphriques de stockage] .


Tous les priphriques de stockage disponible pour l'hte sont rpertoris dans Priphriques de
stockage.

VMware, Inc.

Pour afficher les dtails d'un priphrique spcifique, slectionnez-le dans la liste.

17

Stockage vSphere

Utilisez les onglets dans Dtails du priphrique pour accder des informations supplmentaires et
modifier les proprits du priphrique slectionn.
Onglet

Description

Proprits

Afficher les proprits et caractristiques du priphrique. Afficher et


modifier la gestion multivoie du priphrique.

Chemins d'accs

Afficher les chemins disponibles pour le priphrique. Dsactiver ou


activer un chemin slectionn.

Afficher les priphriques de stockage pour un adaptateur dans


Client Web vSphere
Afficher une liste des priphriques de stockage accessibles grce un adaptateur de stockage spcifique sur
l'hte.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur Adaptateurs de stockage.


Tous les adaptateurs de stockage installs sur l'hte sont rpertoris dans Adaptateurs de stockage.

Slectionnez l'adaptateur dans la liste et cliquez sur l'onglet [Priphriques] .


Les priphriques de stockage auxquels l'hte peut accder grce l'adaptateur sont affichs.

Adaptateurs de stockage pris en charge


Les adaptateurs de stockage assurent la connectivit de votre hte ESXi un rseau ou une unit de
stockage spcifique.
ESXi prend en charge diffrentes catgories d'adaptateurs, y compris SCSI, iSCSI, RAID, Fibre Channel,
Fibre Channel over Ethernet (FCoE) et Ethernet. ESXi accde directement aux adaptateurs via des pilotes de
priphriques dans le VMkernel.
Selon le type de stockage utilis, vous devrez peut-tre activer ou configurer un adaptateur de stockage sur
votre hte.
Pour plus d'informations sur la configuration des adaptateurs FCoE logiciels, consultez Chapitre 5,
Configuration de Fibre Channel over Ethernet , page 43.
Pour plus d'informations sur la configuration des diffrents types d'adaptateurs iSCSI, consultez Chapitre
11, Configuration des adaptateurs iSCSI et du stockage , page 77.

Caractristiques de l'adaptateur de stockage


L'hte utilise des adaptateurs de stockage pour accder aux diffrents priphriques de stockage. Vous
pouvez afficher les informations des adaptateurs de stockage disponibles et les vrifier.
Vous devez activer certains adaptateurs, par exemple iSCSI ou FCoE, pour pouvoir afficher leurs
informations.

18

VMware, Inc.

Chapitre 1 Introduction au stockage

Tableau 12. Informations sur les adaptateurs de stockage


Informations sur les
adaptateurs

Description

Modle

Modle de l'adaptateur.

Cibles (Fibre Channel et


SCSI)

Nombre de cibles auxquelles il a t accd via l'adaptateur.

Cibles connectes (iSCSI)

Nombre de cibles connectes sur un adaptateur iSCSI.

WWN (Fibre Channel)

Nom mondial form selon les normes Fibre Channel qui identifie de manire univoque
l'adaptateur FC.

Nom iSCSI (iSCSI)

Nom unique form selon les normes iSCSI qui identifie l'adaptateur iSCSI.

Alias iSCSI (iSCSI)

Surnom utilis au lieu du nom iSCSI.

Adresse IP (iSCSI matriel


indpendant)

Adresse assigne au HBA iSCSI.

de stockage

Tous les priphriques de stockage ou LUN auxquels l'adaptateur peut accder.

Chemins d'accs

Tous les chemins que l'adaptateur l'utilise pour accder aux priphriques de stockage.

Proprits

Lien indiquant que l'adaptateur ncessite une configuration supplmentaire. Les


adaptateurs iSCSI et FCoE affichent ce lien.

Afficher les informations des adaptateurs de stockage dans


Client Web vSphere
Affichez les adaptateurs de stockage dont se sert votre hte et consultez leurs informations.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] .

Pour afficher les dtails d'un adaptateur spcifique, slectionnez-le dans la liste.

Caractristiques des banques de donnes


Les banques de donnes sont des conteneurs logiques, analogues des systmes de fichiers, qui masquent
les informations de chaque priphrique de stockage et fournissent un modle uniforme pour stocker des
fichiers de machine virtuelle. Vous pouvez afficher toutes les banques de donnes disponibles pour vos
htes et analyser leurs proprits.
Les banques de donnes sont ajoutes vCenter Server de la faon suivante :
n

banque de donnes cres sur un priphrique de stockage disponible.

Reconnaissance en cas d'ajout d'hte vCenter Server. Lorsque vous ajoutez un hte, vCenter Server
affiche les banques de donnes disponibles pour l'hte.

Le tableau suivant fournit des informations dtailles sur les banque de donnes que vous pouvez afficher
lorsque vous effectuez une analyse de banque de donnes. Les informations de la table s'appliquent
essentiellement aux banques de donnes VMFS et NFS. Pour plus d'informations sur les banques de
donnes de rseau SAN virtuel (VSAN), consultez le Chapitre 19, Utilisation du rseau SAN virtuel ,
page 187.

VMware, Inc.

19

Stockage vSphere

Tableau 13. Informations sur les banque de donnes


Informations sur les banque
de donnes

Description

Nom

Nom modifiable affect la banque de donnes. Pour plus d'informations sur la


manire de renommer une banque de donnes, consultez Renommer les banques de
donnes VMFS ou NFS dans Client Web vSphere , page 156.

Sauvegarde de priphriques

Le priphrique de stockage sur lequel la banque de donnes est dploye (VMFS) ou


le serveur et le dossier (NFS).

Type de lecteur

Type de priphrique de stockage sous-jacent, un lecteur l'tat solide (SSD) ou un


disque dur ordinaire non SSD. Pour des dtails, veuillez vous reporter la section
Chapitre 18, Activation des disques l'tat solide , page 177.

Capacit

Capacit totale formate de la banque de donnes.

Espace

libre disponible.

Type de systme de fichiers

Systme de fichiers utilis par la banque de donnes (VMFS ou NFS). Pour plus
d'informations sur les banques de donnes et la mise niveau vers VMFS5, consultez
Chapitre 16, Utilisation des banques de donnes , page 143.

Storage I/O Control

Informations sur l'activation de la priorisation E/S du stockage dans l'ensemble des


clusters. Consultez la documentation de Gestion des ressources vSphere.

Acclration matrielle

Informations sur la prise en charge de l'acclration matrielle par les priphriques


de stockage sous-jacents. L'tat peut tre Pris en charge, Non pris en charge ou
Inconnu. Pour des dtails, veuillez vous reporter la section Chapitre 24,
Acclration matrielle du stockage , page 257.

Emplacement (banques de
donnes VMFS)

Chemin d'accs la banque de donnes dans l'inventaire /vmfs/volumes/.

Serveur (banques de donnes


NFS)

Nom ou adresse IP d'un serveur NAS.

Dossier (banques de donnes


NFS)

Nom d'un dossier mont.

Extensions (banques de donnes


VMFS)

Extensions individuelles de la banque de donnes et capacit correspondante.

Capacits de stockage
spcifiques au fournisseur

Capacits de stockage signales par les priphriques de stockage pris en charge et


hrites par les banques de donnes. Vous ne pouvez pas les modifier.
REMARQUE Une banque de donnes multi-extensions assume les capacits d'une
seule de ses extensions.

Balises

Capacits de la banque de donnes que vous dfinissez et associez des banques de


donnes sous forme de balises. Pour plus d'informations, consultez Prsentation des
capacits de stockage , page 211.

Slection de chemin d'accs


(banques de donnes VMFS)

Rgles de slection de chemin d'accs utilises par l'hte pour accder aux espaces de
stockage. Pour plus d'informations, voir Chapitre 23, Prsentation de la gestion
gestion multivoie et du basculement , page 235.

Chemins (banques de donnes


VMFS)

Nombre de chemins d'accs utiliss pour accder au stockage et leur statut.

Afficher les informations des banques de donnes dans Client Web vSphere
Accder la vue Banques de donnes avec le navigateur de Client Web vSphere. La vue Banques de
donnes que vous affichez grce au navigateur vous permet de rpertorier toutes les banques de donnes
disponibles dans l'inventaire d'infrastructure vSphere, ainsi que d'analyser les informations et des modifier
les proprits. Vous pouvez galement utiliser cette vue pour crer des banques de donnes.
Pour rpertorier les banques de donnes pour un objet parent spcifique, comme un centre de donnes, un
cluster ou un hte, consultez Rpertorier les banques de donnes pour un objet d'infrastructure ,
page 21.

20

VMware, Inc.

Chapitre 1 Introduction au stockage

Procdure
1

Dans l'accueil de vSphere Web Client, cliquez sur [vCenter] .

Sous Listes d'inventaire, cliquez sur la catgorie [Banques de donnes] .


Les banques de donnes disponibles dans l'inventaire apparaissent dans le panneau central Banques de
donnes.

Utilisez les icnes pour crer une banque ou effectuer des tches basiques sur une banque de donnes
slectionne.
Icne

Description
Crer une banque de donnes.
Augmenter la capacit de la banque de donnes.
Monter une banque de donnes attache certains htes.
Supprimer une banque de donnes
Dmonter une banque de donnes attache certains htes.

Pour afficher des dtails de banque de donnes spcifiques, double-cliquez sur une banque de donnes
slectionne.

Utilisez les onglets pour accder des informations supplmentaires et modifier les proprits des
banques de donnes.
Onglet

Description

[Dmarrage]

Afficher les informations lmentaires et accder aux options de base.

[Rsum]

Afficher les statistiques et la configuration de la base de donnes slectionne.

[Surveiller]

Afficher les alarmes, les donnes de performance, l'allocation des ressources, les vnements et
autres informations sur l'tat relatives la banque de donnes.

[Grer]

Afficher et modifier les proprits des banques de donnes, les dfinitions d'alarmes, les balises
et les autorisations. Utilisez cet onglet pour accder aux priphriques de stockage soutenant la
banque de donnes, ainsi que pour afficher et modifier les dtails de gestion multivoie pour les
priphriques des banques de donnes.

[Objets associs]

Afficher les objets associs la banque de donnes. Les objets incluent des machines virtuelles
rsidant sur la banque de donnes et sur les htes o la banque de donnes est monte.

Rpertorier les banques de donnes pour un objet d'infrastructure


Afficher les banques de donnes pour un objet parent spcifique, comme un centre de donnes, un cluster
ou un hte.
Procdure
1

Dans l'accueil de vSphere Web Client, cliquez sur [vCenter] .

Utilisez le navigateur d'objets de Client Web vSphere pour accder un objet qui est un objet parent
valide d'une banque de donnes, comme un centre de donnes, un cluster ou un hte.

Cliquez sur l'onglet [Objets associs] , puis cliquez sur [Banques de donnes] .
Si des banques de donnes sont configures pour cet objet, elles apparaissent sur le panneau central
Banques de donnes.

VMware, Inc.

21

Stockage vSphere

Utilisez les icnes pour crer une banque ou effectuer des tches basiques sur une banque de donnes
slectionne.
Icne

Description
Crer une banque de donnes.
Augmenter la capacit de la banque de donnes.
Monter une banque de donnes attache certains htes.
Supprimer une banque de donnes
Dmonter une banque de donnes attache certains htes.

Utilisez les onglets pour accder des informations supplmentaires et modifier les proprits des
banques de donnes.
Onglet

Description

[Dmarrage]

Afficher les informations lmentaires et accder aux options de base.

[Rsum]

Afficher les statistiques et la configuration de la base de donnes slectionne.

[Surveiller]

Afficher les alarmes, les donnes de performance, l'allocation des ressources, les vnements et
autres informations sur l'tat relatives la banque de donnes.

[Grer]

Afficher et modifier les proprits des banques de donnes, les dfinitions d'alarmes, les balises
et les autorisations. Utilisez cet onglet pour accder aux priphriques de stockage soutenant la
banque de donnes, ainsi que pour afficher et modifier les dtails de gestion multivoie pour les
priphriques des banques de donnes.

[Objets associs]

Afficher les objets associs la banque de donnes. Les objets incluent des machines virtuelles
rsidant sur la banque de donnes et sur les htes o la banque de donnes est monte.

Accs des machines virtuelles au stockage


Lorsqu'une machine virtuelle communique avec son disque virtuel stock sur une banque de donnes, elle
lance des commandes SCSI. tant donn que les banques de donnes peuvent rsider sur plusieurs types de
stockage physique, ces commandes sont encapsules dans d'autres formes, selon le protocole utilis par
l'hte ESXi pour se connecter un priphrique de stockage.
ESXi prend en charge les protocoles Fibre Channel (FC), Internet SCSI (iSCSI), Fibre Channel over Ethernet
(FCoE) et NFS. Quel que soit le type de priphrique de stockage utilis par votre hte, le disque virtuel
apparat toujours en tant que priphrique SCSI mont pour la machine virtuelle. Le disque virtuel masque
une couche de stockage physique au systme d'exploitation de la machine virtuelle. Cette action permet
d'excuter des systmes d'exploitation non certifis pour un quipement de stockage spcifique, tel que
SAN, dans une machine virtuelle.
L'illustration suivante dcrit cinq machines virtuelles utilisant diffrents types de stockage afin d'illustrer
leurs diffrences.

22

VMware, Inc.

Chapitre 1 Introduction au stockage

Figure 16. Machines virtuelles accdant diffrents types de stockage


Hte
requiert une connectivit TCP/IP
machine
virtuelle

machine
virtuelle

machine
virtuelle

machine
virtuelle

machine
virtuelle

SCSI

VMFS

adaptateur
logiciel

HBA
fibre
channel

HBA
iSCSI

SAN

LAN

Touche

NIC
ethernet

NIC
ethernet

LAN

LAN

disque
physique

banque de
donnes
disque
virtuel

VMFS
baie fibre

VMFS
baie iSCSI

NFS
dispositif NAS

REMARQUE Ce diagramme est uniquement destin des fins conceptuelles. Ce n'est pas une configuration
recommande.
Vous pouvez utiliser les mappages sur l'onglet [Vues du stockage] pour reprsenter visuellement et
comprendre les relations entre les machines virtuelles sur votre hte et toutes les ressources de stockage
virtuelles et physiques disponibles. Pour plus d'informations, consultez la documentation Surveillance et
performances vSphere.

Comparaison des types de stockage


La prise en charge de certaines fonctionnalits de vSphere peut dpendre de la technologie de stockage que
vous utilisez.
Le tableau suivant compare les technologies de stockage en rseau pris en charge par ESXi.
Tableau 14. Stockage en rseau pris en charge par ESXi
Technologie

Protocoles

Transferts

Interface

Fibre Channel

FC/SCSI

Bloquer l'accs de
donnes/LUN

FC HBA

Fibre Channel sur


Ethernet

FCoE/SCSI

Bloquer l'accs de
donnes/LUN

n
n

iSCSI

IP/SCSI

Bloquer l'accs de
donnes/LUN

n
n

NAS

IP/NFS

Fichier (pas d'accs direct


LUN)

Adaptateur rseau converg (FCoE


matriel)
Carte NIC avec prise en charge FCoE (FCoE
logiciel)
Carte NIC compatible iSCSI HBA ou iSCSI
(iSCSI matriel)
Adaptateur rseau (iSCSI logiciel)

Adaptateur rseau

Le tableau suivant compare les fonctions de vSphere pris en charge par diffrents types de stockage.

VMware, Inc.

23

Stockage vSphere

Tableau 15. Fonctions vSphere pris en charge par le stockage

Type de
stockage

Dmarrage
VM

vMotion

Banque de
donnes

RDM

Cluster VM

VMware
HA et DRS

API de
stockage
Protectio
n des
donnes

Stockage local

Oui

Non

VMFS

Non

Oui

Non

Oui

Fibre Channel

Oui

Oui

VMFS

Oui

Oui

Oui

Oui

iSCSI

Oui

Oui

VMFS

Oui

Non

Oui

Oui

NAS sur NFS

Oui

Oui

NFS

Non

Non

Oui

Oui

REMARQUE Le stockage local prend en charge un cluster de machines virtuelles sur un seul hte (connu
galement sous le nom cluster dans une bote). Un disque virtuel partag est requis. Pour plus
d'informations sur cette configuration, consultez la documentation Gestion des ressources vSphere.

24

VMware, Inc.

Prsentation de l'utilisation d' ESXi


avec un SAN

L'utilisation d'ESXi avec un SAN signifie plus de souplesse, plus d'efficacit et plus de fiabilit. L'utilisation
d'ESXi avec un SAN prend galement en charge la gestion centralise et les technologies de basculement et
d'quilibrage de charge.
L'utilisation d'ESXi avec un SAN vous offre les avantages suivants :
n

Vous pouvez stocker vos donnes de manire scurise et configurer plusieurs chemins vers votre lieu
de stockage afin d'liminer tout risque de dfaillance d'un point de stockage unique.

L'utilisation d'un SAN avec les systmes ESXi prolonge la rsistance aux pannes sur le serveur. Lorsque
vous utilisez un stockage SAN, toutes les applications peuvent tre immdiatement redmarres sur un
autre hte suite la panne de l'hte d'origine.

Vous pouvez effectuer la migration en direct des machines virtuelles l'aide de VMware vMotion.

Utilisez VMware High Availability (HA) avec un SAN pour redmarrer des machines virtuelles dans
leur dernier tat connu sur un serveur diffrent en cas de dfaillance de leur hte.

Utilisez VMware Fault Tolerance (FT) pour copier les machines virtuelles protges sur deux htes
diffrents. Les machines virtuelles continuent fonctionner sans interruption sur l'hte secondaire en
cas de dfaillance de l'hte principal.

Utilisez VMware Distributed Resource Scheduler (DRS) pour migrer les machines virtuelles depuis un
hte vers un autre afin d'obtenir un quilibrage de charge. Le stockage se trouvant sur une baie SAN
partage, les applications continuent de s'excuter de manire transparente.

Si vous utilisez des clusters VMware DRS, mettez l'hte ESXi en mode maintenance afin que le systme
migre toutes les machines virtuelles en service vers d'autres htes ESXi. Ensuite, vous pouvez effectuer
les mises niveau ou d'autres oprations de maintenance sur l'hte d'origine.

La portabilit et l'encapsulation des machines virtuelles VMware sont un complment la nature partage
de ce stockage. Lorsque les machines virtuelles se trouvent sur un stockage SAN, vous pouvez rapidement
arrter une machine virtuelle sur un serveur et la dmarrer sur un autre serveur, ou la suspendre sur un
serveur et reprendre l'activit sur un autre serveur sur le mme rseau. Ainsi, vous pouvez migrer des
ressources informatiques tout en maintenant un accs partag cohrent.
Ce chapitre aborde les rubriques suivantes :
n

Cas d'utilisation d'ESXi et du SAN , page 26

Informations dtailles sur l'utilisation du stockage SAN avec ESXi , page 26

Htes ESXi et baies de stockage multiples , page 27

Prendre des dcisions LUN , page 27

Choisir l'emplacement des machines virtuelles , page 28

VMware, Inc.

25

Stockage vSphere

Applications par couches , page 29

Applications de gestion tierces , page 30

Considrations sur la sauvegarde de stockage SAN , page 31

Cas d'utilisation d' ESXi et du SAN


Lorsque l'ESXi est utilis avec un SAN, il peut bnficier de multiples fonctionnalits vSphere, y compris
Storage vMotion, Distributed Resource Scheduler (DRS), High Availability, etc.
L'utilisation de l'ESXi avec un SAN est efficace pour les tches suivantes :
Consolidation du
stockage et
simplification de
l'architecture de
stockage

Si vous travaillez avec plusieurs htes, et que chacun d'entre-eux utilisent


plusieurs machines virtuelles, le stockage sur les htes n'est plus suffisant et
vous allez devoir utiliser un stockage externe. Choisissez un SAN pour le
stockage externe de faon fournir une architecture systme plus simple
ainsi que d'autres avantages.

Maintenance sans
interruption de service

Lors de la maintenance d'une infrastructure ou d'un hte ESXi, utilisez


vMotion pour migrer les machines virtuelles vers un autre hte. Si le
stockage partag se trouve sur le SAN, vous pouvez effectuer les oprations
de maintenance sans aucune interruption pour les utilisateurs des machines
virtuelles. Les processus de travail de VM continuent au cours d'une
migration.

quilibrage de charge

Vous pouvez ajouter un hte un cluster DRS et les ressources de l'hte font
partie des ressources du cluster. La rpartition et l'utilisation de l'UC et des
ressources mmoire de tous les htes et des machines virtuelles du cluster
sont constamment surveilles. DRS compare ces mesures une utilisation
idale des ressources . L'utilisation idale prend en compte les attributs des
pools de ressources du cluster et des machines virtuelles, la demande
actuelle,et la cible de dsquilibre. Il effectue ensuite (ou recommande) des
migrations de VM en consquence.

Rcupration d'urgence

Vous pouvez utiliser VMware High Availability pour configurer de


multiples htes ESXi en cluster de faon assurer une reprise d'activit
rapide suite une interruption et une haute disponibilit moindres cots
pour les applications excutes sur des machines virtuelles.

Migrations de baies et
mises niveau du
stockage simplifies

Lorsque vous achetez de nouveaux systmes de stockage ou de nouvelles


baies de stockage, utilisez Storage vMotion pour pouvoir effectuer la
migration automatise en direct des fichiers de disque des machines
virtuelles partir de l'emplacement de stockage existant vers leur nouvelle
destination sans aucune interruption pour les utilisateurs des machines
virtuelles.

Informations dtailles sur l'utilisation du stockage SAN avec ESXi


L'utilisation d'un SAN avec un hte ESXi est bien diffrente de l'utilisation traditionnelle d'un SAN.
Lorsque vous utilisez un stockage SAN avec ESXi, tenez compte des lments suivants :

26

Vous ne pouvez pas utiliser les outils d'administration du SAN pour accder directement aux systmes
d'exploitation des machines virtuelles qui utilisent le stockage. Avec les outils traditionnels, vous
pouvez uniquement surveiller le systme d'exploitation VMwareESXi. Pour surveiller les machines
virtuelles, vous devez utiliser Client Web vSphere.

Le HBA visible aux outils d'administration du SAN fait partie du systme ESXi et non de la machine
virtuelle.

VMware, Inc.

Chapitre 2 Prsentation de l'utilisation d' ESXi avec un SAN

En rgle gnrale, votre systme ESXi effectue la gestion multivoie pour vous.

Htes ESXi et baies de stockage multiples


Un hte ESXi peut accder aux priphriques de stockage prsents depuis plusieurs baies de stockage, y
compris des baies provenant de diffrents fournisseurs.
Si vous utilisez plusieurs baies provenant de diffrents fournisseurs, les considrations suivantes
s'appliquent :
n

Si votre hte utilise le mme plug-in de type de baie de stockage(SATP) pour les baies multiples, veillez
, le cas chant, modifier la politique de slection du chemin par dfaut (PSP) pour ce SATP. La
modification s'appliquera toutes les baies. Pour plus d'informations sur les SATP et PSP, consultez
Chapitre 23, Prsentation de la gestion gestion multivoie et du basculement , page 235.

Certaines baies de stockage formulent des recommandations sur la profondeur de la file d'attente et
d'autres paramtres. En rgle gnrale, ces paramtres sont configurs l'chelle mondiale niveau de
l'hte ESXi. Les modifications faites sur une baie auront des rpercussions sur les autres baies qui
prsenteront les LUN l'hte. Pour plus d'informations sur la modification de profondeur de la file
d'attente, consultez l'article de la base de connaissances VMware sur http://kb.vmware.com/kb/1267.

Utilisez un seul initiateur de zonage cible unique pour le zonage des htes ESXi vers des baies Fibre
Channel. Avec ce type de configuration, les vnements lis une structure qui se produisent sur une
baie n'ont pas de rpercussions sur les autres baies. Pour plus d'informations sur le zonage, consultez
Utilisation du zonage avec les SAN Fibre Channel , page 35.

Prendre des dcisions LUN


Vous devez planifier la configuration du stockage de vos systmes ESXi avant de formater les LUN avec les
banques de donnes VMFS.
Lorsque vous prenez une dcision de LUN, envisagez les choses suivantes :
n

Chaque LUN doit avoir le bon niveau RAID et des caractristiques de stockage correctes pour les
applications s'excutant dans les machines virtuelles utilisant la LUN.

Chaque LUN ne doit contenir qu'une banque de donnes VMFS.

Si plusieurs machines virtuelles ont accs au mme VMFS, utilisez les partages de disque pour classer
les machines virtuelles par ordre de priorit.

Vous pourriez souhaiter utiliser moins de LUN mais de plus grande taille pour les raisons suivantes :
n

Plus de souplesse de cration des machines virtuelles sans avoir demander plus d'espace de stockage
l'administrateur.

Plus de souplesse de redimensionnement des disques virtuels, de prise de snapshots et de bien d'autres
choses encore.

Moins de banques de donnes VMFS grer.

Vous pourriez souhaiter utiliser moins de LUN et de plus petite taille pour les raisons suivantes :
n

Gain d'espace.

Diffrentes applications pourraient ncessiter des caractristiques RAID diffrentes.

Plus de souplesse grce la dfinition de la rgle de gestion multivoie et des partages de disque par
LUN.

L'utilisation du service de cluster de Microsoft (Microsoft Cluster Service) exige que chaque ressource
de disque en cluster soit dans sa LUN respective.

Meilleures performances car un volume unique subit moins de contention.

VMware, Inc.

27

Stockage vSphere

Lorsque la caractrisation du stockage d'une machine virtuelle n'est pas disponible, il n'existe pas de
mthode simple pour dterminer le nombre et la taille des LUN configurer. Vous pouvez essayer l'aide
d'un schma prdictif ou adaptatif.

Utilisation du schma prdictif pour prendre les dcisions de LUN


Lors de la dfinition du stockage pour les systmes ESXi, et avant la cration de banques de donnes VMFS,
vous devez dcider de la taille et du nombre de LUN mettre en place. Vous pouvez essayer le schma
prdictif.
Procdure
1

Mettez en place plusieurs LUN avec diffrentes caractristiques de stockage.

Crez une banque de donnes VMFS sur chaque LUN, en tiquetant chaque banque de donnes selon
ses caractristiques.

Crez des disques virtuels qui contiendront les donnes des applications de la machine virtuelle dans
les banques de donnes VMFS cres sur les LUN avec le niveau RAID appropri aux conditions
requises des applications.

Utilisez les partages de disque pour distinguer les machines virtuelles disposant des priorits les plus
hautes de celles ayant les priorits les plus basses.
REMARQUE Les parts de disque sont uniquement utiles au sein d'un hte dfini. Les parts assignes aux
machines virtuelles sur un hte n'exercent aucun effet sur des machines virtuelles sur d'autres htes.

Excutez les applications pour dterminer si les performances de la machine virtuelle sont acceptables.

Utilisation du schma adaptatif pour prendre les dcisions de LUN


Lors de la dfinition du stockage pour les htes ESXi, avant la cration de banques de donnes VMFS, vous
devez dcider de la taille et du nombre de LUN mettre en place. Vous pouvez essayer le schma adaptatif.
Procdure
1

Mettez en place une LUN (RAID 1+0 ou RAID 5) de grande taille et activez la mise en cache des
critures.

Crez un VMFS sur cette LUN.

Crez quatre ou cinq disques virtuels sur le VMFS.

Excutez les applications pour dterminer si les performances du disque sont acceptables.

Si les performances sont acceptables, placez les disques virtuels supplmentaires sur le VMFS. Si les
performances ne sont pas acceptables, crez un nouveau LUN de grande taille avec un niveau RAID
diffrent et rptez la procdure. Utilisez la migration afin de ne pas perdre les donnes des machines
virtuelles lorsque vous recrez la LUN.

Choisir l'emplacement des machines virtuelles


Si vous souhaitez optimiser les performances de vos machines virtuelles, l'emplacement du stockage est un
facteur important. Il existe toujours un compromis entre un stockage onreux qui offre des performances
leves et une grande disponibilit et un stockage moins onreux mais offrant moins de performances.
Le stockage peut tre divis en plusieurs niveaux, selon un certain nombre de facteurs :
n

28

Niveau lev. Offre de hautes performances et une grande disponibilit. Peut offrir des snapshots
intgrs pour faciliter les sauvegardes et les restaurations instantanes. Prend en charge la rplication,
la redondance complte des processeurs de stockage et les lecteurs SAS. Utilise des axes de prix lev.

VMware, Inc.

Chapitre 2 Prsentation de l'utilisation d' ESXi avec un SAN

Niveau intermdiaire Offre des performances de milieu de gamme, une disponibilit plus faible,
quelques redondances de processeurs de stockage et des lecteurs SCSI ou SAS. Peut proposer des
snapshots. Utilise des axes de prix moyen.

Niveau infrieur Offre des performances faibles, peu de redondance de stockage interne. Utilise des
pilotes SCSI ou SATA bas de gamme (axes de srie peu onreux).

Toutes les applications ne doivent pas ncessairement offrir les performances les plus leves ou un
stockage la plus grande disponibilit, tout du moins pas tout au long de leur cycle de vie.
REMARQUE Si vous avez besoin de certaines fonctionnalits du niveau suprieur, telles que les snapshots,
mais que vous ne souhaitez pas en payer le prix, vous pouvez peut-tre obtenir certaines caractristiques de
performance leve grce un logiciel. Par exemple, vous pouvez crer des snapshots dans un logiciel.
Lorsque vous dcidez de l'emplacement d'une machine virtuelle, posez-vous ces questions :
n

quel point la machine virtuelle est-elle essentielle ?

Quelles sont ses exigences en termes de performances et de disponibilits ?

Quelles sont ses exigences en termes de restauration instantane ?

Quelles sont ses exigences en termes de sauvegarde ?

Quelles sont ses exigences en termes de rplication ?

Une machine virtuelle peuvent changer de niveau au cours de son cycle de vie suite des modifications
d'importance ou de technologie qui entranent les fonctionnalits de niveau suprieur vers un niveau
infrieur. Son importance est relative et peut changer pour diverses raisons, parmi lesquelles les
modifications apportes l'organisation, les processus oprationnels, les obligations rglementaires, la
planification suite un incident, etc.

Applications par couches


Les administrateurs SAN utilisent souvent un logiciel spcial baies pour la sauvegarde, la reprise aprs
sinistre, l'exploration de donnes, les examens juridiques et les tests de configuration.
Les fournisseurs de stockage fournissent de faon classique deux types de services avancs pour leurs LUN :
la capture et la rplication.
n

La prise de snapshot cre un espace avec des copies fonctionnelles de LUN, partageant des blocs de
donnes communes. En gnral, la capture est utilise localement sur les mmes systmes de stockage
que le LUN primaire, afin d'acclrer les sauvegardes, le test des applications, les examens juridiques,
ou l'exploration des donnes.

La rplication cre des copies compltes des LUN. Les rpliques sont gnralement conues pour
sparer les systmes de stockage, potentiellement pour protger des sites contre des pannes majeures
invalidant ou dtruisant une baie ou un site entier.

Lorsque vous utilisez un systme ESXi conjointement un SAN, vous devez dcider si les outils bass sur
les baies ou sur les htes conviennent plus votre situation.

Solution (tierce) base de baie


Lorsque vous utilisez un systme ESXi en conjonction avec un SAN, vous devez dcider si les outils pour
baies conviennent davantage votre situation.
Lorsque vous envisagez une solution base de baie, gardez l'esprit les points suivants :
n

VMware, Inc.

Les solutions base de baie permettent souvent des statistiques plus exhaustives. Avec les RDM, les
donnes prennent toujours le mme chemin, ce qui facilite la gestion des performances.

29

Stockage vSphere

La scurit devient plus transparente pour l'administrateur de stockage lorsque vous utilisez un RDM
et une solution base de baie, car avec RDM les machines virtuelles ressemblent plus des machines
physiques.

Si vous utilisez une solution base de baie, des RDM de compatibilit physique servent souvent de
stockage pour des machines virtuelles. Si vous n'envisagez pas d'utiliser de RDM, consultez la
documentation du fournisseur de stockage pour vrifier si les oprations sur des LUN avec volumes
VMFS sont prises en charge. Si vous utilisez des oprations de baie sur des LUN VMFS, lisez
attentivement la section sur la resignature.

Solution base sur les fichiers (VMFS)


Lorsque vous utilisez un systme ESXi conjointement un SAN, vous devez dcider si les outils bass sur
les fichiers conviennent plus votre situation.
Si vous envisagez une solution base de fichiers utilisant les outils VMware et VMFS au lieu des outils de
baie, gardez l'esprit les points suivants.
n

L'utilisation des outils VMware et de VMFS est meilleure pour le provisionnement. Un grand LUN est
allou, et de multiples fichiers .vmdk peuvent tre placs sur ce LUN. Avec un RDM, un nouveau LUN
est requis pour chaque machine virtuelle.

La prise de snapshot est comprise dans votre hte ESXi, sans cots supplmentaires.

Utiliser VMFS est plus facile pour les administrateurs ESXi.

Les administrateurs ESXi qui choisissent la solution base sur les fichiers deviennent plus indpendants
de l'administrateur SAN.

Applications de gestion tierces


Vous pouvez utiliser les applications de gestion tierces avec votre hte ESXi.
La majorit des matriels SAN sont dlivrs avec le logiciel de gestion du stockage. Dans la majorit des cas,
ce logiciel est une application web qui peut tre utilise avec tout navigateur web connect votre rseau.
Dans certains autres cas, ce logiciel s'excute habituellement sur le systme de stockage ou sur un serveur
unique, indpendamment des serveurs utilisant le SAN pour le stockage.
Utilisez le logiciel de gestion tiers pour effectuer les tches suivantes :
n

La gestion des baies de stockage, y compris la cration de LUN, la gestion de la mmoire cache des
baies, le mappage de LUN et la scurit des LUN.

La configuration de la rplication, des points de vrification, des snapshots ou de la mise en miroir.

Si vous dcidez d'excuter le logiciel de gestion du SAN sur une machine virtuelle, vous bnficiez de tous
les avantages de l'excution d'une machine virtuelle, y compris le basculement l'aide de vMotion et de
VMware HA. Toutefois, en raison du niveau supplmentaire d'indirection, il se peut que le logiciel de
gestion ne soit pas en mesure de voir le SAN. Dans ce cas, utilisez un RDM.
REMARQUE Le succs d'excution d'un logiciel de gestion par une machine virtuelle dpend du systme de
stockage.

30

VMware, Inc.

Chapitre 2 Prsentation de l'utilisation d' ESXi avec un SAN

Considrations sur la sauvegarde de stockage SAN


Une stratgie de sauvegarde approprie est l'un des aspects les plus importants de la gestion d'un SAN.
Dans un environnement SAN, les sauvegardes ont deux objectifs. Le premier objectif est d'archiver des
donnes en ligne sur des supports hors ligne. Ce processus est rpt rgulirement pour toutes les donnes
en ligne, selon un calendrier. Le second objectif est de fournir un accs aux donnes hors ligne pour une
restauration en cas de problme. Par exemple, la restauration de bases de donne ncessite souvent la
rcupration des fichiers de journalisation qui ne sont pas en ligne ce moment.
La programmation des sauvegardes dpend de plusieurs facteurs :
n

L'identification des applications critiques ncessitant des cycles de sauvegarde plus rapprochs dans
une priode donne.

Les points de restauration et les objectifs de priode restaure. Dfinissez la prcision ncessaire de vos
points de restauration, et la dure d'attente qui vous est permise.

Le taux de changement (RoC) associ aux donnes. Par exemple, si vous utilisez une rplication
synchrone/asynchrone, le RoC affecte la quantit de bande passante requise entre les priphriques de
stockage primaires et secondaires.

L'impact global sur l'environnement SAN, les performances de stockage (lors de sauvegarde), et les
autres applications.

L'identification des horaires de pointe sur le SAN (les sauvegardes prvues pendant ces heures de
pointe peuvent ralentir les applications et le processus de sauvegarde).

Le temps pass programmer toutes les sauvegardes dans la centre de donnes.

Le temps pass sauvegarder une application spcifique.

La disponibilit des ressources pour l'archivage des donnes, typiquement des supports hors ligne
(cassettes).

Incluez un objectif de temps de restauration pour chaque application lorsque vous concevez votre stratgie
de sauvegarde. C'est--dire que vous devez envisager le temps et les ressources ncessaires pour effectuer
une sauvegarde. Par exemple, si une sauvegarde programme stocke tant de donnes que leur restauration
cause un dlai considrable, rexaminez la programmation des sauvegardes. Vous pouvez effectuer des
sauvegardes plus frquemment, de faon sauvegarder moins de donnes la fois, et diminuer ainsi le
dlai de restauration.
Si une application particulire ncessite une restauration dans un dlai prcis, le processus de sauvegarde
devra fournir un horaire et un traitement des donnes convenant ce dlai. Une restauration rapide peut
exiger l'utilisation des volumes de sauvegarde dans le stockage en ligne afin de minimiser ou supprimer le
besoin d'un accs des donnes hors ligne lentes pour des composants de donnes manquantes.

Utilisation des modules de sauvegarde tiers


Vous pouvez utiliser des solutions de sauvegarde tierces pour protger le systme, l'application et les
donnes utilisateur dans vos machines virtuelles.
VMware offre les API de stockage - Protection des donnes pour fonctionner avec les produits tiers. Lors de
l'utilisation des API, le logiciel tiers peut effectuer les sauvegardes sans charger les htesESXi du traitement
des tches de sauvegarde.
Les produits tiers utilisant les API de stockage - Protection des donnes peuvent effectuer les tches de
sauvegarde suivantes :
n

VMware, Inc.

Effectuez une sauvegarde d'images complte, diffrentielle et incrmentielle, et la restauration des


machines virtuelles.

31

Stockage vSphere

Effectuez, au niveau du fichier, une sauvegarde des machines virtuelles qui utilisent les systmes
d'exploitation Windows et Linux pris en charge.

Vrifiez la cohrence des donnes en utilisant VSS (Microsoft Volume Shadow Copy Services) pour les
machines virtuelles qui excutent les systmes d'exploitation Microsoft Windows pris en charge.

Grce aux API de stockage - Protection du stockage exploitent les possibilit de capture de VMFS, les
sauvegardes que vous pouvez effectuer ne ncessitent aucun temps d'arrt pour les machines virtuelles. Ces
sauvegardes ne sont pas perturbatrices ; elles peuvent tre effectues tout moment et ne ncessitent pas
des fentres de sauvegarde tendues.
Pour plus d'informations sur les API de stockage - Protection des donnes et sur l'intgration aux produits
de sauvegarde, consultez le site Web de VMware ou contactez votre fournisseur de produits de sauvegarde.

32

VMware, Inc.

Utilisation d' ESXi avec un SAN Fibre


Channel

Lorsque vous installez des htes ESXi pour utiliser des baies de stockage SAN FC, certaines considrations
spciales sont ncessaires. Cette section vous fournit une premire approche de l'utilisation d'ESXi avec une
baie SAN FC.
Ce chapitre aborde les rubriques suivantes :
n

Concepts du SAN Fibre Channel , page 33

Utilisation du zonage avec les SAN Fibre Channel , page 35

Accs des machines virtuelles aux donnes sur un SAN Fibre Channel , page 35

Concepts du SAN Fibre Channel


Si vous tes administrateur de ESXi et envisagez de configurer les htes pour fonctionner avec des SAN,
vous devez avoir une connaissance pratique des concepts SAN. Vous trouverez des informations sur les
SANs en livre et sur Internet. Du fait que ce secteur technologique volue constamment, cherchez les
ressources les plus rcentes.
Si vous tes novices en technologie SAN, familiarisez-vous avec la terminologie de base.
Un rseau de zone de stockage (SAN) est un rseau haute vitesse spcialis, qui connecte des systmes
informatique, ou des serveurs htes, des sous-systmes de stockage hautes performances. Les
composants SAN comprennent les adaptateurs de bus hte (HBA), les commutateurs qui aident diriger le
trafic de stockage, les cbles, les processeurs de stockage (SPs), et les baies de disques de stockage.
Une topologie SAN avec au moins un commutateur prsent sur le rseau forme une structure SAN.
Pour transfrer le trafic des serveurs htes vers le stockage partag, le SAN utilise le protocole Fibre
Channel (FC) qui rassemble les commandes SCSI en trames Fibre Channel.
Pour restreindre l'accs d'un serveur aux baies de stockage non alloues ce serveur, le SAN utilise le
zonage. Classiquement, des zones sont cres pour chaque groupes de serveurs accdant un groupe
partag de priphriques de stockage et de LUN. Ces zones dfinissent quels HBA peuvent se connecter
quels SPs. Les priphriques en dehors d'une zone ne sont pas visibles aux priphriques inclus dans cette
zone.
Le zonage est similaire au masquage des LUN, frquemment utilis pour l'administration des permissions.
Le masquage des LUN est un processus qui rend un LUN disponible pour certains htes, mais indisponibles
pour d'autres htes.
Lors du transfert de donnes entre le serveur hte et le stockage, le SAN utilise une technique connue sous
le nom de gestion gestion multivoie. La fonction de chemin multiple permet de disposer de plusieurs
chemins physiques depuis un hte ESXi vers une LUN dans un systme de stockage.

VMware, Inc.

33

Stockage vSphere

De manire gnrale, un chemin unique partant d'un hte vers un LUN se compose d'un HBA, de ports de
commutateur, de cbles de connexion et du port de contrleur de stockage. Si un des composants du chemin
subit une dfaillance, l'hte slectionne un autre chemin disponible pour l'E/S. Le processus de dtection
d'un chemin dfaillant et de changement vers un autre chemin est connu sous le nom de basculement de
chemin.

Ports dans le SANPorts dans le SAN Fibre Channel


Dans le contexte de ce document, un port est une connexion partir d'un priphrique dans le SAN. Chaque
nud du SAN, tel qu'un hte, un priphrique de stockage ou un composant de l'infrastructure
d'interconnexion dispose d'un ou de plusieurs ports qui le connectent au SAN. Les ports sont identifis de
plusieurs manires.
WWPN (World Wide Port
Name)

Un identificateur global unique pour un port qui permet certaines


applications d'accder au port. Le commutateur FC dtecte le WWPN d'un
priphrique ou d'un hte et affecte une adresse de port au priphrique.

Port_ID (ou adresse du


port)

Dans un SAN, chaque port a un ID de port exclusive qui lui sert d'adresse FC
pour le port. Cette ID exclusive permet le routage des donnes via le SAN
vers ce port. Les commutateurs FC affectent l'ID du port lorsque le
priphrique se connecte l'infrastructure d'interconnexion. L'ID du port est
valide uniquement lorsque le priphrique est connect.

Lorsque N-Port ID Virtualization (NPIV) est utilis, un seul port FC HBA (N-port) peut s'enregistrer sur
l'infrastructure d'interconnexion en utilisant plusieurs WWPN. Cette mthode permet un N-port de
rclamer plusieurs adresses d'interconnexion, chacune d'entre-elles apparaissant en tant qu'entit unique.
Lorsque l'hte ESXi utilise un SAN, ces nombreux identificateurs exclusifs permettent l'affectation des
WWN des machines virtuelles individuelles dans le cadre de leur configuration.

Types de baie de stockage Fibre Channel


ESXi prend en charge diffrents systmes de stockage et de baies.
Votre hte prend en charge les types de stockage suivants : actif-actif, actif-passif et conforme ALUA.

34

Systme de stockage
actif-actif

Permet d'accder simultanment aux LUN par tous les ports de stockage qui
sont disponibles sans dgradation importante des performances. Tous les
chemins sont actifs tout moment sauf en cas de dfaillance d'un chemin.

Systme de stockage
actif-passif

Un systme dans lequel un processeur de stockage fournit l'accs un LUN


donn. Les autres processeurs sont utiliss en tant que sauvegarde pour le
LUN et peuvent fournir l'accs d'autres E/S de LUN. L'E/S peut ne tre
envoye avec succs que vers un port actif pour un LUN spcifique. Si l'accs
via le port de stockage actif choue, un des processeurs de stockage passifs
peut tre activ par les serveurs qui y accdent.

Systme de stockage
asymtrique

Prend en charge Asymmetric Logical Unit Access (ALUA). Les systmes de


stockage ALUA offrent des niveaux diffrents d'accs par port. ALUA
permet aux htes de dterminer les tats des ports cibles et classer par
priorit les chemins. L'hte utilise certains des chemins actifs comme tant
principaux alors que d'autres sont secondaires.

VMware, Inc.

Chapitre 3 Utilisation d' ESXi avec un SAN Fibre Channel

Utilisation du zonage avec les SAN Fibre Channel


Le zonage fournit le contrle d'accs dans la topologie du SAN. Le zonage dfinit quels HBA peuvent se
connecter aux cibles. Lorsque vous configurez un SAN en utilisant le zonage, les priphriques extrieurs
une zone ne peuvent pas tre vus par les priphriques se trouvant l'intrieur de la zone.
Le zonage a les effets suivants :
n

Rduit le nombre de cibles et de LUN prsentes l'hte.

Contrle et isole les chemins dans une infrastructure d'interconnexion.

Interdit aux systmes non ESXi l'accs un systme de stockage particulier et empche toute
destruction potentielle des donnes VMFS.

Peut tre utilis pour sparer des environnements diffrents, par exemple, un environnement de tests
d'un environnement de production.

Avec les htes ESXi, utilisez un zonage initiateur unique ou un zonage initiateur unique et cible
unique. La dernire tant la mthode de zonage la plus pratique. L'utilisation d'un zonage plus restrictif
vite les problmes et les risques de mauvaises configurations et le SAN.
Pour des instructions plus dtailles et les bonnes mthodes de zonage, contactez l'diteur de la baie de
stockage ou du commutateur.

Accs des machines virtuelles aux donnes sur un SAN Fibre


Channel
ESXi stocke les fichiers disque d'une machine virtuelle dans une banque de donnes VMFS se trouvant sur
un priphrique de stockage du SAN. Lorsque les systmes d'exploitation invits de la machine virtuelle
envoient des commandes SCSI leurs disques virtuels, la couche de virtualisation SCSI traduit ces
commandes en oprations de fichier VMFS.
Lorsqu'une machine virtuelle interagit avec son disque virtuel stock sur un SAN, le processus suivant a
lieu :
1

Lorsque le systme d'exploitation invit sur une machine virtuelle lit ou crit sur le disque SCSI, il
envoie des commandes SCSI au disque virtuel.

Les pilotes de priphriques dans le systme d'exploitation de la machine virtuelle communiquent avec
les contrleurs SCSI virtuels.

Le contrleur SCSI virtuel transmet la commande au VMkernel.

Le VMkernel effectue les tches suivantes :

VMware, Inc.

Recherche du fichier dans le volume VMFS correspondant au disque de la machine virtuelle


invite.

Mappage des requtes de blocs sur le disque virtuel sur les blocs sur le priphrique physique
appropri.

Envoi de la demande d'E/S modifie partir du pilote du priphrique du VMkernel vers le HBA
physique.

Le HBA physique effectue les tches suivantes :


a

Prparation de la demande d'E/S selon les rgles du protocole FC.

Transmission de la requte au SAN.

35

Stockage vSphere

36

Selon le port utilis par HBA pour se connecter l'infrastructure d'interconnexion, un des
commutateurs du SAN reoit la demande et l'achemine jusqu'au priphrique de stockage auquel l'hte
souhaite accder.

VMware, Inc.

Configuration du stockage Fibre


Channel

Lorsque vous utilisez des systmes ESXi avec un stockage SAN, il existe des conditions requises spcifiques
au matriel et au systme.
Ce chapitre aborde les rubriques suivantes :
n

ESXi , page 37

tapes d'installation et de configuration , page 39

Virtualisation d'identification N-Port , page 39

ESXi
Lors de la prparation de la configuration de votre SAN et de votre systme ESXi pour que celui-ci utilise le
stockage SAN, consultez les conditions requises et les recommandations.
n

Veillez ce que les combinaisons de microprogramme et matriel de stockage SAN que vous utilisez
soient prises en charge conjointement aux systmes ESXi. Pour obtenir une liste de mises jour,
consultez le Guide Guide de compatibilit vSphere.

Configurez votre systme pour avoir un seul volume VMFS par LUN.

Sauf si vous utilisez des serveurs sans disque, ne configurez pas la partition de diagnostic sur un LUN
SAN.
Dans le cas d'un serveur sans disques dmarrant partir d'un SAN, une partition de diagnostic
partage est approprie.

Utilisez les RDM pour accder aux disques bruts. Pour plus d'informations, consultez Chapitre 17,
Mappage de priphrique brut , page 167.

Pour que les chemins multiples fonctionnent correctement, chaque LUN doit prsenter le mme ID de
LUN pour tous les htes ESXi.

Veillez ce que le pilote du priphrique de stockage dfinisse une file d'attente suffisamment grande.
Vous pouvez dfinir la profondeur de file d'attente pour le HBA physique lors de la configuration du
systme. Pour plus d'informations sur le changement de la profondeur de la file d'attente pour les HBA
et les machines virtuelles, consultez la documentation Dpannage vSphere.

Sur les machines virtuelles excutant Microsoft Windows, augmentez la valeur du paramtre
TimeoutValue SCSI sur 60. Cette augmentation permet Windows de mieux tolrer les E/S retardes
suite un basculement de chemin. Pour plus d'informations, consultez Dfinir le dlai d'expiration du
SE invit Windows , page 239.

VMware, Inc.

37

Stockage vSphere

ESXi
Lorsque vous utilisez ESXi avec un SAN, certaines restrictions s'appliquent.
n

ESXi ne prends pas en charge les priphriques de bande connects au FC.

Vous ne pouvez pas utiliser un logiciel de chemins multiples l'intrieur d'une machine virtuelle pour
effectuer un quilibrage de charge E/S sur un LUN physique unique. Cependant, lorsque votre machine
virtuelle Microsoft Windows utilisez des disques dynamiques, cette restriction ne s'applique pas. Pour
plus d'informations sur la configuration des disques dynamiques, consultez Configuration de la mise
en miroir des disques dynamiques , page 160.

Dfinition des allocations de LUN


Cette rubrique fournit des informations gnrales sur l'allocation des LUN lorsque votre ESXi fonctionne
conjointement au SAN.
Lorsque vous dfinissez les allocations de LUN, tenez compte des points suivants :
Provisionnement de
stockage

Pour garantir que le systme ESXi reconnaisse les LUN au dmarrage,


provisionnez tous les LUN aux HBA appropris avant de connecter le SAN
au systme ESXi.
VMware vous conseille de provisionner simultanment tous les LUN tous
les HBA ESXi. Le basculement de HBA fonctionne uniquement si tous les
HBA voient les mmes LUN.
Pour les LUN qui seront partags entre plusieurs htes, veillez ce que les
ID de LUN soient cohrents sur les diffrents htes. Par exemple, LUN 5 doit
tre mapp sur l'hte 1, l'hte 2 et l'hte 3 en tant que LUN 5.

DRS vMotion et VMware

Vous utilisez vCenter Server et vMotion ou DRS, veillez ce que les LUN
des machines virtuelles soient provisionns pour tous les htes ESXi. Cela
permet de dplacer le plus facilement les machines virtuelles.

Baies actives/actives
par rapport baies
actives/passives.

Lorsque vous utilisez vMotion ou DRS avec un matriel de stockage SAN


actif-passif, vrifiez bien que dans tous les systmes ESXi les chemins vers
tous les processeurs de stockage sont cohrents. Sans cette vrification, une
migration vMotion peut provoquer un crasement de chemin.
Pour les baies de stockage actives/passives non numres dans la section
Compatibilit de stockage/SAN, VMware ne prend pas en charge le
basculement des ports de stockage. Dans ces cas, vous devez connecter le
serveur au port actif sur la baie de stockage. Cette configuration garantit que
les LUN sont prsents l'hte ESXi.

Configuration des HBA Fibre Channel


En gnral, les FC HBA que vous utilisez sur votre hte ESXi fonctionnent correctement avec les paramtres
de configuration par dfaut.
Vous devez suivre les instructions de configuration donnes par votre fournisseur de baie de stockage. Lors
de la configuration du FC HBA, prenez en considration les aspects suivants.

38

Ne mlangez pas les FC HBA de diffrents fournisseurs sur un mme serveur. Il est possible d'avoir
diffrents modles du mme HBA, mais on ne peut pas accder un mme LUN via deux types
diffrents de HBA; ceci est possible uniquement via un mme type.

Assurez-vous que le niveau du microprogramme sur chaque HBA est le mme.

VMware, Inc.

Chapitre 4 Configuration du stockage Fibre Channel

Dfinissez le dlai pour la dtection d'un basculement. Pour assurer une performance optimale, ne
modifiez pas la valeur par dfaut.

ESXi prend en charge les HBA FC 16 Go, mais ne prend pas en charge la connectivit bout en bout
16 Go totale depuis l'hte vers la baie. Si vous utilisez des HBA FC 16 Go fonctionnant 16 Go, pour
obtenir une bande passante intgrale, crez au moins deux connexions de 8 Go depuis le commutateur
jusqu' la baie de stockage.

tapes d'installation et de configuration


Cette rubrique dcrit les tapes d'installation et de configuration que vous devez suivre lors de la
configuration de votre environnement SAN pour que celui-ci fonctionne avec l'ESXi.
Suivez ces tapes pour configurer votre environnement SAN ESXi.
1

Configurez votre SAN si ce n'est dj fait. La plupart des SAN existants ne ncessitent que quelques
modifications mineures pour fonctionner avec ESXi.

Assurez-vous que tous les composants SAN remplissent les conditions requises.

Apportez toute modification ncessaire la baie de stockage.


La plupart des fournisseurs possdent leur propre documentation pour la configuration d'un SAN pour
que celui-ci fonctionne avec VMware ESXi.

Configurez les HBA pour les htes connects au SAN.

Installez ESXi sur les htes.

Crez des machines virtuelles et installez les systmes d'exploitation client.

(Facultatif) Configurez votre systme pour le basculement de VMware HA ou pour utiliser Microsoft
Cluster Services.

Mettez niveau ou modifiez votre environnement selon vos besoins.

Virtualisation d'identification N-Port


La virtualisation d'ID N-Port (NPIV) est un standard ANSI T11 qui dcrit comment un port HBA unique
Fibre Channel peut s'enregistrer dans la structure avec plusieurs noms worldwide mondiaux (WWPNs).
Cela permet au N-Port attach au fabric de possder des adresses de structure multiples. Chaque adresse
apparat comme une entit unique dans la structure Fibre Channel.

Comment fonctionne l'accs un LUN par NPIV


NPIV permet un unique port HBA FC d'enregistrer plusieurs WWN uniques dans la structure, chacun
pouvant tre assign une machine virtuelle.
Les objets SAN comme les commutateurs, HBA, priphriques de stockage ou machines virtuelles peuvent
se voir assigns des identifiants Nom mondial WWN. Les WWN identifient de manire unique ces objets
dans la structure Fibre Channel. Lorsque les machines virtuelles possdent des affectations WWN, elles les
utilisent pour tout leur trafic RDM, et donc les LUN vers lesquels pointent tous les RDM de la machine
virtuelle doivent rester non masqus pour ces WWN. Si les machines virtuelles ne possdent pas
d'affectations WWN, elles peuvent accder aux LUN de stockage au moyen des WWN des HBA physiques
de leur hte. Toutefois, grce NPIV, un administrateur SAN peut surveiller et router l'accs au stockage
pour chaque machine virtuelle. La section suivante dcrit le fonctionnement de NPIV.
Lorsqu'une machine virtuelle se voit assigner un WWN, le fichier de configuration de la machine virtuelle
(.vmx) est actualis afin d'inclure une paire WWN (contenant un Numro de port WWPN, et un Nom de
nud WWNN). Au dmarrage de cette machine virtuelle, VMware active un port virtuel (VPORT) sur le
port physique HBA utilis pour accder au LUN. Ce VPORT est un HBA virtuel apparaissant comme HBA
physique pour la structure FC, c'est--dire qu'il possde son identifiant unique, la paire WWN assigne la

VMware, Inc.

39

Stockage vSphere

machine virtuelle. Chaque port VPORT est spcifique la machine virtuelle, et quand cette machine est
teinte, le VPORT est dtruit sur l'hte et n'apparat plus dans la structure FC. Lorsqu'une machine virtuelle
est migre d'un hte vers un autre, le VPORT est ferm sur le premier hte et ouvert sur l'hte de
destination.
Si NPIV est activ, les paires WWN (WWPN et WWNN) sont spcifies pour chaque machine virtuelle au
moment de leur cration. Lorsqu'une machine virtuelle utilisant NPIV est mise sous tension, elle utilise
chacune de ces paires WWN par squence afin de dcouvrir un chemin d'accs au stockage. Le nombre de
VPORTs activs par VMware est gal au nombre de HBA physiques prsents sur l'hte. Un VPORT est cr
sur chaque HBA physique o un chemin physique est trouv. Chaque chemin physique est utilis pour
dterminer le chemin virtuel qui sera utilis pour accder au LUN. Notez que les HBA ne prenant pas en
charge NPIV sont ignors lors de ce processus de dcouverte, car les VPORT ne peuvent y tre instancis.

Conditions ncessaires pour l'utilisation de NPIV


Si vous prvoyez d'activer NPIV sur vos machines virtuelles, vous devez connatre certaines conditions
pralables.
Les conditions suivantes sont requises :
n

NPIV ne peut tre utilis que pour des machines virtuelles avec disques RDM. Les machines virtuelles
dotes de disques virtuels standard utilisent les noms WWN des HBA physiques de l'hte.

Les HBA doivent prendre en charge NPIV.


Pour plus d'informations, consultez le Guide de compatibilit vSphere et consultez la documentation du
fournisseur.
n

Utilisez les HBA du mme type, soit tout QLogic, soit tout Emulex. VMware ne prend pas en
charge les HBA htrognes sur le mme hte ayant accs aux mmes LUN.

Si un hte utilise de multiples HBA physiques en tant que chemins vers le stockage, slectionnez
tous les chemins physiques vers la machine virtuelle. Cela est ncessaire afin de prendre en charge
le gestion multivoie, mme si un seul chemin sera actif la fois.

Vrifiez que les HBA physiques sur l'hte ont accs tous les LUN auxquels les machines virtuelles
compatibles NPIV excutes sur cet hte doivent avoir accs.

Les commutateurs de structure doivent prendre en charge NPIV.

Lorsque vous configurez un LUN pour un accs NPIV au niveau du stockage, assurez-vous que le
numro de LUN NPIV et l'ID NPIV de la cible correspondent au LUN physique et l'ID cible.

Capacits et limitations NPIV


Dcouvrez les capacits et limitations spcifiques de l'utilisation de NPIV avec ESXi.
ESXi avec NPIV prend en charge les lments suivants :
n

NPIV prend en charge vMotion. Lorsque vous utilisez vMotion pour migrer une machine virtuelle, elle
conserve le WWN assign.
Si vous migrez une machine virtuelle active par NPIV vers un hte qui ne prend pas en charge NPIV,
VMkernel repasse l'utilisation d'un HBA physique pour acheminer l'E/S.

Si votre environnement FC SAN prend en charge les E/S simultanes sur les disques depuis une baie
active-active, les E/S simultanes vers deux ports NPIV diffrents sont galement prises en charge.

Lorsque vous utilisez ESXi avec NPIV, les limitations suivantes s'appliquent :
n

40

tant donn que la technologie NPIV est une extension du protocole FC, elle exige un commutateur FC
et ne fonctionne pas sur les disques FC directement relis.

VMware, Inc.

Chapitre 4 Configuration du stockage Fibre Channel

Lorsque vous clonez une machine virtuelle ou un modle avec un WWN assign, les clones ne
conservent pas le WWN.

NPIV ne prend pas en charge Storage vMotion.

La dsactivation puis ractivation du NPIV sur un commutateur FC alors que des machines virtuelles
fonctionnent peut provoquer la panne du lien FC et l'arrt des E/S.

Affectation de WWN aux machines virtuelles


Affecter des paramtres WWN une machine virtuelle dote d'un disque RDM.
Vous pouvez crer de 1 16 paires de WWN, pouvant tre mappes vers les premires HBA FC physiques 1
16 de l'hte.
Prrequis
Crer une machine virtuelle dote d'un disque RDM. Reportez-vous la section Crer des machines
virtuelles avec des RDM dans Client Web vSphere , page 173.
Procdure
1

Dans Client Web vSphere, accdez la machine virtuelle.

Cliquez avec le bouton droit sur la machine virtuelle et slectionnez [Modifier les paramtres] .

Cliquez sur [Options VM] .

Cliquez sur le triangle Fibre Channel NPIV pour dvelopper les options NPIV.

Dslectionnez la case cocher [Dsactiver temporairement NPIV pour cette VM] .

Slectionnez [Gnrer nouveaux WWN] .

Spcifiez le nombre de WWNN et de WWPN.


Il faut 2 WWPN minimum pour prendre en charge le basculement avec NPIV. De manire gnrale, un
seul WWNN est cr pour chaque machine virtuelle.

L'hte cre des affectations WWN pour la machine virtuelle.


Suivant
Enregistrez les nouveaux WWN dans la structure pour que la machine virtuelle puisse se connecter au
commutateur et assigner des LUN de stockage aux WWN.

Modification des affectations WWN


Vous pouvez modifier les affectations WWN pour une machine virtuelle avec un RDM.
De manire gnrale, vous ne devez pas changer les affectations WWN existantes sur votre machine
virtuelle. Dans certaines circonstances, par exemple, lorsque des WWN affectes manuellement provoquent
des conflits sur le SAN, il peut tre ncessaire de changer ou de supprimer les WWN.
Prrequis
Veillez mettre la machine virtuelle hors tension avant la modification des WWN existants.
Avant de commencer, vrifiez que l'administrateur SAN a effectu le provisionnement de liste de contrle
d'accs (ACL) aux LUN, qui permettent l'hte ESXi de la machine virtuelle d'y accder.
Procdure
1

VMware, Inc.

Ouvrez la bote de dialogue Proprits de la machine virtuelle en cliquant sur le lien [Modifier les
paramtres] pour la machine virtuelle slectionne.

41

Stockage vSphere

Cliquez sur l'onglet [Options] et slectionnez [Fibre Channel NPIV] .


La bote de dialogue Proprits de la machine virtuelle s'ouvre.

42

Modifiez les affectations WWN en slctionnant l'une des options suivantes :


Option

Description

Dsactivez temporairement NPIV


pour cette machine virtuelle.

Dsactivez les affectations WWN pour la machine virtuelle.

Laisser tel quel

Les affectations de WWN existantes sont conserves. La section


d'affactations de WWN en lecture seule de cette bote de dialogue affiche
les valeurs de nud et de port des affectations WWN existantes.

Gnrer nouveaux WWN

De nouveaux WWN sont crs puis affects la machine virtuelle,


remplaant les WWN existants (les WWN du HBA lui-mme sont
inchangs).

Supprimer l'affectation WWN

Les WWN affects la machine virtuelle sont supprims ; celle-ci utilise les
WWN du HBA pour l'accs aux LUN de stockage. Cette option n'est pas
disponible en cas de cration d'une nouvelle machine virtuelle.

Cliquez sur [OK] pour enregistrer vos modifications.

VMware, Inc.

Configuration de Fibre Channel over


Ethernet

Un hte ESXi peut utiliser le protocole Fibre Channel over Ethernet (FCoE) pour accder au stockage Fibre
Channel.
Le protocole FCoE encapsule les trames Fibre Channel dans des trames Ethernet. Par consquent, l'hte n'a
pas besoin de liaisons Fibre Channel spciales pour se connecter au stockage Fibre Channel, mais peut
utiliser Ethernet de 10 Gbit sans perte pour fournir un trafic Fibre Channel.
Ce chapitre aborde les rubriques suivantes :
n

Adaptateurs Fibre Channel over Ethernet , page 43

Instructions de configuration pour le FCoE logiciel , page 44

Configurer la mise rseau pour un FCoE logiciel dans Client Web vSphere , page 44

Ajouter des adaptateurs FCoE de logiciel dansClient Web vSphere , page 45

Adaptateurs Fibre Channel over Ethernet


Pour utiliser Fibre Channel over Ethernet (FCoE), vous devez installer des adaptateurs FCoE sur votre hte.
Les adaptateurs pris en charge par VMware entrent gnralement dans deux catgories : adaptateurs FCoE
matriels et adaptateurs FCoE logiciels qui utilisent la pile de FCoE en natif dans l'ESXi.

Adaptateurs FCoE matriels


Cette catgorie inclut les cartes CNA (Converged Network Adapters) spciales compltement dcharges
qui contiennent des fonctions de rseau et Fibre Channel sur la mme carte.
Lorsque ce type d'adaptateur est install, l'hte dtecte et peut utiliser les deux composants CNA. Dans le
client, le composant de mise en rseau apparat comme adaptateur rseau standard (vmnic) et le composant
Fibre Channel, comme adaptateur FCoE (vmhba). Il n'est pas ncessaire de configurer l'adaptateur FCoE
matriel pour pouvoir l'utiliser.

Adaptateur FCoE de logiciel


Un adaptateur FCoE logiciel utilise la pile de protocoles FCoE en natif dans l'ESXi pour le traitement des
protocoles. L'adaptateur FCoE logiciel est utilis avec une carte NIC qui offre les capacits de Data Center
Bridging (DCB) et de dchargement E/S. Intel X520 est un exemple de ce type de carte NIC. Pour des
informations sur les adaptateurs rseau qui prennent en charge le FCoE logiciel, voir le Guide de compatibilit
vSphere.

VMware, Inc.

43

Stockage vSphere

Pour l'adaptateur FCoE de logiciel, vous devez configurer correctement la mise en rseau puis activer
l'adaptateur.
REMARQUE Le nombre d'adaptateur FCoE de logiciel que vous pouvez activer correspond au nombre de
ports de carte rseau physiques. ESXi prend en charge au maximum quatre adaptateurs FCoE de logiciel sur
un hte.

Instructions de configuration pour le FCoE logiciel


Lors de la configuration de votre environnement rseau de faon ce qu'il fonctionne avec le FCoE du
logiciel ESXi, suivez les instructions et les meilleures pratiques proposes par VMware.

Instructions concernant le commutateur de rseau


Suivez ces instructions lorsque vous configurez un commutateur de rseau pour l'environnement FCoE
logiciel :
n

Sur les ports qui communiquent avec votre hte ESXi, dsactivez le protocole d'arborescence de
rpartition (STP). Le fait d'avoir le STP activ pourrait retarder la rponse du protocole d'initialisation
du FCoE (FIP) au niveau du commutateur et provoquer un tat APD (Tous chemins bas).
Le FIP est un protocole utilis par FCoE pour trouver et initialiser les entits FCoE sur l'Ethernet.

Dmarrez le PFC (Contrle de flux bas sur les priorits) et dfinissez-le sur AUTO.

VMware recommande d'utiliser le microprogramme suivant sur le commutateur FCoE :


n

Cisco Nexus 5000 : version 4.1(3)N2 ou suprieure.

Commutateur Brocade FCoE : version 6.3.1 ou suprieure.

Meilleures pratiques pour les adaptateurs rseau


Si vous envisagez d'activer les adaptateurs FCoE logiciels pour qu'ils fonctionnent avec les adaptateurs
rseau, des considrations particulires s'appliquent.
n

Assurez-vous que le tout dernier microcode est install sur l'adaptateur rseau FCoE.

Si l'adaptateur rseau comporte plusieurs ports, lors de la configuration de la mise en rseau, ajoutez
chaque port un vSwitch spar. Cette pratique vous permet d'viter un tat APD lorsqu'un vnement
perturbateur, tel qu'un changement de MTU, se produit.

Ne dplacez pas un adaptateur rseau d'un vSwitch vers un autre lorsque le trafic FCoE est actif. Si
vous devez faire ce changement, redmarrez votre hte ensuite.

Si vous avez remplac le vSwitch par un port d'adaptateur rseau et provoqu une dfaillance,
redplacez le port vers le vSwitch d'origine pour rsoudre le problme.

Configurer la mise rseau pour un FCoE logiciel dans


Client Web vSphere
Avant d'activer les adaptateurs FCoE logiciels, vous devez crer des adaptateurs rseau VMkernel pour
toutes les cartes NIC FCoE physiques installes sur votre hte.
La prsente procdure explique comment crer un adaptateur rseau VMkernel unique connect un
adaptateur rseau FCoE physique unique par un commutateur standard vSphere. Si l'hte est dot de
plusieurs adaptateurs rseau ou de plusieurs ports sur l'adaptateur, connectez chaque carte NIC FCoE un
commutateur standard spar. Pour plus d'informations, voir la documentation Mise en rseau vSphere.
REMARQUE ESXi prend en charge au maximum quatre ports de carte rseau utiliss pour le FCoE logiciel.

44

VMware, Inc.

Chapitre 5 Configuration de Fibre Channel over Ethernet

Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur [Actions] et slectionnez [Toutes les actions vCenter] > [Ajouter une mise en rseau] .

Slectionnez [Adaptateur rseau VMkernel] , puis cliquez sur [Suivant] .

Slectionnez [Nouveau commutateur standard] pour crer un commutateur standard vSphere.

Dans Adaptateurs non rclams, slectionnez l'adaptateur rseau (vmnic#) prenant FCoE en charge
puis cliquez sur [Affecter] .
Veillez affecter l'adaptateur des adaptateurs actifs.

Entrez une tiquette de rseau.


L'tiquette de rseau est un nom descriptif qui identifie l'adaptateur VMkernel que vous crez, par
exemple, FCoE.

Prcisez un ID de VLAN et cliquez sur [Suivant] .


Le trafic FCoE ncessitant un rseau isol, veillez ce que l'ID VLAN que vous entrez soit diffrent de
celui utilis pour les communications rseau normales sur l'hte. Pour plus d'informations, voir la
documentation Mise en rseau vSphere.

Aprs avoir termin la configuration, passez vos informations en revue et cliquez sur [Terminer] .

Vous avez cr l'adaptateur virtuel VMkernel de l'adaptateur rseau FCoE physique install sur l'hte.
REMARQUE Pour viter les perturbations du trafic FCoE, ne retirez pas la carte rseau FCoE (vmnic#) du
commutateur standard vSphere aprs avoir dfini la mise en rseau FCoE.

Ajouter des adaptateurs FCoE de logiciel dans Client Web vSphere


Vous devez activer les adaptateurs FCoE du logiciel afin que votre hte puisse les utiliser pour accder au
stockage Fibre Channel.
Le nombre d'adaptateur FCoE de logiciel que vous pouvez activer correspond au nombre de ports NIC
FCoE physiques sur l'hte. ESXi prend en charge au maximum quatre adaptateurs FCoE de logiciel sur un
hte.
Prrequis
Configurez le rseau pour l'adaptateur FCoE du logiciel.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] , puis cliquez sur [Ajouter] .

Select [Adaptateur FCoE de logiciel] .

Dans la bote de dialogue Ajouter l'adaptateur FCoE de logiciel, slectionnez la carte rseau vmnic
approprie dans la liste droulante des adaptateurs rseau physiques.
Seuls les adaptateurs qui ne sont pas encore utiliss pour le trafic FCoE figurent dans la liste.

Cliquez sur [OK] .


L'adaptateur FCoE de logiciel figure dans la liste des adaptateurs de stockage.

Aprs avoir activ l'adaptateur FCoE de logiciel, vous pouvez afficher ses proprits. Si vous n'utilisez pas
l'adaptateur, vous pouvez le supprimer de la liste des adaptateurs.

VMware, Inc.

45

Stockage vSphere

46

VMware, Inc.

Modification du stockage Fibre


Channel pour ESXi

Cette section tudie plusieurs des priphriques de stockage pris en charge conjointement VMware ESXi.
Pour chaque priphrique, elle rpertorie les problmes potentiels principaux connus, pointe vers des
informations spcifiques chaque fournisseur (le cas chant) et inclut des informations provenant d'articles
de la base de connaissances VMware.
REMARQUE Les informations lies certains priphriques de stockage spcifiques sont mises niveau
uniquement chaque nouvelle version. De nouvelles informations peuvent dj tre disponibles. Consultez
le Guide de compatibilit de Stockage/SAN le plus rcent, vrifiez auprs de votre fournisseur de baies de
stockage et explorez les articles de la base de connaissances VMware.
Ce chapitre aborde les rubriques suivantes :
n

Test des configurations SAN de l'ESXi , page 48

Considrations gnrales de configuration pour les baies SAN Fibre Channel , page 48

Systmes de stockage EMC CLARiiON dans les configurations SAN Fibre Channel , page 49

Systmes de stockage EMC Symmetrix , page 49

Systmes de stockage IBM System Storage DS4800 , page 50

Systmes IBM Storage 8000 et IBM ESS800 , page 51

Systmes de stockage HP StorageWorks , page 52

Stockage Hitachi Data Systems , page 52

Stockage Network Appliance , page 53

Systmes de stockage bass sur LSI , page 53

VMware, Inc.

47

Stockage vSphere

Test des configurations SAN de l' ESXi


ESXiprend en charge divers systmes de stockage SAN dans diffrentes configurations. En gnral, VMware
teste ESXi avec les systmes de stockage pris en charge pour une connectivit de base, le basculement HBA,
etc.
Les priphriques de stockage ne sont pas tous certifis pour toutes les fonctionnalits et possibilits de
l'ESXi, et les fournisseurs peuvent avoir des positions spcifiques de prise en charge concernant l'ESXi.
Connectivit de base

Teste si l'ESXi peut reconnatre et fonctionner avec la baie de stockage. Cette


configuration ne permet pas le chemins multiples ou tout autre type de
basculement.

Basculement HBA

Le serveur est quip de plusieurs HBA se connectant un ou plusieurs


commutateurs SAN. Le serveur est rsistant aux pannes de HBA et de
commutateur uniquement.

Basculement de port de
stockage

Le serveur est associ plusieurs ports de stockage et est rsistant aux


pannes de port de stockage et aux pannes de commutateur.

Dmarrage partir du
SAN

L'hte dmarre partir d'un LUN configur sur le SAN plutt qu' partir du
serveur lui-mme.

Connexion directe

Le serveur se connecte la baie sans utiliser de commutateurs. Pour tous les


autres tests, une connexion matricielle est utilise. FC Arbitrated Loop (AL)
n'est pas pris en charge.

Mettre en cluster

Le systme est test avec Microsoft Cluster Services s'excutant sur la


machine virtuelle.

Considrations gnrales de configuration pour les baies SAN Fibre


Channel
Lorsque vous prparez votre systme de stockage SAN FC pour qu'il fonctionne avec ESXi, vous devez
suivre les conditions gnrales spcifiques qui s'appliquent toutes les baies de stockage.
Pour toutes les baies de stockage, veillez ce que les conditions requises suivantes soient remplies :
n

Les LUN doivent tre prsents chaque HBA de chaque hte avec le mme ID de LUN.
tant donn que les instructions sur la configuration des ID de LUN SAN identiques sont spcifiques
chaque fournisseur, consultez la documentation de votre baie de stockage pour obtenir plus
d'informations.

Sauf mention particulire pour des baies de stockage individuelles, dfinissez le type d'hte des LUN
prsents ESXi sur Linux, Linux Cluster, ou, si disponible, sur vmware ou esx.

Si vous utilisez vMotion, DRS ou HA, veillez ce que les htes source et cible des machines virtuelles
puissent voir les mmes LUN avec des ID de LUN identiques.
Les administrateurs SAN peuvent trouver peu intuitif que plusieurs htes voient les mmes LUN car ils
peuvent alors tre concerns par la corruption des donnes. Toutefois, VMFS empche que plusieurs
machines virtuelles n'crivent sur le mme fichier au mme moment. Il est donc appropri de fournir
les LUN tous les systmes ESXi requis.

48

VMware, Inc.

Chapitre 6 Modification du stockage Fibre Channel pour ESXi

Systmes de stockage EMC CLARiiON dans les configurations SAN


Fibre Channel
Les systmes de stockage EMC CLARiiON fonctionnent avec les htes ESXi dans les configurations SAN.
La configuration de base inclut les tapes suivantes :
1

Installation et configuration du priphrique de stockage.

Configuration du zonage au niveau du commutateur.

Cration des groupes RAID.

Cration et liaison des LUN.

Inscription des serveurs connects au SAN. Par dfaut, l'hte effectue automatiquement cette tape.

Cration des groupes de stockage contenant les serveurs et les LUN.

Utilisez le logiciel de gestion de stockage EMC pour effectuer cette configuration. Pour plus d'informations,
reportez-vous la documentation EMC.
ESXi envoie automatiquement le nom et l'adresse IP de l'hte la baie et inscrit l'hte auprs de la baie.
Vous n'avez plus besoin d'effectuer manuellement l'inscription de l'hte. Toutefois, si vous prfrez utiliser
le logiciel de gestion de stockage, tel qu'EMC Navisphere, pour effectuer une inscription manuelle,
dsactivez la fonction d'inscription automatique de l'ESXi. Cette dsactivation vous permet d'viter de
remplacer l'inscription manuelle de l'utilisateur. Pour plus d'informations, consultez Dsactiver
l'enregistrement automatique d'hte dans Client Web vSphere , page 66.
tant donn que cette baie est une baie de disques active/passive, les considrations gnrales suivantes
s'appliquent.
n

La rgle de gestion des chemins multiples dfinie par dfaut pour les baies CLARiiON qui ne prennent
pas en charge ALUA est la plus communment utilise. Dans le cas des baies CLARiiON qui prennent
en charge ALUA, VMW_PSP_FIXED est la rgle de gestion des chemins multiples dfinie par dfaut. Le
systme ESXi dfinit la rgle par dfaut lorsqu'il identifie la baie.

Pour utiliser le dmarrage partir du SAN, assurez-vous que le SP actif est slectionn comme cible du
LUN de dmarrage dans le BIOS HBA.

IMPORTANT Pour qu'un ESXi prenne en charge EMC CLARiiON avec ALUA, vrifiez les HCL pour vous
assurer que vous utilisez bien la bonne version de microprogramme sur la baie de stockage. Pour plus
d'informations, contactez votre fournisseur de stockage.

Systmes de stockage EMC Symmetrix


Les systmes de stockage EMC Symmetrix fonctionnent avec les htes ESXidans les configurations FC SAN.
Gnralement, vous utilisez le logiciel EMC pour effectuer ces configurations.
Les paramtres suivants sont requis sur le systme de stockage rseau Symmetrix. Pour plus d'informations,
reportez-vous la documentation EMC.
n

Numro de srie commun (C)

Auto-ngociation (EAN) active

Fibrepath activ sur ce port (VCM)

SCSI 3 (SC3) activ

Nom mondial unique (UWN)

L'indicateur SPC-2 (Decal) (SPC2) SPC-2 est requis

VMware, Inc.

49

Stockage vSphere

L'hte ESXi considre tous les LUN partir d'une baie de stockage Symmetrix avec une capacit de 50 Mo
maximum comme LUN de gestion. Ces LUN sont galement appels pseudo LUN ou LUN de contrle
d'accs. Ces LUN apparaissent dans l'interface de gestion EMC Symmetrix et ne doivent pas tre utiliss
pour contenir des donnes.

Systmes de stockage IBM System Storage DS4800


Les systmes IBM System Storage DS4800 s'appelaient auparavant IBM FAStT. Un certain nombre de
fournisseurs de baie de stockage (dont LSI et StorageTek) fabriquent des baies de stockage SAN compatibles
avec le systme DS4800.
Veillez dfinir la politique de gestion des chemins multiples sur votre hte sur Le plus rcemment utilis
(Most Recently Used) pour que votre hte fonctionne avec IBM DS4800 et d'autres systmes compatibles.

Configuration du matriel pour le basculement du SAN avec les serveurs de


stockage DS4800
Cette rubrique fournit des informations sur la configuration d'un basculement de SAN HA avec un hte
ESXi et un stockage DS4800.
Vous devez disposer des composants matriels suivants :
n

Deux FC HBA, tels que QLogic ou Emulex, sur chaque machine ESXi.

Deux commutateurs FC reliant les HBA au SAN (par exemple, commutateur FC 1 et commutateur
FC 2).

Deux SP (par exemple, SP1 et SP2).


Chaque SP doit possder au moins deux ports connects au SAN.

Utilisez les paramtres de connexion suivants pour l'hte ESXi, comme indiqu dans le basculement du
SAN :
n

Connectez chaque HBA de chaque machine ESXi un commutateur distinct. Par exemple, connectez
HBA1 Commutateur FC 1 et HBA2 Commutateur FC 2.
Figure 61. Basculement du SAN
Hte 2

Hte 1
HBA1

HBA2

commutateur FC 1

HBA3

HBA4

commutateur FC 2

SP1

SP2
stockage

Cette configuration fournit deux chemins de chaque HBA, pour que chaque lment de la connexion puisse
basculer vers un chemin redondant. L'ordre des chemins dans cette configuration permet le basculement de
HBA et de commutateur sans avoir besoin de dclencher le basculement de SP. Le processeur de stockage
auquel sont connects les chemins par dfaut doit contenir les LUN. Dans le prcdent exemple de
configuration, SP1 les contient.
REMARQUE Le prcdent exemple suppose que les commutateurs ne sont pas connects via un ISL (InterSwitch Link) dans un matriciel.

50

VMware, Inc.

Chapitre 6 Modification du stockage Fibre Channel pour ESXi

Dsactivation du transfert automatique de volume


Pour viter toute annulation de chemin, dsactivez l'AVT (Auto Volume Transfer) sur les processeurs de
stockage SAN. Si l'AVT est activ, les deux processeurs de stockage peuvent tour tour prendre possession
du LUN dans certaines situations, entranant ainsi une dgradation des performances. L'AVT est galement
connu sous le nom d'ADT (Auto Disk Transfer).
Pour dsactiver l'AVT, dans le DS 4800 Storage Manager, pour chaque port dfini dans chaque groupe
d'hte contenant des HBA pour un ou plusieurs htes ESXi dfinissez le type d'hte sur LNXCL ou dans les
versions ultrieures, sur VMware.
Vous devez redmarrer les htes aprs avoir modifi la configuration de l'AVT.

Configuration des donnes de dtection du processeur de stockage


Un SP DS4800 qui excute Windows comme systme d'exploitation client doit renvoyer les donnes de
dtection Not Ready lorsqu'il est inactif. Le renvoi de Unit Attention peut entraner l'chec du client
Windows lors d'un basculement.
Procdure
1

Dterminez l'index pour le type d'hte LNXCL en utilisant les commandes suivantes dans une fentre
shell.
Appuyez sur Entre aprs chaque commande.
SMcli.exe ip-addr-for-SPA show hosttopology; Enter SMcli.exe ip-addr-for-SPB show
hosttopology

Les commandes suivantes supposent que 13 est l'index correspondant LNXCL dans les dfinitions du
type d'hte NVSRAM. Si vos processeurs de stockage ont LNXCL au niveau d'un autre index, remplacez
cet index par 13 dans les commandes suivantes.
2

Excutez ces commandes pour SPA pour que celui-ci renvoie les donnes de dtection Not Ready.
Appuyez sur Entre uniquement aprs avoir saisi toutes les commandes.SMcli.exe ip-addr-for-SPA
set controller [a] HostNVSRAMBYTE [13,0x12]=0x01; set controller [a] HostNVSRAMBYTE
[13,0x13]=0x00; reset Controller [a]

Excutez ces commandes pour SPB pour que celui-ci renvoie les donnes de dtection Not Ready.
Appuyez sur Entre uniquement aprs avoir saisi toutes les commandes.SMcli.exe ip-addr-for-SPB
set controller [b] HostNVSRAMBYTE [13,0x12]=0x01; set controller [b] HostNVSRAMBYTE
[13,0x13]=0x00; reset Controller [b]

REMARQUE Si vous utilisez la GUI DS4800 Storage Manager, collez les commandes de configuration
pour les deux processeurs de stockage dans un seul script et configurez-les simultanment. Si vous
utilisez SMcli.exe, tablissez des connexion individuelles chaque SP.

Systmes IBM Storage 8000 et IBM ESS800


Les systmes IBM Systems Storage 8000 et IBM ESS800 utilisent une baie active/active qui ne ncessite
aucune configuration spciale conjointement VMware ESXi.
Les considrations suivantes s'appliquent si vous utilisez ces systmes :
n

La resignature automatique n'est pas prise en charge pour ces systmes.

Pour utiliser correctement les RDM, un LUN donn doit tre prsent avec le mme ID de LUN
chaque hte ESXi du cluster.

VMware, Inc.

51

Stockage vSphere

Dans l'outil ESS800 Configuration Management, slectionnez [Utiliser le mme ID de LUN dans la
source et la cible] .

Si vous configurez l'hte pour qu'il utilise le dmarrage partir du SAN de ces baies, dsactivez le port
de fibre interne pour la lame correspondante jusqu' la fin de l'installation.

Systmes de stockage HP StorageWorks


Cette section contient des informations de configuration pour les diffrents systmes de stockage HP
StorageWorks.
Pour plus d'informations, reportez-vous la section HP ActiveAnswers sur VMware ESXi sur le site Web de
HP.

HP StorageWorks EVA
Pour utiliser un systme HP StorageWorks EVA avec ESXi, vous devez configurer le type de mode d'hte
correct.
Dfinissez le type de connexion sur Personnaliser lorsque vous prsentez un LUN l'hte. La valeur est
l'une des suivantes :
n

Pour les baies actives/actives EVA4000/6000/8000 avec microprogramme antrieur 5.031, utilisez le
type de mode d'hte 000000202200083E.

Pour les baies actives/actives EVA4000/6000/8000 avec microprogramme 5.031 et versions ultrieures ,
utilisez le type de mode d'hte VMware.

Sinon, les systmes EVA ne ncessitent aucune modification spciale de la configuration pour fonctionner
avec un systme ESXi.
Consultez la page VMware Infrastructure, HP StorageWorks Best Practices sur le site Web de HP.

HP StorageWorks XP
Pour HP StorageWorks XP, vous devez paramtrer spcifiquement le mode d'hte.
n

Sur XP128/1024/10000/12000, dfinissez le mode hte sur Windows (0x0C).

Sur XP24000/20000, dfinissez le mode hte sur 0x01.

Stockage Hitachi Data Systems


Cette section prsente la configuration du stockage Hitachi Data Systems. Cette solution de stockage est
galement disponible partir de Sun et comme stockage HP XP.
masquage de LUN

Pour masquer les LUN sur l'hte ESXi et obtenir de meilleurs rsultats,
utilisez le logiciel HDS Storage Navigator.

Microcode et
configurations

Vrifiez auprs de votre reprsentant HDS les configurations exactes et les


niveaux de microcode ncessaires pour une interoprabilit avec ESXi. Si
votre microcode n'est pas pris en charge, toute interaction avec ESXi n'est
gnralement pas possible.

Modes

Les modes que vous dfinissez dpendent du modle que vous utilisez, par
exemple :
n

52

9900 et 9900v utilisent le mode d'hte Netware.

VMware, Inc.

Chapitre 6 Modification du stockage Fibre Channel pour ESXi

La srie 9500v utilise Hostmode1 : standard et Hostmode2 : SUN


Cluster.

Vrifiez auprs de votre reprsentant HDS pour obtenir les paramtres de


mode d'hte pour les modles non rpertoris ici.

Stockage Network Appliance


Lors de la configuration d'un priphrique de stockage Network Appliance, dfinissez tout d'abord le type
de LUN appropri et le type de groupes d'initiateur pour la baie de stockage.
Type de LUN

VMware (si le type VMware n'est pas disponible, utilisez Linux).

Type de groupes
d'initiateur

VMware (si le type VMware n'est pas disponible, utilisez Linux).

Vous devez alors provisionner le stockage.

Systmes de stockage bass sur LSI


Lors de l'installation de l'ESXi, ne prsentez pas le LUN de gestion, galement appel LUN d'accs, partir
des baies bases sur LSI l'hte.
Sinon, l'installation de l'ESXi pourrait chouer.

VMware, Inc.

53

Stockage vSphere

54

VMware, Inc.

Dmarrage ESXi partir du SAN


Fibre Channel

Lorsque vous paramtrez votre hte pour qu'il dmarre depuis un SAN, l'image de dmarrage de votre hte
est archive sur une ou plusieurs numros d'unit logique (LUN) du systme de stockage du SAN. Lorsque
l'hte dmarre, il se lance partir de la LUN se trouvant sur le SAN et non pas partir du disque local.
ESXiprend en charge des dmarrages par le biais d'un adaptateur de bus hte (HBA) Fibre Channel ou d'un
adaptateur de rseau converg (CNA) Fibre Channel sur Ethernet (FCoE).
Ce chapitre aborde les rubriques suivantes :
n

Avantages du dmarrage partir d'un SAN , page 55

Considrations et spcifications du dmarrage partir du SAN Fibre Channel , page 56

Prparation pour le dmarrage partir du SAN , page 56

Configurer Emulex HBA pour un dmarrage partir du SAN , page 58

Configurer QLogic HBA pour un dmarrage partir du SAN , page 59

Avantages du dmarrage partir d'un SAN


Le dmarrage partir du SAN peut offrir de nombreux avantages votre environnement. Toutefois, dans
certains cas, vous ne devez pas effectuer le dmarrage partir du SAN dans le cas des htes ESXi. Avant de
configurer votre systme pour un dmarrage partir du SAN, vous devez dcider si cela est ncessaire pour
votre environnement.
AVERTISSEMENT Lorsque vous utilisez le dmarrage partir du SAN avec plusieurs htes ESXi, chaque hte
doit possder sa propre LUN de dmarrage. Si vous configurez de nombreux htes pour partager la mme
LUN de dmarrage, une corruption de l'image d'ESXi peut ventuellement se produire.
Si vous utilisez le dmarrage partir du SAN, les avantages pour votre environnement incluront les
lments suivants :
n

Cot moins lev des serveurs. Les serveurs sont plus denses et leur temprature de fonctionnement
beaucoup moins leve sans stockage interne.

Remplacement plus facile des serveurs. Vous pouvez remplacer les serveurs par un nouveau serveur
que vous pointez vers l'ancien emplacement de dmarrage.

Gain d'espace. Les serveurs sans disques locaux sont souvent moins volumineux.

Processus de sauvegarde plus faciles. Vous pouvez sauvegarder les images de dmarrage du systme
dans le SAN dans le cadre des procdures de sauvegarde gnrales du SAN. Vous pouvez galement
utiliser les fonctionnalits avances de la baie, telles que les snapshots de l'image de dmarrage.

Gestion amliore. La cration et la gestion de l'image du systme d'exploitation sont encore plus faciles
et plus efficaces.

VMware, Inc.

55

Stockage vSphere

Meilleure fiabilit. Vous pouvez accder au disque de dmarrage via diffrents chemins. Le disque est
ainsi protg en ne reprsentant pas un point unique de panne.

Considrations et spcifications du dmarrage partir du SAN Fibre


Channel
Votre configuration de dmarrage ESXi doit rpondre certaines exigences particulires.
Tableau 71. Conditions requises du dmarrage partir du SAN
Spcifications

Description

Spcifications
systme ESXi

Respectez les recommandations du fournisseur pour le dmarrage du serveur partir d'un SAN.

Conditions requises
d'une carte

Activez et configurez correctement la carte afin qu'elle puisse accder au LUN de dmarrage.
Consultez la documentation du fabricant.

Contrle d'accs

Chaque hte doit ne pouvoir accder qu' son propre LUN de dmarrage et non aux LUN de
dmarrage des autres htes. Utilisez le logiciel du systme de stockage pour vrifier que
l'hte accde uniquement aux LUN qui lui sont assigns.
Plusieurs serveurs peuvent partager une partition de diagnostic. Pour le faire, vous pouvez
utiliser un masquage de LUN spcifique une baie.

Prise en charge de la
gestion de chemins
multiples

La gestion de chemins multiples vers un LUN de dmarrage sur des baies actives/passives n'est
pas pris en charge car le BIOS ne prend pas en charge la gestion de chemins multiples et ne peut
pas activer un chemin de veille.

Considrations SAN

Les connexions SAN doivent se faire via une topologie commutateur si la baie n'est pas certifie
pour une topologie connexion directe. Si la baie est certifie pour la topologie connexion
directe, les connexions SAN peuvent tre tablies directement sur la baie. Le dmarrage partir
du SAN est pris en charge pour les deux topologies ( commutateur et connexion directe), si ces
topologies pour la baie spcifique sont certifies.

Considrations
spcifiques au
matriel

Si vous excutez un IBM eServer BladeCenter et que vous utilisez le dmarrage partir du SAN,
vous devez mettre hors tension les lecteurs IDE sur les lames.

Prparation pour le dmarrage partir du SAN


Lorsque vous configurez votre dmarrage partir d'un environnement SAN, vous effectuez diffrentes
tches.
Ce chapitre dcrit le processus d'activation d'un dmarrage gnrique partir du SAN sur des serveurs
monts sur rack. Pour plus d'informations sur l'activation des dmarrages partir du SAN sur des serveurs
lame Cisco Unified Computing System FCoE, reportez-vous la documentation de Cisco.
1

Configurer des composants SAN et un systme de stockage page 57


Lorsque vous paramtrez votre hte ESXi pour qu'il dmarre depuis un LUN SAN, configurez les
composants du SAN et un systme de stockage.

Configurer l'adaptateur de stockage pour un dmarrage partir du SAN page 57


Lorsque vous configurez votre hte pour effectuer un dmarrage partir du SAN, vous devez activer
l'adaptateur de dmarrage dans le BIOS de l'hte. Vous devez ensuite configurer l'adaptateur de
dmarrage afin de lancer une connexion primitive vers le LUN de dmarrage cible.

Configurer votre systme pour effectuer un dmarrage partir du support d'installation page 57
Lorsque vous configurez votre hte pour effectuer un dmarrage partir du SAN, vous devez d'abord
dmarrer l'hte partir du support d'installation de VMware. Pour le faire, vous devez modifier la
squence de dmarrage du systme dans la configuration du BIOS.

56

VMware, Inc.

Chapitre 7 Dmarrage ESXi partir du SAN Fibre Channel

Configurer des composants SAN et un systme de stockage


Lorsque vous paramtrez votre hte ESXi pour qu'il dmarre depuis un LUN SAN, configurez les
composants du SAN et un systme de stockage.
La configuration des composants SAN tant propre au fournisseur, reportez-vous la documentation
produit de chaque lment.
Procdure
1

Connectez les cbles rseau en vous rfrant au guide de cblage correspondant votre configuration.
Vrifiez le cblage du commutateur, le cas chant.

Configurez la baie de stockage.


a

partir de la baie de stockage SAN, rendez l'hte ESXi visible sur le SAN. On appelle
gnralement ce processus, le processus de cration d'un objet.

partir de la baie de stockage SAN, configurez l'hte pour avoir les WWPN des adaptateurs de
l'hte comme noms de port ou noms de nud.

Crez des LUN.

Attribuez des LUN.

Enregistrez les adresses IP des commutateurs et des baies de stockage.

Enregistrez le WWPN de chaque SP.

AVERTISSEMENT Si vous utilisez une installation par script pour installer l'ESXi en mode de dmarrage
partir du SAN, vous devez effectuer quelques tapes spcifiques afin d'viter toute perte accidentelle de
donnes.

Configurer l'adaptateur de stockage pour un dmarrage partir du SAN


Lorsque vous configurez votre hte pour effectuer un dmarrage partir du SAN, vous devez activer
l'adaptateur de dmarrage dans le BIOS de l'hte. Vous devez ensuite configurer l'adaptateur de dmarrage
afin de lancer une connexion primitive vers le LUN de dmarrage cible.
Prrequis
Dterminez le WWPN de l'adaptateur de stockage.
Procdure
u

Configurez l'adaptateur de stockage pour effectuer un dmarrage partir du SAN.


La configuration des adaptateurs de dmarrage tant propre au fournisseur, reportez-vous la
documentation de votre fournisseur.

Configurer votre systme pour effectuer un dmarrage partir du support


d'installation
Lorsque vous configurez votre hte pour effectuer un dmarrage partir du SAN, vous devez d'abord
dmarrer l'hte partir du support d'installation de VMware. Pour le faire, vous devez modifier la squence
de dmarrage du systme dans la configuration du BIOS.
La modification de la squence de dmarrage dans le BIOS tant propre au fournisseur, reportez-vous la
documentation du fournisseur pour plus d'instructions. La procdure suivante explique comment modifier
la squence de dmarrage sur un hte IBM.

VMware, Inc.

57

Stockage vSphere

Procdure
1

Pendant la mise sous tension de votre systme, entrez dans l'utilitaire de configuration du BIOS
systme.

Slectionnez [Options de dmarrage] et appuyez sur Entre.

Slectionnez [Options des squences de dmarrage] et appuyez sur Entre.

Modifiez le [Premier dispositif de dmarrage] en [[CD-ROM]] .

Vous pouvez maintenant installer l'ESXi.

Configurer Emulex HBA pour un dmarrage partir du SAN


La configuration du BIOS HBA Emulex pour dmarrer l'ESX partir du SAN comprend l'activation de
l'invite BootBIOS et du BIOS.
Procdure
1

Activation de l'invite BootBIOS page 58


Lorsque vous configurez le BIOS HBA Emulex pour dmarrer ESXi partir du SAN, vous devez
activer l'invite BootBIOS.

Activation du BIOS page 58


Lorsque vous configurez le BIOS HBA Emulex pour dmarrer ESXi partir du SAN, vous devez
activer le BIOS.

Activation de l'invite BootBIOS


Lorsque vous configurez le BIOS HBA Emulex pour dmarrer ESXi partir du SAN, vous devez activer
l'invite BootBIOS.
Procdure
1

Excutez lputil.

Slectionnez [3. Maintenance du microprogramme] .

Slectionnez un adaptateur.

Slectionnez [6. Maintenance du BIOS du dmarrage] .

Slectionnez [1. Activer BIOS du dmarrage] .

Activation du BIOS
Lorsque vous configurez le BIOS HBA Emulex pour dmarrer ESXi partir du SAN, vous devez activer le
BIOS.
Procdure

58

Redmarrez l'hte.

Pour configurer les paramtres de l'adaptateur, appuyez sur ALT+E l'invite Emulex et suivez les
tapes indiques.
a

Slectionnez un adaptateur (avec prise en charge BIOS).

Slectionnez [2. Configurer les paramtres de cet adaptateur.]

Slectionnez [1. Activer ou mettre hors tension BIOS]

VMware, Inc.

Chapitre 7 Dmarrage ESXi partir du SAN Fibre Channel

Slectionnez [1] pour activer le BIOS.

Slectionnez [x] pour quitter et [Esc] pour revenir au menu prcdent.

Pour configurer le priphrique de dmarrage, suivez les tapes suivantes partir du menu principal
Emulex.
a

Slectionnez la mme carte.

Slectionnez [1. Configurer des priphriques de dmarrage]

Choisir l'emplacement pour l'entre de dmarrage.

Saisissez le priphrique de dmarrage deux chiffres.

Saisissez le LUN de dmarrage deux chiffres (HEX) (par exemple, 08).

Slectionnez le LUN de dmarrage.

Slectionnez [1. WWPN] (Dmarrez ce priphrique avec WWPN, et non DID).

Slectionnez [X] pour quitter et [Y] pour redmarrer.

Dmarrez dans le BIOS systme et dplacez tout d'abord Emulex dans la squence du contrleur de
dmarrage.

Redmarrez et procdez l'installation sur un LUN de rseau SAN.

Configurer QLogic HBA pour un dmarrage partir du SAN


Cette procdure, propose titre d'exemple, explique comment configurer QLogic HBA pour effectuer un
dmarrage ESXi partir du SAN. Cette procdure implique l'activation du BIOS QLogic HBA, du
dmarrage slectionnable et la slection du LUN de dmarrage.
Procdure
1

Tout en dmarrant le serveur, appuyez sur [Ctrl+Q] pour saisir l'utilitaire de configuration Fast!UTIL.

Effectuez l'action approprie selon le nombre de HBA.


Option

Description

Un HBA

Si vous disposez d'un seul adaptateur de bus hte (HBA), la page Options
de Fast!UTIL s'affiche. Passez l'tape 3.

Plusieurs HBA

Si vous disposez de plusieurs HBA, slectionnez manuellement le HBA.


a Sur la page Slection de la carte d'hte, utilisez les touches de flches
pour positionner le curseur sur le HBA appropri.
b Appuyez sur [Entre ] .

Sur la page Options de Fast!UTIL, slectionnez [Paramtres de configuration] et appuyez sur [Entre] .

Sur la page Paramtres de configuration, slectionnez [Paramtres de l'adaptateur] et appuyez sur


[Entre] .

Dfinissez le BIOS pour qu'il recherche les priphriques SCSI.

VMware, Inc.

Sur la page Paramtres de la carte d'hte, slectionnez [BIOS de l'adaptateur hte] .

Appuyez sur [Entre] pour basculer la valeur sur Activ.

Appuyez sur [chap] pour quitter.

59

Stockage vSphere

Activation du dmarrage slectionnable.


a

Slectionnez [Paramtres de dmarrage slectionnable] et appuyez sur [Entre] .

Sur la page Paramtres du dmarrage slectionnable, slectionnez [Dmarrage slectionnable] .

Appuyez sur [Entre] pour basculer la valeur sur [Activ] .

Utilisez les touches des flches de direction pour slectionner l'entre du nom du port de dmarrage
dans la liste des processeurs de stockage (SP) et appuyez sur [Entre] pour afficher l'cran Slection du
priphrique Fibre Channel.

A l'aide des flches de direction, slectionnez le SP choisi et appuyez sur [Entre] .


Si vous utilisez une baie de stockage active/passive, le SP slectionn doit se trouver sur le chemin
(actif) prfr destination de la LUN de dmarrage. Si vous ne savez pas quel SP se trouve sur le
chemin actif, utilisez votre logiciel de gestion de baie de stockage pour le dcouvrir. Les ID cibles sont
cres par le BIOS et peuvent changer chaque redmarrage.

60

Effectuez l'action requise en fonction du nombre de LUN attachs au SP.


Option

Description

Une LUN

La LUN est slectionne en tant que LUN de dmarrage. Vous n'avez pas
besoin d'entrer dans l'cran de slection des LUN.

LUN multiples

L'cran de slection des LUN s'ouvre. Utilisez le curseur pour slectionner


la LUN de dmarrage puis appuyez sur [Entre] .

10

Si des processeurs de stockage apparaissent dans la liste, appuyez sur [C] pour effacer les donnes.

11

Appuyez deux fois sur [Esc] pour quitter et appuyez sur [Entre] pour enregistrer le paramtrage.

VMware, Inc.

Dmarrage ESXi avec le FCoE


logiciel

ESXi prend en charge le dmarrage des adaptateurs rseau compatibles avec FCoE.
Lorsque vous installez et dmarrez ESXi depuis un LUN FCoE, l'hte peut utiliser un adaptateur FCoE
logiciel VMware et un adaptateur rseau dot de capacits FCoE. L'hte n'exige pas un HBA FCoE ddi.
Vous effectuez la plupart des configurations partir de la ROM optionnelle de votre adaptateur rseau. Les
adaptateurs rseau doivent prendre en charge un des formats suivants, qui communiquent les paramtres
relatifs un priphrique de dmarrage VMkernel.
n

Dmarrage FCoE Firmware Table (FBFT). FBFT est une proprit d'Intel.

FCoE Boot Parameter Table (FBPT). FBPT est dfini par VMware pour des permettre des tiers
fournisseurs de mettre en uvre le dmarrage avec le FCoE logiciel.

Les paramtres de configuration sont dfinis dans la ROM optionnelle de votre adaptateur. Pendant une
installation ESXi ou un dmarrage ultrieur, ces paramtres sont exports vers la mmoire systme au
format FBFT ou au format FBPT. Le VMkernel peut lire les paramtres de configuration et les utiliser pour
accder au LUN de dmarrage.
Ce chapitre aborde les rubriques suivantes :
n

Considrations et exigences de dmarrage du FCoE logiciel , page 61

Meilleures pratiques concernant le dmarrage du FCoE logiciel , page 62

Configurer le dmarrage du FCoE logiciel , page 62

Dpannage installation et dmarrage partir du FCoE logiciel , page 64

Considrations et exigences de dmarrage du FCoE logiciel


Lorsque vous dmarrez l'hte ESXi partir du SAN en utilisant un FCoE logiciel, certaines considrations et
exigences sont applicables.

Exigences
n

ESXi 5.1 ou versions ultrieures.

L'adaptateur rseau doit avoir les capacits suivantes :

VMware, Inc.

tre compatible FCoE.

Prendre en charge la pile FCoE ouverte d'ESXi 5.x.

Contenir le microprogramme de dmarrage FCoE pouvant exporter les informations de dmarrage


au format FBFT ou FBPT.

61

Stockage vSphere

Considrations
n

Vous ne pouvez pas modifier la configuration de dmarrage du FCoE logiciel depuis ESXi.

Le coredump n'est pas pris en charge sur les LUN de FCoE logiciel, y compris le LUN de dmarrage.

La gestion multivoie n'est pas prise en charge au pr-dmarrage.

Le LUN de dmarrage ne peut tre partag avec d'autres htes, mme en mode de stockage partag.

Meilleures pratiques concernant le dmarrage du FCoE logiciel


VMware recommande plusieurs meilleures pratiques lorsque vous dmarrez votre systme partir d'un
LUN FCoE.
n

Assurez-vous que l'hte a accs l'intgralit du LUN de dmarrage. Le LUN de dmarrage ne peut
tre partag avec d'autres htes, mme en mode de stockage partag.

Si vous utilisez un contrleur Ethernet Intel 10 Gigabit (Niantec) et un commutateur Cisco, configurez
le port du commutateur de la faon suivante :
n

Activez le protocole d'arborescence de rpartition (STP).

Dsactivez switchport trunk native vlan pour le VLAN utilis pour FCoE.

Configurer le dmarrage du FCoE logiciel


Votre hteESXi peut dmarrer partir d'un LUN FCoE utilisant un adaptateur FCoE logiciel et un
adaptateur rseau.
Lorsque vous configurez votre hte pour le dmarrage d'un FCoE logiciel, vous effectuez un certain nombre
de tches.
Prrequis
L'adaptateur rseau a les capacits suivantes :
n

Prise en charge partielle du dchargement FCoE (FCoE logiciel).

Il contient un FBFT (FCoE Boot Firmware Table) ou un FBPT (FCoE Boot Parameter Table).

Pour de plus amples informations sur les adaptateurs rseau prenant en charge le dmarrage du FCoE
logiciel, consultez le Guide de compatibilit vSphere.
Procdure
1

Configurer les paramtres de dmarrage du FCoE logiciel page 63


Pour prendre en charge le processus de dmarrage d'un FCoE logiciel, un adaptateur rseau de votre
hte doit avoir un microprogramme FCoE de dmarrage spcialement configur. Lorsque vous
configurez le microprogramme, vous activez l'adaptateur pour le dmarrage du FCoE logiciel et
spcifiez les paramtres du LUN de dmarrage.

Installer et dmarrer ESXi ESXi partir d'un LUN FCoE logiciel page 63
Lorsque vous configurez votre systme pour dmarrer partir d'un LUN FCoE logiciel, vous installez
l'image ESXi sur le LUN cible. Vous pouvez ensuite dmarrer votre hte partir de ce LUN.

62

VMware, Inc.

Chapitre 8 Dmarrage ESXi avec le FCoE logiciel

Configurer les paramtres de dmarrage du FCoE logiciel


Pour prendre en charge le processus de dmarrage d'un FCoE logiciel, un adaptateur rseau de votre hte
doit avoir un microprogramme FCoE de dmarrage spcialement configur. Lorsque vous configurez le
microprogramme, vous activez l'adaptateur pour le dmarrage du FCoE logiciel et spcifiez les paramtres
du LUN de dmarrage.
Procdure
u

Dans la ROM optionnelle de l'adaptateur rseau, spcifiez les paramtres de dmarrage du FCoE
logiciel.
Ces paramtres comprennent la cible de dmarrage, le LUN de dmarrage, l'ID VLAN et ainsi de suite.
tant donn que la configuration de la carte rseau est propre au fournisseur, consultez la
documentation correspondante pour obtenir des instructions.

Installer et dmarrer ESXi ESXi partir d'un LUN FCoE logiciel


Lorsque vous configurez votre systme pour dmarrer partir d'un LUN FCoE logiciel, vous installez
l'image ESXi sur le LUN cible. Vous pouvez ensuite dmarrer votre hte partir de ce LUN.
Prrequis
n

Configurez la ROM optionnelle de l'adaptateur rseau de faon le diriger vers un LUN cible que vous
souhaitez utiliser comme LUN de dmarrage. Assurez-vous de possder les informations relatives au
LUN amorable.

Modifiez la squence de dmarrage du BIOS systme pour parvenir la squence suivante :


a

L'adaptateur rseau utilis pour le dmarrage du FCoE logiciel.

Le support d'installation ESXi.

Voir la documentation du fournisseur du systme.


Procdure
1

Lancez une installation interactive depuis le CD/DVD d'installation ESXi.


Le programme d'installationESXi vrifie que FCoE est activ dans le BIOS et, si besoin, cre un
commutateur virtuel standard pour l'adaptateur rseau compatible FCoE. Le nom du commutateur
virtuel est VMware_FCoE_vSwitch. Le programme d'installation utilise alors les paramtres de
dmarrage FCoE prconfigurs pour dcouvrir et afficher tous les LUN FCoE disponibles.

Sur l'cran Slectionner un disqueslectionnez le LUN de FCoE que vous avez spcifi lors du rglage
du paramtre de dmarrage.
Si le LUN de dmarrage n'apparat pas dans ce menu, assurez-vous d'avoir configur correctement les
paramtres de dmarrage dans la ROM optionnelle de l'adaptateur rseau.

Suivez les invites pour terminer l'installation.

Redmarrez l'hte.

Modifiez la squence de dmarrage dans le BIOS systme, de faon ce que le LUN de dmarrage soit
le premier priphrique amorable.
ESXi continue dmarrer partir du LUN de FCoE logiciel jusqu' ce qu'il soit prt tre utilis.

VMware, Inc.

63

Stockage vSphere

Suivant
Si besoin est, vous pouvez renommer et modifier le commutateur virtuel FCoE VMware que le programme
d'installation a automatiquement cr. Assurez-vous que le CDP (Cisco Discovery Protocol) est dfini sur
couter ou Les deux.

Dpannage installation et dmarrage partir du FCoE logiciel


Si l'installation ou le dmarrage d'ESXi partir d'un LUN du FCoE logiciel choue, vous pouvez utiliser
plusieurs mthodes de dpannage.
Problme
Lorsque vous installez ou dmarrez ESXi depuis un stockage FCoE utilisant un adaptateur FCoE logiciel
VMware et un adaptateur rseau dot de capacits de dchargement FCoE partielles, l'installation ou le
dmarrage choue.
Solution
n

Assurez-vous d'avoir configur correctement les paramtres de dmarrage dans la ROM optionnelle de
l'adaptateur rseau FCoE.

Pendant l'installation, surveillez le BIOS et l'adaptateur rseau FCoE pour dtecter toute erreur.

Si possible, vrifiez le journal VMkernel pour y rechercher des erreurs.

Utilisez la commande esxcli pour vrifier si le LUN de dmarrage est prsent.


esxcli conn_options hardware bootdevice list

64

VMware, Inc.

Meilleures pratiques pour le stockage


Fibre Channel

Lorsque vous utilisez ESXi avec un SAN Fibre Channel, suivez les meilleures pratiques que VMware
propose pour viter des problmes de performance.
Client Web vSphere offre de nombreuses fonctionnalits pour collecter des informations sur les
performances. Ces informations sont affiches sous forme graphique et sont rgulirement mises jour.
Vous pouvez utiliser les utilitaires de commande resxtop ou esxtop. Les utilitaires fournissent une vue
dtaille du mode d'utilisation des ressources de ESXi en temps rel. Pour plus d'informations, voir la
documentation Gestion des ressources vSphere.
Consultez votre reprsentant de stockage pour savoir si votre systme de stockage prend en charge les
fonctionnalits d'acclration matrielle API de stockage - Intgration de baie. Le cas chant, consultez la
documentation du fournisseur pour plus d'informations sur le mode d'activation de la prise en charge de
l'acclration matrielle du ct du systme de stockage. Pour plus d'informations, voir Chapitre 24,
Acclration matrielle du stockage , page 257.
Ce chapitre aborde les rubriques suivantes :
n

Prvention des problmes de SAN Fibre Channel , page 65

Dsactiver l'enregistrement automatique d'hte dans Client Web vSphere , page 66

Optimisation des performances du stockage SAN Fibre Channel , page 66

Liste de vrification de la configuration du SAN Fibre Channel , page 68

Prvention des problmes de SAN Fibre Channel


Lorsque vous utilisez ESXi conjointement un SAN Fibre Channel, vous devez suivre des directives
spcifiques afin d'viter des problmes de SAN.
Vous devriez observer ces conseils, afin d'viter des problmes dans votre configuration SAN.
n

Placez une seule banque de donnes VMFS sur chaque LUN.

Ne changez pas la politique de chemin que le systme dfinit, sauf si vous comprenez les implications
de tels changements.

Documentez tout ce que vous faites. Incluez des informations sur le zonage, le contrle d'accs, le
stockage, le commutateur, le serveur et la configuration HBA FC, les versions de logiciel et de
microprogramme, et le plan des cbles de stockage.

Plan en cas de panne :


n

VMware, Inc.

Fates plusieurs copies de vos mappages topologiques. Pour chaque lment, envisagez les
consquences sur votre SAN si cet lment tombe en panne.

65

Stockage vSphere

Rayez chaque lien, commutateurs, HBA et autres lments pour vrifier que vous n'avez omis
aucun point de panne critique dans votre architecture.

Assurez-vous que les HBA Fibre Channel sont installs dans les slots corrects de l'hte, selon la vitesse
du slot et du bus. quilibrez la charge de bus PCI entre les divers bus du serveur.

Familiarisez-vous avec les diffrents points de contrle de votre rseau de stockage, sur tous les points
de visibilit, y compris les graphiques de performance de l'hte, les statistiques des commutateurs FC et
des performances de stockage.

Soyez prudent lorsque vous modifiez les ID des LUN qui prennent en charge des banques de donnes
en cours d'utilisation par votre hte ESXi. Si vous modifiez les ID, la banque de donnes devient
inactive et ses machines virtuelles tombent en panne. Vous pouvez resigner la banque de donnes pour
la ractiver. Reportez-vous la section Administration des banques de donnes VMFS dupliques ,
page 152.
Si aucune machine virtuelle ne se trouve en fonction sur la banque de donnes VMFS, aprs avoir
modifi l'ID du LUN vous devez ranalyser pour rinitialiser l'ID de votre hte. Pour plus
d'informations sur la fonction ranalyse, consultez Oprations d'actualisation et de ranalyse du
stockage , page 131.

Dsactiver l'enregistrement automatique d'hte dans


Client Web vSphere
Lorsque vous utilisez des baies EMC CLARiiON ou Invista pour le stockage, il est ncessaire que les htes
soient enregistrs avec les baies. ESXi effectue un enregistrement d'hte automatique en envoyant le nom de
l'hte et l'adresse IP la baie. Si vous prfrez utiliser le logiciel de gestion de stockage pour effectuer un
enregistrement manuel, dsactivez la fonction d'enregistrement automatique de ESXi.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Paramtres] .

Dans Systme, cliquez sur [Paramtres systme avancs] .

Dans Paramtres systme avancs, slectionnez le paramtre [Disk.EnableNaviReg] et cliquez sur


l'icne Edit.

Modifiez la valeur sur 0.

Cela dsactive l'enregistrement automatique de l'hte activ par dfaut.

Optimisation des performances du stockage SAN Fibre Channel


Plusieurs facteurs contribuent l'optimisation d'un environnement SAN classique.
si l'environnement est correctement configur, les composants de la structure SAN (en particulier les
commutateurs SAN) ne sont que des contributeurs mineurs, cause de leurs latences basses par rapport aux
serveurs et aux baies de stockage. Assurez-vous que les chemins dans le commutateur de la structure ne
sont pas saturs, c'est--dire que le commutateur fonctionne avec le dbit maximal.

Performances des baies de stockage


Les performances des baies de stockage sont l'un des principaux facteurs contribuant aux performances de
la totalit de l'environnement SAN.
En cas de problme de performances des baies de stockage, consultez la documentation de votre fournisseur
de baies de stockage.

66

VMware, Inc.

Chapitre 9 Meilleures pratiques pour le stockage Fibre Channel

Suivez ces directives gnrales pour amliorer la performance de baie dans l'environnement vSphere :
n

Lors de l'attribution des LUN, souvenez-vous que chaque LUN est accessible par plusieurs htes et que
plusieurs machines virtuelles peuvent tre excutes sur chaque hte. Un LUN utilis par un hte peut
servir des E/S provenant d'applications trs varies et excutes sur diffrents systmes d'exploitation.
En raison de ces charges de travail trs varies, le groupe RAID contenant les LUN ESXi ne doit pas
inclure de LUN utiliss par d'autres serveurs qui n'excutent pas d'ESXi.

Vrifiez que le cache de lecture/criture est activ.

Les baies de stockage SAN ncessitent des modifications et des ajustements permanents pour s'assurer
que les charges d'E/S sont quilibrs sur tous les chemins d'accs des baies de stockage. Pour rpondre
cette exigence, rpartissez les chemins d'accs vers les LUN entre tous les SP pour assurer un
quilibrage de charge optimal. Une surveillance attentive permet de savoir lorsqu'il est ncessaire de
rquilibrer la rpartition des LUN.
L'ajustement des baies de stockage quilibres de manire statique implique la surveillance de
statistiques de performance spcifiques (nombre d'oprations d'entre-sortie par seconde, blocs par
seconde et temps de rponse) et la rpartition de la charge de travail des LUN pour rpartir la charge de
travail sur tous les SP.
REMARQUE L'quilibrage de charge dynamique n'est pas pris en charge actuellement avec ESXi.

Performances des serveurs avec Fibre Channel


Vous devez tenir compte de diffrents facteurs pour garantir des performances optimales des serveurs.
Chaque application de serveur doit avoir accs son stockage dsign aux conditions suivantes :
n

Vitesse d'E/S leve (nombre d'oprations d'entre-sortie par seconde)

Rendement lev (mgaoctets par seconde)

Latence minimale (temps de rponse)

Comme chaque application a diffrentes exigences, ces objectifs peuvent tre remplis en choisissant un
groupe RAID appropri sur la baie de stockage. Pour atteindre les objectifs de performance :
n

Placez chaque LUN sur un groupe RAID qui offre les niveaux de performance ncessaires. Faites
attention aux activits et l'utilisation des ressources d'autres LUN dans le groupes RAID associ. Un
groupe RAID haute performance ayant un nombre excessif d'applications effectuant des E/S risque de
ne pas satisfaire aux exigences de performance requises par une application excute sur l'hte ESXi.

Vrifiez que chaque serveur a un nombre suffisant de HBA pour autoriser un dbit maximum pour
toutes les applications hberges sur le serveur pendant la priode de pointe. Les entres/sorties
rparties sur plusieurs HBA prsentent un dbit suprieur et moins de latence pour chaque application.

Pour assurer la redondance en cas de dfaillance HBA, vrifiez que le serveur est connect un double
fabric redondant.

Lors de l'allocation de groupes LUN ou RAID aux systmes ESXi, plusieurs systmes d'exploitation
utilisent et partagent cette ressource. Par consquent, les performances requises de la part de chaque
LUN du sous-systme de stockage peuvent tre nettement suprieures en cas d'utilisation du systme
ESXi qu'avec des machines physiques. Par exemple, si vous pensez exploiter quatre applications
fortes E/S, allouez quatre fois les capacits de performance aux LUN.
ESXi.

En cas d'utilisation de plusieurs systmes ESXi avec vCenter Server, les performances requises pour le
sous-systme de stockage augmentent en consquence.

Le nombre d'E/S en attente requises par applications excutes sur un systme ESXi doit correspondre
au nombre d'E/S pouvant tre traites par HBA et la baie de stockage.

VMware, Inc.

67

Stockage vSphere

Liste de vrification de la configuration du SAN Fibre Channel


Cette rubrique vous fournit une liste de vrification des configurations spciales requises pour l'installation
sur les diffrentes baies de stockage et sur les htes ESXi.
Tableau 91. Configuration d'installation requise de la gestion multivoie
Composant

Commentaires

Toutes les baies de stockage

Le cache en criture doit tre dsactiv s'il n'est pas soutenu par batterie.

Topologie

Une dfaillance unique ne peut en aucun cas entraner le basculement de HBA et de SP,
tout particulirement, avec des baies de stockage actives/passives.

IBM TotalStorage DS 4000


(anciennement FastT)

Le type d'hte doit tre LNXCL or VMware dans les versions les plus rcentes.
AVT (Auto Volume Transfer) est dsactiv dans ce mode d'hte.

Famille HDS 99xx et 95xxV

La famille HDS 9500V (Thunder) ncessite deux modes d'hte :


n

Mode d'hte 1 : Standard.

Mode d'hte 2 : Sun Cluster


La famille HDS 99xx (Lightning) et HDS Tabma (USP) ncessitent la dfinition du mode
d'hte sur Netware.
n

EMC Symmetrix

Activez les paramtres SPC2 et SC3. Contactez EMC pour obtenir les paramtres les plus
rcents.

EMC Clariion

Rglez le mode de basculement de EMC Clariion sur 1 ou 4. Contactez EMC pour les
dtails.

HP MSA

Le type d'hte doit tre sur Linux.


Dfinissez le type de connexion de chaque port HBA sur Linux.

HP EVA

Pour la version 5.031 et suprieure du firmware EVA4000/6000/8000, dfinissez le type


d'hte sur VMware.
Sinon, dfinissez le type de mode de l'hte sur Custom. La valeur est : 000000202200083E.

HP XP

Sur XP128/1024/10000/12000, dfinissez le mode hte sur Windows (0x0C).

Sur XP24000/20000, dfinissez le mode hte sur 0x01.

NetApp

Aucune configuration spcifique requise

Configuration ESXi

n
n
n
n
n

68

Utilisez la PSP la plus rcemment utilise pour tous les LUN hbergeant des disques
en cluster pour les baies actives/passives.
Pour les LUN sur des baies actives/passives, utilisez les PSP les plus rcemment
utilises (Most Recently Used) ou fixes (Fixed).
Avec des baies actives/passives ou actives/actives, utilisez le Round Robin PSP.
Tous les FC HBA doivent tre du mme modle.
Dfinissez les paramtres avancs du logiciel de l'hte : Disk.UseLunReset to 1.

VMware, Inc.

Utilisation d' ESXi avec un SAN iSCSI

10

Vous pouvez utiliser ESXi conjointement un rseau de zone de stockage (SAN), rseau haut-dbit
spcialis qui connecte des systmes informatiques des sous-systmes de stockage hautes performances.
L'utilisation d'ESXi avec un SAN fournit une consolidation de stockage, amliore la fiabilit et facilite la
rcupration sur incident.
Pour utiliser l'ESXi de manire efficace avec un SAN, vous devez avoir une certaine exprience des systmes
ESXi et des concepts SAN. De mme, lorsque vous configurez des htes ESXi pour qu'ils utilisent des
systmes de stockage SAN Internet SCSI (iSCSI), vous devez connatre les considrations spciales
existantes.
Ce chapitre aborde les rubriques suivantes :
n

Concepts SAN iSCSI , page 69

Accs des machines virtuelles aux donnes sur un SAN iSCSI , page 74

Concepts SAN iSCSI


Si vous tes administrateur et envisagez de configurer les htes ESXi pour fonctionner avec des SAN iSCSI,
vous devez avoir une connaissance pratique des concepts iSCSI.
Les SAN iSCSI utilisent des connexions Ethernet entre les systmes informatiques, ou serveurs htes, et les
sous-systmes de stockage hautes performances. Les composants SAN comprennent les adaptateurs de bus
hte (HBA) ou cartes d'interface rseau (NIC) des serveurs htes, les commutateurs et les routeurs qui
acheminent le trafic de stockage, les cbles, les processeurs de stockage (SP) et les systmes de disque de
stockage.
Le SAN iSCSI utilise une architecture client-serveur. Le client, appel initiateur iSCSI, agit sur votre hte. Il
lance des sessions iSCSI en mettant des commandes SCSI et en les transmettant, encapsules dans le
protocole iSCSI, un serveur. Le serveur est connu sous le nom de cible iSCSI. La cible iSCSI reprsente un
systme de stockage physique sur le rseau. Elle peut galement tre fournie par un SAN iSCSI virtuel, par
exemple un mulateur cible iSCSI s'excutant sur une machine virtuelle. La cible iSCSI rpond aux
commandes de l'initiateur en transmettant les donnes iSCSI requises.

Gestion gestion multivoie iSCSI


Lors du transfert de donnes entre le serveur hte et le stockage, le SAN utilise une technique connue sous
le nom de gestion gestion multivoie. La fonction de chemin multiple permet de disposer de plusieurs
chemins physiques depuis un hte ESXi vers une LUN dans un systme de stockage.

VMware, Inc.

69

Stockage vSphere

De manire gnrale, un chemin unique partant d'un hte vers un LUN se compose d'un adaptateur iSCSI
ou NIC, de ports de commutateur, de cbles de connexion et du port de contrleur de stockage. Si un des
composants du chemin subit une dfaillance, l'hte slectionne un autre chemin disponible pour l'E/S. Le
processus de dtection d'un chemin dfaillant et de changement vers un autre chemin est connu sous le nom
de basculement de chemin.
Pour plus d'informations sur la gestion gestion multivoie, consultez Chapitre 23, Prsentation de la gestion
gestion multivoie et du basculement , page 235.

Ports dans le SAN iSCSI


Une entit simple dtectable sur le SAN iSCSI, telle qu'un initiateur ou une cible, reprsente un nud iSCSI.
Chaque nud possde un ou plusieurs ports qui le connectent au SAN.
Les ports iSCSI sont les points limites d'une session iSCSI. Chaque nud peut tre identifi de plusieurs
manires.
Adresse IP

Chaque nud iSCSI peut tre associ une adresse IP de sorte que le
matriel d'acheminement et de commutation du rseau puisse tablir la
connexion entre le serveur et le stockage. Cette adresse est en fait similaire
l'adresse IP que vous attribuez votre ordinateur pour bnficier de l'accs
au rseau de votre entreprise ou Internet.

nom iSCSI

Nom unique international permettant d'identifier le nud. iSCSI utilise les


formats IQN (iSCSI Qualified Name) et EUI (Extended Unique Identifier).
Par dfaut, ESXi gnre des noms iSCSI uniques pour vos initiateurs iSCSI,
par exemple, iqn.1998-01.com.vmware:iscsitestox-68158ef2. Il n'est
gnralement pas ncessaire de modifier la valeur par dfaut, mais si vous la
modifiez, veillez ce que le nouveau nom iSCSI que vous saisissez soit
unique mondialement.

Alias iSCSI

Nom plus parlant pour un priphrique ou port iSCSI utilis la place du


nom iSCSI. Les alias iSCSI, qui ne sont pas uniques, sont destins n'tre
qu'un surnom associer un port.

Conventions de dnomination iSCSI


iSCSI utilise un nom unique spcial pour identifier un nud iSCSI, cible ou initiateur. Ce nom est similaire
au WorldWide Name (WWN) associ aux priphriques Fibre Channel et est utilis pour identifier de
manire universelle le nud.
Les noms iSCSI sont formates de deux manires diffrentes. Le format le plus courant est le format IQN.
Pour plus d'informations sur les exigences de dnomination iSCSI et les profils de chane, reportez-vous aux
sections RFC 3721 et RFC 3722 sur le site Web IETF.

Format IQN (iSCSI Qualified Name)


Le format IQN se prsente sous la forme iqn.yyyy-mm.naming-authority:unique name, o :

70

yyyy-mm reprsente l'anne et le mois o l'autorit de dnomination a t tablie.

naming-authority reprsente la syntaxe habituellement inverse du nom de domaine Internet de l'autorit


de dnomination. Par exemple, l'autorit de dnomination iscsi.vmware.com pourrait porter le nom
qualifi iSCSI sous la forme iqn.1998-01.com.vmware.iscsi. Ce nom indique que le nom de domaine
vmware.com a t inscrit en janvier 1998, et que iscsi est un sous-domaine, dirig par vmware.com.

VMware, Inc.

Chapitre 10 Utilisation d' ESXi avec un SAN iSCSI

unique name reprsente n'importe quel nom votre guise, par exemple le nom de votre hte. L'autorit
de dnomination doit s'assurer que tous les ventuels noms attribus aprs les deux-points sont
uniques, comme :
n

iqn.1998-01.com.vmware.iscsi:name1

iqn.1998-01.com.vmware.iscsi:name2

iqn.1998-01.com.vmware.iscsi:name999

Format EUI (Enterprise Unique Identifier)


Le format EUI se prsente sous la forme eui.16 hex digits.
Par exemple, eui.0123456789ABCDEF.
Les 16 chiffres hexadcimaux sont des reprsentations de texte d'un nombre 64 bits au format EUI (extended
unique identifier) de l'IEEE. Les 24 premiers bits reprsentent l'identifiant d'une socit que l'IEEE enregistre
avec une socit spcifique. Les 40 derniers bits sont attribus par l'entit possdant l'identifiant de cette
socit et doivent tre uniques.

Initiateurs iSCSI
Pour accder aux cibles iSCSI, votre hte utilise des initiateurs iSCSI. Les initiateurs transportent les
requtes et rponses SCSI, encapsules dans le protocole iSCSI, entre l'hte et la cible iSCSI.
L'hte prend en charge diffrents types d'initiateurs.
Pour plus d'informations sur la configuration et l'utilisation des adaptateurs iSCSI, consultez Chapitre 11,
Configuration des adaptateurs iSCSI et du stockage , page 77.

Adaptateur de logiciel iSCSI


Un adaptateur de logiciel iSCSI est un code vMware intgr au VMKernel. Il permet un hte de se
connecter au priphrique de stockage iSCSI par des adaptateurs rseau standard. L'adaptateur de logiciel
iSCSI gre le traitement iSCSI tout en communiquant avec l'adaptateur rseau. Avec l'adaptateur de logiciel
iSCSI, vous pouvez employer la technologie iSCSI sans acheter de matriel spcialis.

Adaptateur de matriel iSCSI


Un adaptateur de matriel iSCSI est un adaptateur tiers qui dchargre le tratement iSCSI et le rseau de
votre hte. Les adaptateurs matriels iSCSI se divisent en plusieurs catgories.
Adaptateur de matriel
iSCSI dpendant

Dpend du rseau VMware et des interfaces de configuration et de gestion


iSCSI fournies par VMware.
Ce type d'adaptateur peut tre un adapteur rseau standard disposant de la
fonction de dchargement iSCSI pour le mme port. La fonction de
dchargement iSCSI dpend de la configuration du rseau pour obtenir les
paramtres IP, MAC et d'autres paramtres utiliss pour les sessions iSCSI.
La carte rseau Broadcom 5709 sous licence iSCSI est un exemple
d'adaptateur dpendant.

Adaptateur de matriel
iSCSI indpendant

VMware, Inc.

Implemente ses propres protocoles rseau et ses propres interfaces de


configuration et de gestion iSCSI.

71

Stockage vSphere

Une carte disposant uniquement de la fonction de dchargement iSCSI ou de


la fonction de dchargement iSCSI et NIC standard est un exemple
d'adaptateur iSCSI matriel indpendant. La fonction de dchargement iSCSI
dispose d'une fonction de gestion indpendante de la configuration, qui
assigne les paramtres IP, MAC et d'autres paramtres pour les sessions
iSCSI. L'adaptateur QLogic QLA4052 est un exemple d'adaptateur
indpendant.
Les adaptateurs de matriel iSCSI doivent avoir une licence. Sinon, ils n'apparatront pas dans le client ou
vSphere CLI. Contactez votre vendeur pour avoir des renseignements sur la licence.

tablissement des connexions iSCSI


Dans un contexte ESXi, le terme cible identifie une unit de stockage unique accessible par l'hte. Les termes
priphrique de stockage et LUN dcrivent un volume logique reprsentant l'espace de stockage sur une
cible. En gnral, les termes priphrique et LUN, dans un contexte ESXi signifient qu'un volume SCSI est
prsent l'hte depuis une unit de stockage cible et disponible pour un formatage.
Les diffrents fournisseurs de stockage iSCSI prsentent le stockage vers des serveurs de diffrentes
manires. Certains fournisseurs prsentent plusieurs LUN sur une seule cible, alors que d'autres prsentent
plusieurs cibles avec un LUN chacune. Mme si la manire dont le stockage est utilis par l'ESXi est
similaire, la manire dont les informations sont prsentes via les Outils d'administration est diffrente.
Figure 101. Reprsentations LUN / Cible
cible
LUN

LUN

baie de stockage

LUN

cible

cible

cible

LUN

LUN

LUN

baie de stockage

Trois LUN sont disponibles dans chacune de ces configurations. Dans le premier cas, l'hte dtecte une
cible, mais cette cible possde trois LUN utilisables. Chaque LUN reprsente un volume de stockage
individuel. Dans le second cas, l'hte dtecte trois cibles diffrentes, chacune possdant un LUN.
Les initiateurs iSCSI bass sur l'hte tablissent des connexions sur chaque cible. Les systmes de stockage
avec une cible unique contenant plusieurs LUN prsentent un trafic vers tous les LUN sur une seule
connexion. Avec un systme possdant trois cibles avec un LUN chacune, un hte utilise des connexions
distinctes vers les trois LUN. Ces informations s'avrent utiles lors du regroupement de trafic de stockage
sur plusieurs connexions partir de l'hte avec plusieurs HBA iSCSI, o le trafic d'une cible peut tre dfini
sur un HBA spcifique, alors que le trafic d'une autre cible peut utiliser un autre HBA.

72

VMware, Inc.

Chapitre 10 Utilisation d' ESXi avec un SAN iSCSI

Types de systmes de stockage iSCSI


ESXi prend en charge diffrents systmes de stockage et de baies.
Votre hte prend en charge les types de stockage suivants : actif-actif, actif-passif et conforme ALUA.
Systme de stockage
actif-actif

Permet d'accder simultanment aux LUN par tous les ports de stockage qui
sont disponibles sans dgradation importante des performances. Tous les
chemins sont actifs tout moment sauf en cas de dfaillance d'un chemin.

Systme de stockage
actif-passif

Un systme dans lequel un processeur de stockage fournit l'accs un LUN


donn. Les autres processeurs sont utiliss en tant que sauvegarde pour le
LUN et peuvent fournir l'accs d'autres E/S de LUN. L'E/S peut
uniquement tre envoye avec succs vers un port actif pour un LUN
spcifique. Si l'accs via le port de stockage actif choue, un des processeurs
de stockage passifs peut tre activ par les serveurs qui y accdent.

Systme de stockage
asymtrique

Prend en charge Asymmetric Logical Unit Access (ALUA). Les systmes de


stockage ALUA offrent des niveaux diffrents d'accs par port. ALUA
permet aux htes de dterminer les tats des ports cibles et classer par
priorit les chemins. L'hte utilise certains des chemins actifs comme tant
principaux alors que d'autres sont secondaires.

Systme de stockage de
ports virtuels

Autorise l'accs tous les LUN disponibles via un port virtuel unique. Il
s'agit de priphriques de stockage actifs-actifs qui cachent leurs nombreuses
connexions via un seul port. La gestion gestion multivoie ESXi ne permet pas
d'tablir de multiples connexions depuis un port spcifique vers le stockage
par dfaut. Certains fournisseurs de stockage fournissent des gestionnaires
de sessions pour tablir et grer de multiples connexions vers leur stockage.
Ces systmes de stockage traitent le basculement des ports et l'quilibrage
des connexions de manire transparente. Le terme souvent utilis pour
dcrire que ceci est le basculement transparent.

Dcouverte, authentification et contrle d'accs


Vous pouvez utiliser plusieurs mthodes pour dcouvrir votre stockage et y limiter l'accs.
Vous devez configurer votre hte et le systme de stockage iSCSI pour qu'il prenne en charge votre
politique de contrle d'accs au stockage.

Dcouverte
Une session de dcouverte fait partie du protocole iSCSI et renvoie l'ensemble des cibles auxquelles vous
pouvez accder sur un systme de stockage iSCSI. Les deux types de dcouverte disponibles sur ESXi sont
les dcouvertes dynamique et statique. La dcouverte dynamique renvoie une liste des cibles accessibles
partir du systme de stockage iSCSI, alors que la dcouverte statique peut uniquement tenter d'accder
une cible spcifique par nom et adresse de la cible.
Pour plus d'informations, voir Configuration des adresses de dcouverte des adaptateurs iSCSI ,
page 94.

Authentification
Les systmes de stockage iSCSI authentifient un initiateur par un nom et une paire de cls. ESXi prend en
charge le protocole CHAP, que VMware recommande pour la mise en uvre de votre SAN. Pour utiliser
l'authentification CHAP, l'hte ESXi et le systme de stockage iSCSI doivent avoir la fonction CHAP active
et disposer d'informations d'identification communes.

VMware, Inc.

73

Stockage vSphere

Pour plus d'informations sur l'activation du CHAP, consultez Configurer des paramtres CHAP pour des
adaptateurs iSCSI , page 96.

Contrle d'accs
Le contrle d'accs est une rgle configure sur le systme de stockage iSCSI. La plupart des mises en uvre
prennent en charge un ou plusieurs des trois types de contrle d'accs :
n

Par nom d'initiateur

Par adresse IP

Par protocole CHAP

Seuls les initiateurs qui respectent toutes les rgles peuvent accder au volume iSCSI.
L'utilisation exclusive du CHAP pour le contrle d'accs peut ralentir les ranalyses parce que l'hte ESXi
peut dcouvrir toutes les cibles, mais choue ensuite l'tape d'authentification. Les ranalyses iSCSI sont
plus rapides si l'hte ne dtecte que les cibles qu'il peut authentifier.

Correction des erreurs


Pour protger l'intgrit des en-ttes et des donnes iSCSI, le protocole iSCSI dfinit des mthodes de
correction des erreurs, plus connues sous le nom de rsums d'en-tte et de rsums de donnes.
Ces deux paramtres sont dsactivs par dfaut, mais vous pouvez les activer. Ces rsums appartiennent
respectivement l'en-tte et aux donnes SCSI transfrs entre les initiateurs iSCSI et les cibles, dans les
deux sens.
Les rsums d'en-tte et de donnes vrifient l'intgrit des donnes non cryptographiques compltes en
plus des contrles de sant effectus par d'autres couches du rseau, telles que TCP et Ethernet. Ils vrifient
le chemin de communication complet, y compris tous les lments susceptibles de modifier le trafic au
niveau du rseau, tels que les routeurs, les commutateurs et les proxys.
L'existence et le type des rsums sont ngocis lorsqu'une connexion iSCSI est tablie. Lorsque l'initiateur
et la cible s'accordent sur une configuration de rsum, celui-ci doit tre utilis pour l'ensemble du trafic
entre eux.
L'activation des rsums d'en-tte et de donnes ncessite un traitement supplmentaire la fois pour
l'initiateur et la cible et peut affecter le dbit et les performances d'utilisation du CPU.
REMARQUE Les systmes qui utilisent des processeurs Intel Nehalem dlestent les calculs de rsum iSCSI,
en rduisant ainsi l'incidence sur les performances.
Pour plus d'informations sur l'activation des rsums d'en-tte et de donnes, consultez Configuration des
paramtres avancs iSCSI , page 99.

Accs des machines virtuelles aux donnes sur un SAN iSCSI


ESXi stocke les fichiers disque d'une machine virtuelle dans une banque de donnes VMFS se trouvant sur
un priphrique de stockage du SAN. Lorsque les systmes d'exploitation invits de la machine virtuelle
envoient des commandes SCSI leurs disques virtuels, la couche de virtualisation SCSI traduit ces
commandes en oprations de fichier VMFS.
Lorsqu'une machine virtuelle interagit avec son disque virtuel stock sur un SAN, le processus suivant a
lieu :

74

Lorsque le systme d'exploitation invit sur une machine virtuelle lit ou crit sur le disque SCSI, il
envoie des commandes SCSI au disque virtuel.

Les pilotes de priphriques dans le systme d'exploitation de la machine virtuelle communiquent avec
les contrleurs SCSI virtuels.

VMware, Inc.

Chapitre 10 Utilisation d' ESXi avec un SAN iSCSI

Le contrleur SCSI virtuel transmet la commande au VMkernel.

Le VMkernel effectue les tches suivantes :

VMware, Inc.

Recherche dans le volume VMFS, le fichier qui correspond au disque de la machine virtuelle
invite.

Mappage des requtes de blocs sur le disque virtuel sur les blocs sur le priphrique physique
appropri.

Envoi de la demande d'E/S modifie partir du pilote du priphrique du VMkernel vers


l'initiateur iSCSI (matriel ou logiciel).

Si l'initiateur iSCSI est un adaptateur iSCSI matriel (indpendant ou dpendant), l'adaptateur effectue
les tches suivantes :
a

Encapsulation des demandes d'E/S dans les units de donnes de protocole (PDU) iSCSI.

Encapsulation des PDU iSCSI dans les paquets TCP/IP.

Envoi des paquets IP via Ethernet au systme de stockage iSCSI.

Si l'initiateur iSCSI est un adaptateur iSCSI logiciel, les actions suivantes ont lieu :
a

L'initiateur iSCSI encapsule les demandes d'E/S dans les PDU iSCSI.

L'initiateur envoie les PDU iSCSI via des connexions TCP/IP.

La pile TCP/IP VMkernel relaie les paquets TCP/IP vers un adaptateur rseau (NIC) physique.

La carte rseau (NIC) physique envoie les paquets IP via Ethernet au systme de stockage iSCSI.

Selon le port utilis par l'initiateur iSCSI pour se connecter au rseau, les commutateurs et les routeurs
Ethernet achemine la demande jusqu'au priphrique de stockage auquel l'hte souhaite accder.

75

Stockage vSphere

76

VMware, Inc.

Configuration des adaptateurs iSCSI


et du stockage

11

ESXi ne pourra pas fonctionner avec un SAN tant que vous n'aurez pas configur vos adaptateurs iSCSI et
votre stockage.
Pour le faire, vous devez d'abord remplir certaines conditions pralables basiques, puis suivre les directives
de meilleures pratiques pour l'installation et la configuration des adaptateurs iSCSI matriels ou logiciels
pour accder au SAN.
Le tableau suivant indique les adaptateurs iSCSI (vmhbas) que ESXi prend en charge et indique si la
configuration rseau VMkernel est requise.
Tableau 111. Adaptateurs iSCSI pris en charge
Adaptateur iSCSI (vmhba)

Description

Mise en rseau VMkernel

Logiciel

Utilise des cartes NICs standards


pour connecter votre hte une cible
iSCSI distante sur le rseau IP. .

Requis

Matriel indpendant

Adaptateur tiers qui dcharge la


gestion de rseau et iSCSI de votre
hte.

Non requis

Matriel dpendant

Adaptateur tiers qui dpend de la


mise en rseau VMware, de la
configuration iSCSI et des interfaces
de gestion.

Requis

Aprs avoir configur les adaptateurs iSCSI, vous pouvez crer une banque de donnes sur le stockage
iSCSI. Pour plus de dtails sur la faon de crer et de grer les banques de donnes, consultez Cration de
banques de donnes , page 150.
Ce chapitre aborde les rubriques suivantes :
n

Conditions du SAN ESXi iSCSI , page 78

ESXi iSCSI , page 78

Dfinition des allocations de LUN pour iSCSI , page 78

Configuration de rseau et authentification , page 79

Configurer des adaptateurs de matriel iSCSI dpendants , page 79

Configuration des adaptateurs de matriel iSCSI dpendants , page 81

Configuration de l'adaptateur iSCSI logiciel , page 83

Modifier les proprits gnrales des adaptateurs iSCSI , page 84

Paramtrage du rseau iSCSI , page 85

VMware, Inc.

77

Stockage vSphere

Utilisation des trames Jumbo avec iSCSI , page 93

Configuration des adresses de dcouverte des adaptateurs iSCSI , page 94

Configurer des paramtres CHAP pour des adaptateurs iSCSI , page 96

Configuration des paramtres avancs iSCSI , page 99

Gestion des sessions iSCSI , page 101

Conditions du SAN ESXi iSCSI


Vous devez remplir plusieurs conditions ncessaires pour que votre hte ESXi fonctionne correctement avec
un SAN.
n

Vrifiez que les combinaisons de microprogramme et matriel de stockage SAN que vous utilisez sont
prises en charge avec les systmes ESXi. Pour obtenir une liste de mises jour, consultez le Guide Guide
de compatibilit vSphere.

Configurez votre systme de faon n'avoir qu'une seule banque de donnes pour chaque LUN.

Sauf si vous utilisez des serveurs sans disques, crez une partition de diagnostic sur un stockage local.
En cas d'utilisation de serveurs sans disque qui dmarrent partir d'un SAN iSCSI, consultez
Recommandations gnrales de dmarrage partir du SAN iSCSI , page 111 pour plus
d'informations sur les partitions de diagnostic avec iSCSI.

Utilisez les RDM pour accder tout disque brut. Pour plus d'informations, consultez Chapitre 17,
Mappage de priphrique brut , page 167.

Dfinissez le pilote de contrleur SCSI dans le systme d'exploitation client sur une file suffisamment
grande. Pour plus d'informations sur le changement de la profondeur de la file d'attente pour les
adaptateurs iSCSI et les machines virtuelles, consultez Dpannage vSphere.

Sur les machines virtuelles sous Microsoft Windows, augmentez la valeur du paramtre SCSI
TimeoutValue pour permettre Windows de mieux tolrer les dlais d'E/S dus un basculement de
chemin. Pour plus d'informations, consultez Dfinir le dlai d'expiration du SE invit Windows ,
page 239.

ESXi iSCSI
Plusieurs restrictions existent lorsque vous utilisez ESXi avec un SAN iSCSI.
n

ESXi ne prend en charge pas les priphriques bande connects par iSCSI.

Vous ne pouvez pas utiliser le logiciel multi-chemins de machine virtuelle pour raliser un quilibrage
E/S vers une LUN matrielle unique.

ESXi ne prend pas en charge la gestion de chemins multiples lorsque vous combinez des adaptateurs
matriels indpendants des adaptateurs logiciels ou matriels dpendants.

ESXi ne prend pas en charge IPv6 avec l'iSCSI logiciel et l'iSCSI matriel dpendant.

Dfinition des allocations de LUN pour iSCSI


Lorsque vous prparez votre systme ESXi afin d'utiliser un stockage SAN en iSCSI, vous devez configurer
les allocations de LUN.
Notez les points suivants :
n

78

Provisionnement de stockage. Afin de garantir que l'hte reconnaisse bien les LUN au dmarrage,
configurez toutes les cibles de stockage iSCSI de faon ce que votre hte puisse y accder et les
exploiter. De mme, configurez votre hte de faon ce qu'il puisse dcouvrir toutes les cibles iSCSI.

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

vMotion et VMware DRS. Lorsque vous utilisez vCenter Server et vMotion ou DRS, veillez ce que les
LUN des machines virtuelles soient provisionns pour tous les htes. Cette configuration vous apporte
la plus grande libert dans le dplacement des machines virtuelles.

Baies actives/actives ou baies actives/passives. Lorsque vous utilisez vMotion ou DRS avec un matriel
de stockage SAN actif-passif, vrifiez bien que dans tous les htes, les chemins vers tous les processeurs
de stockage soient cohrents. Sans cette vrification, une migration vMotion peut provoquer un
crasement de chemin.
Pour les baies de stockage actives/passives non numres dans Compatibilit de stockage/SAN,
VMware ne prend pas en charge le basculement des ports de stockage. Vous devez connecter le serveur
au port actif sur le systme de stockage. Cette configuration garantit que les LUN sont prsents
l'hte.

Configuration de rseau et authentification


Pour que ESXi puisse dtecter le stockage iSCSI, les initiateurs iSCSI doivent tre configurs et la
configuration d'une authentification peut s'avrer ncessaire.
n

Pour les logiciels iSCSI et le matriel dpendant iSCSI, le rseau du VMkernel doit tre configur. Vous
pouvez vrifier la configuration rseau grce l'utilitaire vmkping.
AVERTISSEMENT Assurez-vous que les adaptateurs rseau physiques que vous utilisez pour des iSCSI
logiciels ou matriels dpendants sont sur le mme sous-rseau que votre cible iSCSI. Dans le cas
contraire, votre hte ne peut tablir des sessions de cet adaptateur rseau vers la cible.

Pour le iSCSI du matriel indpendant, les paramtres rseau tels l'adresse IP, le masque de sous-rseau
et la passerelle par dfaut doivent tre configurs sur le HBA.

Vrifiez et changez le nom de l'initiateur par dfaut si ncessaire.

L'adresse de dcouverte dynamique ou l'adresse de dcouverte statique et le nom de la cible du


systme de stockage doivent tre configurs. Pour le logiciel iSCSI et le matriel iSCSI dpendant, l'
adresse doit tre accessible par un ping en utilisant vmkping.

Pour l'autentification CHAP, activez la sur l'initiateur et du ct du systme de stockage. Une fois
l'autentification active, elle s'appliquera toutes les cibles non encore dcouvertes, mais pas aux
adresses dj contactes. Aprs la dfinition de l'adresse de dcouverte, les nouvelles cibles dcouvertes
sont exposes et peuvent dsormais tre utilises.

Pour en savoir plus sur la commande vmkping, cherchez dans la Base de connaissances VMware.

Configurer des adaptateurs de matriel iSCSI dpendants


Un adaptateur iSCSI matriel indpendant est un adaptateur tiers spcialis capable d'accder au stockage
iSCSI via TCP/IP. Cet adaptateur iSCSI traite tout le traitement et toute la gestion iSCSI et rseau du systme
ESXi.
La procdure complte d'installation et de configuration des adaptateurs de matriel iSCSI dpendants
comprend les tapes suivantes :
1

Vrifiez si l'adaptateur doit faire l'objet d'une licence.


Consultez la documentation du fabricant.

Installez l'adaptateur.
Pour plus d'informations sur l'installation et les mises jour du microprogramme, voir la
documentation du fabricant.

VMware, Inc.

Assurez-vous que l'adaptateur est correctement install.

79

Stockage vSphere

Reportez-vous la section Afficher les adaptateurs iSCSI matriels indpendants dans


vSphere Web Client , page 80.
4

Configurer les informations de dcouverte.


Reportez-vous la section Configuration des adresses de dcouverte des adaptateurs iSCSI ,
page 94.

(Facultatif) Configurez les paramtres CHAP.


Reportez-vous la section Configurer des paramtres CHAP pour des adaptateurs iSCSI , page 96.

(Facultatif) Activer les trames Jumbo.


Reportez-vous Utilisation des trames Jumbo avec iSCSI , page 93.

Afficher les adaptateurs iSCSI matriels indpendants dans


vSphere Web Client
Affichez un adaptateur iSCSI matriel indpendant pour vrifier qu'il est correctement install et prt pour
la configuration.
Aprs que vous avez install un adaptateur iSCSI matriel indpendant sur un hte, celui-ci apparat dans la
liste des adaptateurs de stockage disponibles pour la configuration. Vous pouvez consulter ses proprits.
Prrequis
Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] .


S'il est install, l'adaptateur iSCSI matriel apparat dans la liste des adaptateurs de stockage.

Slectionnez l'adaptateur afficher.


Les informations par dfaut de l'adaptateur apparaissent, y compris le modle, le nom iSCSI, l'alias
iSCSI, l'adresse IP, ainsi que les informations de cible et de chemin.

Changer l'adresse IP et les paramtres DNS dans Client Web vSphere


Aprs avoir install un adaptateur iSCSI matriel indpendant, vous pourrez avoir besoin de modifier ses
paramtres IP par dfaut, de faon ce que l'adaptateur soit configur correctement pour le rseau de
stockage IP.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] , puis slectionnez l'adaptateur (vmhba#) configurer.

Dans Dtails de l'adaptateur, cliquez sur l'onglet [Proprits] et cliquez sur [Modifier] dans le panneau
de configuration DNS et adresses IP.

Changez les paramtres IP par dfaut.


Collaborez avec votre administrateur rseau pour dterminer le paramtrage IP appropri pour
l'adaptateur.

80

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Configuration des adaptateurs de matriel iSCSI dpendants


Un adaptateur iSCSI matriel dpendant est un adaptateur tiers qui dpend du rseau VMware et des
interfaces de configuration et de gestion iSCSI fournies par VMware.
La carte rseau Broadcom 5709 est un exemple d'adaptateur iSCSI dpendant. Lors de l'installation sur un
hte, elle prsente ses deux composants, un adaptateur rseau standard et un moteur iSCSI, au mme port.
Le moteur iSCSI apparat sur la liste d'adaptateurs de stockage en tant qu'adaptateur iSCSI (vmhba). Bien
que l'adaptateur iSCSI soit activ par dfaut, vous devez d'abord, pour le rendre fonctionnel, le connecter
par un adaptateur virtuel VMkernel (vmk) un adaptateur rseau physique (vmnic) qui lui est associ.
Vous pouvez alors configurer l'adaptateur iSCSI.
Aprs avoir configur les adaptateurs de matriel iSCSI dpendants, les donnes de dtection et
d'authentification sont transmises par la connexion rseau, alors que le trafic iSCSI passe par le moteur
iSCSI, contournant le rseau.
La procdure complte d'installation et de configuration des adaptateurs iSCSI matriel dpendant
comprend les tapes suivantes :
1

Affichez les adaptateurs matriels dpendants.


Reportez-vous la section Afficher les adaptateurs iSCSI matriels dpendants dansClient Web
vSphere , page 82.
Si vos adaptateurs matriels dpendants n'apparaissent pas dans la liste des adaptateurs de stockage,
vrifiez s'ils ncessitent une licence. Consultez la documentation du fabricant.

Dterminez l'association entre les adaptateurs matriels dpendants et les cartes rseau physiques.
Reportez-vous la section Dterminer l'association entre les adaptateurs iSCSI et les adaptateurs
rseau dansClient Web vSphere , page 82.
Notez bien les noms des cartes rseau physiques correspondants. Par exemple, l'adaptateur vmhba33
correspond au vmnic1 tandis que vmhba34 correspond au vmnic2.

Configurez la mise en rseau pour iSCSI.


Reportez-vous la section Paramtrage du rseau iSCSI , page 85.
La configuration du rseau implique de crer une interface VMkernel pour chaque adaptateur rseau
physique et d'associer l'interface un adaptateur iSCSI appropri.

(Facultatif) Activer les trames Jumbo.


Reportez-vous Utilisation des trames Jumbo avec iSCSI , page 93.

Configurer les informations de dcouverte.


Reportez-vous la section Configuration des adresses de dcouverte des adaptateurs iSCSI ,
page 94.

(Facultatif) Configurez les paramtres CHAP.


Reportez-vous la section Configurer des paramtres CHAP pour des adaptateurs iSCSI , page 96.

Considrations sur l'iSCSI matriel dpendant


Lorsque vous utilisez des adaptateurs de matriel iSCSI dpendants avec ESXi, certaines considrations
s'appliquent.
n

Lorsque vous utilisez un adaptateur iSCSI matriel dpendant, le rapport de performances pour une
carte rseau associe l'adaptateur ne montre que peu ou pas d'activit, mme lorsque le trafic iSCSI est
intense. Cela est d au contournement de la pile rseau habituelle par le trafic iSCSI.

VMware, Inc.

81

Stockage vSphere

Si vous utilisez un commutateur virtuel tiers tel que Cisco Nexus 1000V DVS, dsactivez l'accrochage
automatique. Utilisez l'accrochage manuel la place, en veillant connecter un adaptateur VMkernel
(vmk) une carte NIC physique adquate (vmnic). Pour plus d'informations, consultez la
documentation du fournisseur de commutateurs virtuels.

L'adaptateur iSCSI Broadcom rassemble les donnes dans le matriel, dont l'espace tampon est limit.
Lorsque vous utilisez l'adaptateur iSCSI Broadcom dans un rseau congestionn ou sous une lourde
charge, activez le contrle de flux pour viter la dgradation des performances.
Le contrle de flux gre la vitesse de transmission des donnes entre deux nuds pour viter qu'un
expditeur rapide ne dpasse un rcepteur lent. Pour obtenir de meilleurs rsultats, activez le contrle
du flux aux points d'extrmit du chemin E/S, au niveau des htes et des systmes de stockage iSCSI.
Pour activer le contrle de flux pour l'hte, utilisez la commandeesxcli system module parameters.
Pour plus d'informations, consultez l'article de la base de connaissances VMware l'adresse
http://kb.vmware.com/kb/1013413

Les adaptateurs iSCSI Broadcom ne prennent pas en charge IPv6.

Afficher les adaptateurs iSCSI matriels dpendants dans Client Web vSphere
Affichez un adaptateur iSCSI matriel dpendant pour vrifier qu'il est correctement charg.
S'il est install, l'adaptateur iSCSI matriel dpendant (vmhba#) figure dans la liste des adaptateurs de
stockage sous, par exemple, la catgorie Adaptateur iSCSI Broadcom. Si l'adaptateur matriel dpendant ne
figure pas dans la liste des adaptateurs de stockage, vrifiez s'il a besoin d'une licence. Consultez la
documentation du fabricant.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] .

Slectionnez l'adaptateur (vmhba#) afficher.


Les dtails par dfaut de l'adaptateur apparaissent, y compris le nom iSCSI, l'alias iSCSI et l'tat.

Suivant
Bien que l'adaptateur iSCSI dpendant soit activ par dfaut, pour le rendre fonctionnel, vous devez
configurer les communications rseau pour le trafic iSCSI et lier l'adapateur un port iSCSI VMkernel
appropri. Dfinissez ensuite les adresses de dcouverte et les paramtres CHAP.

Dterminer l'association entre les adaptateurs iSCSI et les adaptateurs rseau


dans Client Web vSphere
Vous pouvez crer des connexions rseau pour lier des adaptateurs iSCSI dpendants et des adaptateurs
rseau physiques. Pour pouvoir crer des connexions correctement, vous devez dterminer le nom de la
carte rseau physique avec laquelle l'adaptateur iSCSI matriel dpendant est associ.
Prrequis
DansClient Web vSphere, accdez l'adaptateur iSCSI matriel dpendant (vmhba#). Reportez-vous
Afficher les adaptateurs iSCSI matriels dpendants dansClient Web vSphere , page 82.
Procdure
1

82

Slectionnez l'adaptateur iSCSI (vmhba#) et cliquez sur l'onglet [Liaison de port rseau] sous Dtails
adaptateur.

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Cliquez sur [Add] .


L'adaptateur rseau (vmnic#) qui correspond l'adaptateur iSCSI dpendant est rpertori dans la
colonne Adaptateurs rseau physiques.

Suivant
Si la colonne Adaptateur VMkernel est vide, crez un adaptateur VMkernel (vmk#) pour l'adaptateur rseau
physique (vmnic#) puis reliez-les au matriel iSCSI dpendant associ. Reportez-vous Paramtrage du
rseau iSCSI , page 85.

Configuration de l'adaptateur iSCSI logiciel


Avec l'implmentation iSCSI logiciel, vous pouvez utiliser des adaptateurs rseau standards pour connecter
votre hte une cible iSCSI distante sur le rseau IP. L'adaptateur iSCSI logiciel qui est intgr dans l'ESXi
facilite cette connexion en communiquant avec les cartes rseau physiques par la pile rseau.
Pour pouvoir utiliser l'adaptateur iSCSI logiciel, vous devez d'abord installer le rseau, activer l'adaptateur
et configurer les paramtres tels que les adresses de dcouverte et le CHAP.
REMARQUE Dsignez un adaptateur rseau spar pour iSCSI. N'utilisez pas d'iSCSI sur des adaptateurs
100Mbps ou plus lents.
Le workflow de configuration de l'adaptateur iSCSI logiciel comprend les tapes suivantes :
1

Activez l'adaptateur iSCSI logiciel.


Reportez-vous la section Activer l'adaptateur iSCSI logiciel dans Client Web vSphere , page 83.

Configurez la mise en rseau pour iSCSI.


Reportez-vous la section Paramtrage du rseau iSCSI , page 85.
La configuration du rseau ncessite la cration d'une interface VMkernel pour chaque adaptateur
rseau physique utilis pour iSCSI et l'association de toutes les interfaces l'adaptateur iSCSI logiciel.

(Facultatif) Activer les trames Jumbo.


Reportez-vous Utilisation des trames Jumbo avec iSCSI , page 93.

Configurer les informations de dcouverte.


Reportez-vous la section Configuration des adresses de dcouverte des adaptateurs iSCSI ,
page 94.

(Facultatif) Configurez les paramtres CHAP.


Reportez-vous la section Configurer des paramtres CHAP pour des adaptateurs iSCSI , page 96.

Activer l'adaptateur iSCSI logiciel dans Client Web vSphere


Vous devez activer votre adaptateur iSCSI logiciel pour que l'hte puisse l'utiliser pour accder au stockage
iSCSI.
Vous ne pouvez activer qu'un seul adaptateur iSCSI logiciel.
Prrequis
Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage
REMARQUE Si vous dmarrez depuis iSCSI en utilisant l'adaptateur logiciel iSCSI, l'adaptateur est activ et la
configuration rseau est cre lors du premier dmarrage. Si vous dsactivez l'adaptateur, il est ractiv
chaque dmarrage de l'hte.

VMware, Inc.

83

Stockage vSphere

Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] , puis cliquez sur [Ajouter] .

Slectionnez [Adaptateur iSCSI logiciel] et confirmez que vous voulez ajouter l'adaptateur.

L'adaptateur iSCSI logiciel (vmhba#) est activ et figure dans la liste des adaptateurs de stockage. Aprs
avoir activ l'adaptateur, l'hte lui assigne un nom iSCSI par dfaut. Si vous devez changer le nom par
dfaut, suivez les conventions de dnomination iSCSI.
Suivant
Slectionnez l'adaptateur et utilisez la section Dtails de l'adaptateur pour terminer la configuration.

Dsactiver l'adaptateur iSCSI logiciel dans Client Web vSphere


Vous pouvez dsactiver l'adaptateur iSCSI logiciel si vous n'en avez pas besoin.
La dsactivation de ladaptateur iSCSI logiciel le marque pour suppression. L'adaptateur est supprim de
l'hte au prochain redmarrage de ce dernier. Aprs la suppression, toutes les machines virtuelles et autres
donnes des priphriques de stockage associs cet adaptateur deviennent inaccessibles l'hte.
Prrequis
Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] et slectionnez l'adaptateur logiciel iSCSI dans la liste.

Dans Dtails de l'adaptateur, cliquez sur [Dsactiver] puis confirmez que vous voulez dsactiver
l'adaptateur.
L'tat indique que l'adaptateur est dsactiv.

Redmarrez l'hte.
Aprs le redmarrage, l'adaptateur ne figure plus dans la liste des adaptateurs de stockage.

L'adaptateur logiciel n'est plus disponible et les priphriques de stockage qui lui sont associs sont
inaccessibles. Vous pourrez activer l'adaptateur plus tard.

Modifier les proprits gnrales des adaptateurs iSCSI


Vous pouvez modifier le nom et l'alias iSCSI par dfaut affects vos adaptateurs iSCSI. Pour les
adaptateurs iSCSI matriels indpendants, vous pouvez galement modifier les paramtres IP par dfaut.
IMPORTANT Lorsque vous modifiez des proprits par dfaut pour vos adaptateurs iSCSI, assurez-vous de
formater correctement leurs noms et adresses IP.
Prrequis
Privilge ncessaire : Hte .Configuration.Configuration de partition de stockage
Procdure
1

84

Accdez l'hte dans le navigateur de Client Web vSphere.

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] , puis slectionnez l'adaptateur (vmhba#) configurer.

Dans Dtails de l'adaptateur, cliquez sur l'onglet [Proprits] , puis cliquez sur [Modifier] dans le
panneau gnral.

Pour changer le nom iSCSI par dfaut de l'adaptateur, entrez le nouveau nom.
Veillez ce que le nom que vous entrez est unique mondialement et correctement format, sinon, des
priphriques de stockage pourraient ne pas reconnatre l'adaptateur iSCSI.

(Facultatif) Entrez l'alias iSCSI.


L'alias est un nom que vous utilisez pour identifier l'adaptateur iSCSI.

Si vous changez le nom iSCSI, il sera utilis pour de nouvelles sessions iSCSI. Pour des sessions existantes,
de nouveaux paramtres ne seront pas utiliss jusqu' la dconnexion et la reconnexion.

Paramtrage du rseau iSCSI


Le logiciel et les adaptateurs de matriel iSCSI dpendant dpendent de la mise en rseau VMkernel. Si vous
utilisez les adaptateurs iSCSI logiciels ou matriels dpendants, vous devez configurer les connexions du
trafic entre le composant iSCSI et les adaptateurs rseau physiques.
La configuration de la connexion rseau implique de crer une interface virtuelle VMkernel pour chaque
adaptateur rseau physique et d'associer l'interface un adaptateur iSCSI appropri.
Pour des considrations spcifiques sur la manire d'utiliser les connections du rseau avec un adaptateur
iSCSI logiciel, reportez-vous l'article de la base de connaissances VMware l'adresse
http://kb.vmware.com/kb/2038869.

Multiples adaptateurs rseau dans la configuration iSCSI


Si l'hte dispose de plusieurs adaptateurs rseau physiques, pour le logiciel et le matriel iSCSI dpendants,
utilisez les adaptateurs pour la gestion gestion multivoie.
Vous pouvez connecter l'adaptateur iSCSI logiciel n'importe quelle carte rseau physique disponible sur
votre hte. Les adaptateurs iSCSI dpendants doivent uniquement tre connects leurs propres cartes
rseau physiques.
REMARQUE Les cartes rseau physiques doivent tre sur le mme sous-rseau que le systme de stockage
iSCSI auquel ils se connectent.

VMware, Inc.

85

Stockage vSphere

Figure 111. Mise en rseau avec iSCSI


Deux NIC physiques connects
l'adaptateur logiciel iSCSI

Deux NIC physiques avec


capacit de dchargement iSCSI

adaptateur logiciel iSCSI

adaptateurs matriels iSCSI dpendants

vmhba#
vmk1

vmhba33
ports
iSCSI

vmk2

vmhba34

vmk1

vSwitch

vmk2

vSwitch

Hte1
Hte1

vmnic1

vmnic2

vmnic1

NIC physiques

vmnic2

Hte2

virtuel

Hte2

physique

NIC physiques
avec capacit de
dchargement
iSCSI

rseau IP

Stockage iSCSI

Stockage iSCSI

L'adaptateur iSCSI et la carte rseau physique se connectent par un adaptateur virtuel VMkernel, appel
galement adaptateur de rseau virtuel ou port VMkernel. Vous crez un adaptateur VMkernel (vmk) sur
un commutateur vSphere (vSwitch) en utilisant le mappage 1:1 entre chaque adaptateur virtuel et chaque
adaptateur rseau physique.
Un moyen d'obtenir le mappage 1:1 lorsque vous avez de multiples cartes rseau, consiste dsigner un
commutateur vSphere distinct pour chaque paire d'adaptateurs virtuels--physiques.
REMARQUE Si vous utilisez des commutateurs vSphere distincts, vous devez les connecter diffrents sousrseaux IP. Sinon, les adaptateurs VMkernel risquent de connatre des problmes de connectivit et l'hte
n'arrivera pas dtecter les LUN iSCSI.
Les exemples suivants montrent des configurations qui utilisent les commutateurs vSphere standards, mais
vous pouvez galement utiliser des commutateurs distribus. Pour plus d'informations sur vSphere
Distributed Switches, consultez la documentation Mise en rseau vSphere.

86

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Figure 112. mappage d'adaptateurs 1:1 sur les commutateurs standards vSphere distincts
vSwitch1
Adaptateurs physiques

Adaptateurs VMkernel

vmnic1

iSCSI1
vmk1

vSwitch2
Adaptateurs VMkernel

Adaptateurs physiques
vmnic2

iSCSI2
vmk2

Une autre mthode consiste ajouter toutes les cartes rseau et tous les adaptateurs VMkernel un seul
commutateur standard vSphere. Le cas chant, vous devez annuler la configuration du rseau par dfaut et
vous assurer que chaque adaptateur VMkernel correspond uniquement un seul adaptateur physique actif.
REMARQUE Si les adaptateurs VMkernel se trouvent sur le mme sous-rseau, vous devez utiliser la
configuration du vSwitch unique.
Figure 113. mappage d'adaptateurs 1:1 sur un seul commutateur standard vSphere
vSwitch1
Adaptateurs VMkernel

Adaptateurs physiques

iSCSI2

vmnic2

vmk2

vmnic1

iSCSI1
vmk1

Le tableau suivant rcapitule la configuration de mise en rseau iSCSI tudie dans cette rubrique.
Tableau 112. Configuration de la mise en rseau pour iSCSI
Adaptateurs VMkernel (Ports)

Adaptateurs physiques (Cartes


rseau)

vmk1

vmnic1

vmk2

vmnic2

vmhba33

vmk1

vmnic1

vmhba34

vmk2

vmnic2

Adaptateurs iSCSI
iSCSI logiciel
vmhba32

Matriel iSCSI dpendant

VMware, Inc.

87

Stockage vSphere

Crer des connexions rseau pour iSCSI dans Client Web vSphere
Configurez les connexions pour le trafic entre le logiciel ou les adaptateurs de matriel iSCSI dpendants et
les adaptateurs rseau physiques.
Les tches suivantes concernent la configuration du rseau iSCSI avec un commutateur standard vSphere.
Si vous utilisez un commutateur vSphere distribu avec plusieurs ports de liaison montante, pour
l'association de ports, crez un groupe de ports distribus distinct pour chaque carte NIC physique. Rglez
ensuite la politique de groupes de faon ce que chaque groupe de ports distribus n'ait qu'un seul port de
liaison montante actif. Pour des informations plus dtailles sur vSphere Distributed Switches, consultez la
documentation Mise en rseau vSphere.
Procdure
1

Crer un adaptateur VMkernel unique pour iSCSI dansClient Web vSphere page 88
Connectez l'adaptateur VMkernel, qui excute des services pour le stockage iSCSI, un adaptateur
rseau physique.

Crer des adaptateurs VMkernel supplmentaires pour iSCSI dans Client Web vSphere page 89
Excutez cette tche si vous disposez d'au moins deux adaptateurs rseau physiques pour iSCSI et
voulez connecter toutes vos adaptateurs physiques un seul commutateur standard vSphere. Cette
tche vous permet d'ajouter les adaptateurs physiques et les adaptateurs VMkernel un commutateur
standard vSphere existant.

Changer la stratgie rseau pour iSCSI dansClient Web vSphere page 90


Si vous utilisez un seul commutateur standard vSphere pour connecter plusieurs adaptateurs
VMkernel plusieurs adaptateurs rseau, configurez la stratgie rseau de faon ce qu'un seul
adaptateur rseau physique soit actif pour chaque adaptateur VMkernel.

Lier des adaptateurs iSCSI et des adaptateurs VMkernel dans Client Web vSphere page 91
Liez un adaptateur iSCSI un adaptateur VMkernel.

Vrifier les dtails de liaison de port dansClient Web vSphere page 91


Vrifier les dtails de mise en rseau de l'adaptateur VMkernel li l'adaptateur iSCSI.

Crer un adaptateur VMkernel unique pour iSCSI dans Client Web vSphere
Connectez l'adaptateur VMkernel, qui excute des services pour le stockage iSCSI, un adaptateur rseau
physique.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur [Actions] et slectionnez [Toutes les actions vCenter] > [Ajouter une mise en rseau] .

Slectionnez [Adaptateur rseau VMkernel] , puis cliquez sur [Suivant] .

Slectionnez [Nouveau commutateur standard] pour crer un commutateur standard vSphere.

Cliquez sur l'icne [Ajouter des adaptateurs] et slectionnez l'adaptateur rseau (vmnic#) utiliser
pour iSCSI.
Veillez affecter l'adaptateur des adaptateurs actifs.
IMPORTANT Si vous crez un adaptateur VMkernel pour du matriel iSCSI dpendant, slectionnez
l'adaptateur rseau qui correspond au composant iSCSI. Reportez-vous Dterminer l'association
entre les adaptateurs iSCSI et les adaptateurs rseau dansClient Web vSphere , page 82.

88

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Entrez une tiquette de rseau.


Une tiquette de rseau est un nom convivial qui identifie l'adaptateur VMkernel que vous crez (par
exemple iSCSI).

Spcifiez les paramtres IP.

Passez vos informations en revue et cliquez sur [Terminer] .

Vous avez cr l'adaptateur virtuel VMkernel (vmk#) d'un adaptateur rseau physique (vmnic#) sur votre
hte.
Suivant
Si votre hte dispose d'un adaptateur rseau physique pour le trafic iSCSI, vous devez lier l'adaptateur
virtuel que vous avez cr l'adaptateur iSCSI.
Si vous disposez de plusieurs adaptateurs rseau, crez des adaptateurs VMkernel supplmentaires et
effectuez la liaison iSCSI. Le nombre d'adaptateurs virtuels doit correspondre au nombre d'adaptateurs
physiques sur l'hte.

Crer des adaptateurs VMkernel supplmentaires pour iSCSI dans


Client Web vSphere
Excutez cette tche si vous disposez d'au moins deux adaptateurs rseau physiques pour iSCSI et voulez
connecter toutes vos adaptateurs physiques un seul commutateur standard vSphere. Cette tche vous
permet d'ajouter les adaptateurs physiques et les adaptateurs VMkernel un commutateur standard
vSphere existant.
Prrequis
Crez un commutateur standard vSphere qui mappe un adaptateur VMkernel iSCSI un adaptateur rseau
physique dsign pour le trafic iSCSI.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Mise en rseau] .

Cliquez sur [Commutateurs virtuels] , puis slectionnez dans la liste le commutateur vSphere que vous
souhaitez modifier.

Connectez des adaptateurs rseau supplmentaires au commutateur.


a

Cliquez sur l'icne [Ajouter mise en rseau d'hte] .

Slectionnez [Adaptateurs rseau physiques] puis cliquez sur [Suivant] .

Assurez-vous de bien utiliser le commutateur existant, puis cliquez sur [Suivant] .

Cliquez sur l'icne [Ajouter des adaptateurs] et slectionnez un ou plusieurs adaptateurs rseau
(vmnic#) utiliser pour iSCSI.
S'il s'agit d'adaptateurs iSCSI matriels dpendants, slectionnez uniquement les cartes rseau
ayant un composant iSCSI correspondant.

VMware, Inc.

Terminez la configuration, puis cliquez sur [Terminer] .

89

Stockage vSphere

Crez des adaptateurs VMkernel iSCSI pour tous les adaptateurs rseau physiques que vous avez
ajouts.
Le nombre d'interfaces VMkernel doit correspondre au nombre d'adaptateurs rseau physiques sur le
commutateur standard vSphere.
a

Cliquez sur l'icne [Ajouter mise en rseau d'hte] .

Slectionnez [Adaptateur rseau VMkernel] , puis cliquez sur [Suivant] .

Assurez-vous de bien utiliser le commutateur existant, puis cliquez sur [Suivant] .

Terminez la configuration, puis cliquez sur [Terminer] .

Suivant
Modifiez la stratgie de rseau pour tous les adaptateurs VMkernel, afin qu'un seul adaptateur rseau
physique soit actif pour chaque adaptateur VMkernel. Ensuite, vous pouvez lier les adaptateurs VMkernel
iSCSI aux adaptateurs iSCSI logiciels ou iSCSI matriels dpendants.

Changer la stratgie rseau pour iSCSI dans Client Web vSphere


Si vous utilisez un seul commutateur standard vSphere pour connecter plusieurs adaptateurs VMkernel
plusieurs adaptateurs rseau, configurez la stratgie rseau de faon ce qu'un seul adaptateur rseau
physique soit actif pour chaque adaptateur VMkernel.
Par dfaut, tous les adaptateurs rseau apparaissent actifs pour chaque adaptateur VMkernel du
commutateur standard vSphere. Vous devez remplacer cette configuration pour que l'adaptateur VMkernel
soit mapp une seule carte physique correspondante. Par exemple, vmk1 est mappe vmnic1, vmk2 est
mappe vmnic2, et ainsi de suite.
Prrequis
Crez un commutateur standard vSphere qui connecte VMkernel avec des adaptateurs rseau physiques
ddis au trafic iSCSI. Le nombre d'adaptateurs VMkernel doit correspondre au nombre d'adaptateurs
physiques sur le commutateur standard vSphere.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Mise en rseau] .

Cliquez sur [Commutateurs virtuels] , puis slectionnez dans la liste le commutateur vSphere que vous
souhaitez modifier.

Sur le diagramme vSwitch, slectionnez l'adaptateur VMkernel et cliquez sur l'icne [Modifier les
paramtres] .

Dans l'assistant demodification des paramtres, cliquez sur [Association et basculement] puis cliquez
sur [Remplacer] dans Commande de basculement.

Dsignez un seul adaptateur physique comme tant actif et transfrez tous les adaptateurs restants vers
la catgorie [Adaptateurs inutiliss] .

Rpteztape 4 tape 6 pour chaque interface VMkernel du commutateur standard vSphere.

Exemple : Stratgie rseau iSCSI


Le tableau suivant illustre le mappage iSCSI adquat lorsqu'un seul adaptateur rseau physique est actif
pour chaque adaptateur VMkernel.

90

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Adaptateur VMkernel (vmk#)

Adaptateur VMkernel physique (vmnic#)

vmk1

Adaptateurs actifs
vmnic1
Adaptateurs inutiliss
vmnic2

vmk2

Adaptateurs actifs
vmnic2
Adaptateurs inutiliss
vmnic1

Suivant
Une fois cette tche termine, liez les adaptateurs VMkernel virtuels aux adaptateurs iSCSI logiciels ou aux
adaptateurs iSCSI matriels dpendants.

Lier des adaptateurs iSCSI et des adaptateurs VMkernel dans Client Web vSphere
Liez un adaptateur iSCSI un adaptateur VMkernel.
Prrequis
Crez un adaptateur VMkernel virtuel pour chaque adaptateur rseau physique sur l'hte. Si vous utilisez
plusieurs adaptateurs VMkernel, dfinissez correctement la rgle de rseau.
Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] et slectionnez l'adaptateur logiciel ou iSCSI dpendant


configurer dans la liste.

Dans Dtails de l'adaptateur, cliquez sur l'onglet [Liaison de port rseau] puis cliquez sur [Ajouter] .

Slectionnez un adaptateur VMkernel relier l'adaptateur iSCSI.


REMARQUE Assurez-vous que la rgle de rseau de l'adaptateur VMkernel est conforme aux conditions
de liaison.
Vous pouvez lier l'adaptateur iSCSI logiciel une ou plusieurs adaptateurs VMkernel. S'il s'agit d'un
adaptateur iSCSI matriel dpendant, seul un adaptateur VMkernel associ la carte NIC physique
approprie est disponible.

Cliquez sur [OK] .

La connexion rseau apparat dans la liste des liaisons de port VMkernel de l'adaptateur iSCSI.

Vrifier les dtails de liaison de port dans Client Web vSphere


Vrifier les dtails de mise en rseau de l'adaptateur VMkernel li l'adaptateur iSCSI.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] et slectionnez l'adaptateur iSCSI logiciel ou indpendant dans
la liste.

VMware, Inc.

91

Stockage vSphere

Dans Dtails de l'adaptateur, cliquez sur l'onglet [Liaison de port rseau] , puis cliquez sur [Afficher
les dtails] .

Consultez les informations relatives l'adaptateur VMkernel en basculant entre les onglets disponibles.

Gestion du rseau iSCSI


Des considrations spciales s'appliquent aux adaptateurs rseau, physique et VMkernel, qui sont associs
un adaptateur iSCSI.
Aprs avoir cr des connexions rseau pour iSCSI, un indicateur iSCSI sur plusieurs botes de dialogue
Mise en rseau devient activ. Cet indicateur indique qu'un adaptateur rseau virtuel ou physique
particulier est ddi l'iSCSI. Pour viter des interruptions du trafic iSCSI, suivez ces recommandations et
considrations lors de la gestion des adaptateurs rseau physiques et virtuels iSCSI :
n

Assurez-vous que des adresses sont affectes aux adaptateurs rseau VMkernel on sur le mme sousrseau que le portail de stockage iSCSI auquel ils se connectent.

Les adaptateurs iSCSI utilisant les adaptateurs VMkernel ne peuvent pas se connecter aux ports iSCSI
sur diffrents sous-rseaux, mme si ces ports sont dtects par les adaptateurs iSCSI.

Lors de l'utilisation de commutateurs vSphere spars pour connecter des adaptateurs rseau
physiques et des adaptateurs VMkernel, assurez-vous que les commutateurs vSphere se connectent aux
diffrents sous-rseaux IP.

Si les adaptateurs VMkernel se trouvent sur le mme sous-rseau, ils doivent se connecter un mme
vSwitch.

Si vous migrez des adaptateurs VMkernel vers un autre commutateur vSphere, dplacez les
adaptateurs physiques associs.

Ne modifiez pas la configuration des adaptateurs VMkernel ddis l'iSCSI ou les adaptateurs rseau
physiques.

N'apportez pas de changements qui pourraient rompre l'association des adaptateurs VMkernel et des
adaptateurs rseau physiques. Vous pouvez rompre l'association si vous retirez l'un des adaptateurs ou
le commutateur vSphere qui les connecte, ou changer la rgle de rseau 1:1 pour leur connexion.

Dpannage du rseau iSCSI


Un avertissement indique une politique de groupe de ports non conforme pour un adaptateur VMkernel
ddi l'iSCSI.
Problme
La politique de groupe de ports d'un adaptateur VMkernel est considre comme tant non conforme dans
les cas suivants :
n

L'adaptateur VMkernel n'est pas connect un adaptateur rseau physique actif.

L'adaptateur VMkernel est connect plusieurs adaptateurs rseau physiques.

L'adaptateur VMkernel est connect un ou plusieurs adaptateurs physiques en veille.

L'adaptateur rseau physique actif est chang.

Solution
Suivez les tapes dans Changer la stratgie rseau pour iSCSI dansClient Web vSphere , page 90 pour
dfinir la rgle de rseau correcte pour l'adaptateur VMkernel ddi l'iSCSI.

92

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Utilisation des trames Jumbo avec iSCSI


ESXi prend en charge l'utilisation des trames Jumbo avec iSCSI.
Les trames Jumbo sont des trames Ethernet dont la taille est suprieure 1 500 octets. Le paramtre d'unit
de transmission maximale (MTU) est utilis gnralement pour mesurer la taille des trames Jumbo. ESXi
autorise des trames Jumbo avec une MTU suprieure 9 000 octets.
Lorsque vous utilisez des trames Jumbo pour le trafic iSCSI, les considrations suivantes s'appliquent :
n

Le rseau doit prendre en charger les Trames jumbo d'une extrmit l'autre pour que cette fonction
soit active.

Vrifiez auprs de vos fournisseurs si vos cartes NIC physiques et vos HBA iSCSI prennent en charge
les trames Jumbo.

Pour configurer et vrifier les commutateurs rseau physiques pour les trames Jumbo, consultez la
documentation de votre fournisseur.

Le tableau suivant dcrit le niveau de prise en charge de l'ESXi concernant les trames Jumbo.
Tableau 113. Prise en charge des trames Jumbo
Type d'adaptateurs iSCSI

Prise en charge des trames Jumbo

iSCSI logiciel

Pris en charge

Matriel iSCSI dpendant

Pris en charge. Consultez le fournisseur.

Matriel iSCSI indpendant

Pris en charge. Consultez le fournisseur.

Activer des trames Jumbo pour l'iSCSI logiciel et matriel dpendant


Pour activer les trames Jumbo pour les adaptateurs iSCSI matriels dpendants dans Client Web vSphere,
modifiez la valeur par dfaut du paramtre d'units de transmission maximale (MTU).
Vous pouvez modifier le paramtre MTU sur le commutateur vSphere que vous utilisez pour le trafic iSCSI.
Pour plus d'informations, voir la documentation Mise en rseau vSphere.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Mise en rseau] .

Cliquez sur [Commutateurs virtuels] , puis slectionnez dans la liste le commutateur vSphere que vous
souhaitez modifier.

Cliquez sur l'icne [Modifier les paramtres] .

Sur la page Proprits, modifiez la valeur du paramtre MTU.


Cette tape dfinit le MTU pour toutes les cartes NIC physiques sur ce commutateur standard. La
valeur MTU doit tre affecte la taille maximale de MTU parmi toutes les cartes NIC connectes au
commutateur standard. ESXi prend en charge un paramtre MTU d'une taille allant jusqu' 9000 octets.

Activer les trames Jumbo pour l'iSCSI matriel indpendant


Pour activer les trames Jumbo pour les adaptateurs iSCSI matriels indpendants dans Client Web vSphere,
modifiez la valeur par dfaut du paramtre d'units de transmission maximale (MTU).
Utilisez les paramtres d'Options avances pour modifier le paramtre MTU pour l'HBA iSCSI.

VMware, Inc.

93

Stockage vSphere

Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] et slectionnez l'adaptateur iSCSI matriel indpendant dans la
liste des adaptateurs.

Dans Dtails de l'adaptateur, cliquez sur l'onglet [Options avances] , puis cliquez sur [Modifier] .

Modifiez la valeur du paramtre MTU.


ESXi prend en charge un paramtre MTU d'une taille allant jusqu' 9000 octets.

Configuration des adresses de dcouverte des adaptateurs iSCSI


Configurez les adresses de dcouverte de cible pour que l'adaptateur iSCSI puisse dterminer quelle
ressource de stockage prsente sur le rseau est accessible.
Le systme ESXi prend en charge les mthodes de dcouvertes suivantes :
Dcouverte dynamique

galement appele dcouverte SendTargets. Chaque fois que l'initiateur


contacte un serveur iSCSI dsign, il envoie la demande de SendTargets au
serveur. Le serveur rpond en fournissant une liste de cibles disponibles
l'initiateur. Les noms et adresses IP de ces cibles figurent dans l'onglet
[Dcouverte statique] . Si vous supprimez une cible statique ajoute par la
dcouverte dynamique, il se peut qu'elle soit rintgre la liste la prochaine
fois qu'un scannage se produira, que le HBA se rinitialisera ou que l'hte
sera redmarr.

Dcouverte statique

L'initiateur n'a aucune dcouverte effectuer. L'initiateur dispose d'une liste


de cibles qu'il peut contacter, et emploie leurs adresses IP et noms de cible
pour communiquer avec elles.

Configurer la dcouverte dynamique dans Client Web vSphere


Avec la dcouverte dynamique, chaque fois que l'initiateur contacte un systme de stockage iSCSI donn, il
envoie la demande SendTargets au systme. Le systme iSCSI rpond en fournissant une liste de cibles
disponibles l'initiateur.
Lorsque vous configurez la dcouverte dynamique, vous pouvez seulement ajouter un nouveau systme
iSCSI. Vous ne pouvez pas changer l'adresse IP, le nom DNS ni le numro de port d'un systme iSCSI
existant. Pour effectuer des modifications, supprimez le systme existant et ajoutez-en un nouveau.
Prrequis
Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage
Procdure

94

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] et slectionnez l'adaptateur iSCSI configurer dans la liste.

Dans Dtails de l'adaptateur, cliquez sur l'onglet [Cibles] , puis cliquez sur [Dcouverte dynamique] .

Cliquez sur [Add] .

Tapez l'adresse IP ou le nom DNS du systme de stockage et cliquez sur [OK] .

Scannez nouveau l'adaptateur iSCSI

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Aprs avoir tabli la session d'envoi de cibles avec le systme iSCSI, votre hte remplira la liste de
dcouverte statique avec tous les nouvelles cibles dcouvertes.

Configurer la dcouverte statique dans Client Web vSphere


Avec les initiateurs iSCSI, outre la mthode de dcouverte dynamique, vous pouvez utiliser la dcouverte
statique et saisir manuellement des information pour les cibles.
Quand vous configurez la dcouverte statique, vous pouvez uniquement ajouter de nouvelles cibles iSCSI.
Vous ne pouvez changer l'adresse IP, le nom DNS, le nom de cible iSCSI ni le numro de port d'une cible
existante. Pour apporter des modifications, supprimez la cible existante et ajoutez-en une nouvelle.
Prrequis
Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] et slectionnez l'adaptateur iSCSI configurer dans la liste.

Dans Dtails de l'adaptateur, cliquez sur [Cibles] , puis cliquez sur [Dcouverte statique] .

Cliquez sur [Add] .

Saisissez les informations de la cible, puis cliquez sur [OK] .

Scannez nouveau l'adaptateur iSCSI

Supprimer des cibles statiques dans Client Web vSphere


Supprimer les cibles qui apparaissent dans la liste de Dcouverte statique.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] et slectionnez l'adaptateur iSCSI modifier dans la liste.

Dans Dtails de l'adaptateur, cliquez sur [Cibles] , puis cliquez sur [Dcouverte statique] .

Slectionnez la cible statique supprimer, puis cliquez sur [Supprimer] .

Scannez nouveau l'adaptateur iSCSI


Si la cible statique a t dcouverte dynamiquement, vous devez la supprimer du systme de stockage
avant d'effectuer une nouvelle analyse. Dans le cas contraire, votre hte dcouvrira et ajoutera
automatiquement la cible la liste des cibles statiques lorsque vous effectuerez une nouvelle analyse de
l'adaptateur.

VMware, Inc.

95

Stockage vSphere

Configurer des paramtres CHAP pour des adaptateurs iSCSI


Etant donn que les rseaux IP qu'utilise la technologie iSCSI pour se connecter aux cibles distantes ne
protgent pas les donnes qu'ils transportent, vous devez scuriser la connexion. L'un des protocoles que
l'iSCSI applique est le protocole CHAP, qui vrifie la lgitimit des initiateurs qui accdent des cibles sur le
rseau.
Le protocole CHAP applique un algorithme de ngociation trois voies pour vrifier l'identit de votre hte
et, le cas chant, de la cible iSCSI quand l'hte et la cible tablissent une connexion. La vrification repose
sur une valeur prive prdfinie, dite secret CHAP, que l'initiateur et la cible partagent.
ESXi prend en charge l'authentification CHAP au niveau de l'adaptateur. Dans ce cas, toutes les cibles
reoivent les mmes nom et secret CHAP de la part de l'initiateur iSCSI. Pour les adaptateurs iSCSI logiciels
et matriels dpendants, ESXi prend en charge galement l'authentification CHAP en fonction de la cible,
qui permet de configurer diffrentes informations d'identification pour chaque cible pour renforcer la
scurit.

Choisir la mthode d'authentification CHAP


ESXi prend en charge le CHAP unidirectionnel pour tous les types d'initiateurs iSCSI et le CHAP
bidirectionnel pour les logiciels et le matriel dpendant iSCSI.
Avant de configurer CHAP, vrifiez s'il est activ dans le systme de stockage iSCSI et vrifiez la mthode
d'authentification CHAP que le systme permet. Si CHAP est activ, activez-le pour vos initiateurs, en
veillant ce que les informations d'identification d'authentification CHAP concordent avec celles du
stockage iSCSI.
ESXi prend en charge les mthodes d'authentification CHAP suivantes :
CHAP unidirectionnel

En authentification CHAP unidirectionnelle, la cible authentifie l'initiateur,


mais l'initiateur n'authentifie pas la cible.

CHAP bidirectionnel

En authentification CHAP bidirectionnelle, un niveau de scurit


supplmentaire permet l'initiateur d'authentifier la cible. VMware ne
permet cette mthode que pour les adaptateurs iSCSI logiciels et matrielles
dpendants.

Pour les adaptateurs iSCSI logiciels et matriels dpendants, vous pouvez dfinir le CHAP unidirectionnel
et le CHAP bidirectionnel pour chaque adaptateur ou au niveau cible. Le matriel indpendant iSCSI prend
uniquement CHAP en charge au niveau de l'adaptateur.
Quand vous dfinissez les paramtres CHAP, indiquez un niveau de scurit pour CHAP.
REMARQUE Lorsque vous dfinissez le niveau de scurit CHAP, le type de rponse de la baie de stockage
dpend de l'implmentation CHAP de la baie et est spcifique du fournisseur. Pour plus d'informations sur
le comportement de l'authentification CHAP dans diffrentes configurations d'initiateur et de cible,
consultez la documentation de la baie.
Tableau 114. Niveau de scurit CHAP

96

Niveau de scurit CHAP

Description

Pris en charge

Aucun

L'hte n'applique pas l'authentification CHAP. Cochez


cette option pour mettre hors tension l'authentification
si elle est actuellement active.

iSCSI logiciel
Matriel iSCSI dpendant
Matriel iSCSI indpendant

Utiliser le CHAP
unidirectionnel si la cible l'exige

L'hte prfre une connexion non CHAP, mais peut


utiliser une connexion CHAP si la cible l'exige.

iSCSI logiciel
Matriel iSCSI dpendant

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Tableau 114. Niveau de scurit CHAP (suite)


Niveau de scurit CHAP

Description

Pris en charge

Utiliser le CHAP
unidirectionnel, sauf si la cible
l'interdit

L'hte prfre CHAP, mais peut utiliser des connexions


non CHAP si la cible ne gre pas CHAP.

iSCSI logiciel
Matriel iSCSI dpendant
Matriel iSCSI indpendant

Utiliser le CHAP
unidirectionnel

L'hte exige une authentification CHAP russie. La


connexion choue si la ngociation CHAP choue.

iSCSI logiciel
Matriel iSCSI dpendant
Matriel iSCSI indpendant

Utiliser le CHAP bidirectionnel

L'hte et la cible prennent en charge le CHAP


bidirectionnel.

iSCSI logiciel
Matriel iSCSI dpendant

Configurer CHAP pour l'adaptateur iSCSI dans Client Web vSphere


Lorsque vous configurez le nom et le secret du CHAP au niveau de l'adaptateur iSCSI, toutes les cibles
reoivent les mmes paramtres de l'adaptateur. Par dfaut, toutes les adresses de dcouverte ou cibles
statiques hritent des paramtres CHAP que vous configurez au niveau de l'adaptateur.
Le nom CHAP ne doit pas dpasser 511 caractres alphanumriques et le secret CHAP doit comporter 255
caractres alphanumriques maximum. Certains adaptateurs, par exemple l'adaptateur QLogic, peuvent
avoir des limites plus basses, 255 pour le nom CHAP et 100 pour le secret CHAP.
Prrequis
n

Avant de configurer des paramtres CHAP pour l'iSCSI logiciel ou matriel dpendant, dterminez s'il
convient de configurer un CHAP unidirectionnel ou bidirectionnel. Les adaptateurs iSCSI matriels
indpendants ne prennent pas en charge les CHAP bidirectionnels.

Vrifier les paramtres CHAP configurs ct stockage. Les paramtres que vous configurez doivent
correspondre ceux prsents ct stockage.

Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage

Procdure
1

Affichez les adaptateurs de stockage, puis slectionnez l'adaptateur iSCSI configurer.

Dans Dtails de l'adaptateur, cliquez sur l'onglet [Proprits] , puis cliquez sur [Modifier] dans le
panneau d'authentification.

Spcifiez la mthode d'authentification.

[Aucun]

[Utiliser le CHAP unidirectionnel si la cible l'exige ]

[Utiliser le CHAP unidirectionnel, sauf si la cible l'interdit]

[Utiliser le CHAP unidirectionnel]

[Utiliser le CHAP bidirectionnel] . Pour configurer un CHAP bidirectionnel, vous devez


slectionner cette option.

Indiquez le nom du CHAP sortant.


Assurez-vous que le nom que vous indiquez concorde avec celui configur ct stockage.

VMware, Inc.

Pour dfinir le nom CHAP sur le nom de la carte iSCSI, slectionnez [Utiliser nom initiateur] .

Pour dfinir le nom CHAP en n'utilisant pas le nom d'initiateur iSCSI, dslectionnez [Utiliser
nom initiateur] et tapez un nom dans la zone de texte [Nom] .

97

Stockage vSphere

Saisissez un secret pour le CHAP sortant destin tre utilis dans le processus d'authentification.
Utilisez le mme secret que celui que vous entrez ct stockage.

Si vous configurez un CHAP bidirectionnel, spcifiez les donnes d'identification du CHAP entrant.
Veillez utiliser des secrets diffrents pour le CHAP sortant et le CHAP entrant.

Cliquez sur [OK] .

Scannez nouveau l'adaptateur iSCSI

Si vous modifiez les paramtres CHAP, ils sont utiliss pour de nouvelles sessions iSCSI. Pour les sessions
existantes, les nouveaux paramtres ne sont pas utiliss tant que vous ne vous dconnectez pas et que vous
ne vous reconnectez pas.

Configurer CHAP pour une cible dans Client Web vSphere


Si vous utilisez des adaptateurs iSCSI matriels dpendants et iSCSI logiciels, vous pouvez configurer des
donnes d'identification CHAP diffrentes pour chaque adresse de dcouverte ou cible statique.
Le nom CHAP ne doit pas excder 511 et le mot de passe CHAP 255 caractres alphanumriques.
Prrequis
n

Avant de configurer des paramtres CHAP pour l'iSCSI logiciel ou matriel dpendant, dterminez s'il
convient de configurer un CHAP unidirectionnel ou bidirectionnel.

Vrifier les paramtres CHAP configurs ct stockage. Les paramtres que vous configurez doivent
correspondre ceux prsents ct stockage.

Accder aux adaptateurs de stockage.

Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage

Procdure
1

Slectionnez l'adaptateur iSCSI configurer, puis cliquez sur l'onglet [Cibles] dans Dtails adaptateur.

Cliquez sur [Dcouverte dynamique] ou [Dcouverte statique] .

Dans la liste des cibles disponibles, slectionnez une cible configurer et cliquez sur
[Authentification] .

Dslectionnez [Hriter des paramtres du parent] et spcifiez la mthode d'authentification.

[Aucun]

[Utiliser le CHAP unidirectionnel si la cible l'exige ]

[Utiliser le CHAP unidirectionnel, sauf si la cible l'interdit]

[Utiliser le CHAP unidirectionnel]

[Utiliser le CHAP bidirectionnel] . Pour configurer un CHAP bidirectionnel, vous devez


slectionner cette option.

Indiquez le nom du CHAP sortant.


Assurez-vous que le nom que vous indiquez concorde avec celui configur ct stockage.

98

Pour dfinir le nom CHAP sur le nom de la carte iSCSI, slectionnez [Utiliser nom initiateur] .

Pour dfinir le nom CHAP en n'utilisant pas le nom d'initiateur iSCSI, dslectionnez [Utiliser
nom initiateur] et tapez un nom dans la zone de texte [Nom] .

Saisissez un secret pour le CHAP sortant destin tre utilis dans le processus d'authentification.
Utilisez le mme secret que celui que vous entrez ct stockage.

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Si vous configurez un CHAP bidirectionnel, spcifiez les donnes d'identification du CHAP entrant.
Veillez utiliser des secrets diffrents pour le CHAP sortant et le CHAP entrant.

Cliquez sur [OK] .

Scannez nouveau l'adaptateur iSCSI

Si vous modifiez les paramtres CHAP, ils sont utiliss pour de nouvelles sessions iSCSI. Pour les sessions
existantes, les nouveaux paramtres ne sont appliqus qu'une fois que vous vous tes dconnect puis
reconnect.

Dsactiver CHAP
Vous pouvez mettre hors tension le protocole CHAP si le systme de stockage ne le ncessite pas.
Si vous dsactivez CHAP sur un systme qui exige l'authentification CHAP, les sessions iSCSI existantes
demeurent actives jusqu' ce que vous redmarriez l'hte ou mettiez fin la session via la ligne de
commande ou que le systme de stockage force la dconnexion. Une fois la session close, vous ne pouvez
plus vous connecter aux cibles qui exigent CHAP.
Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage
Procdure
1

Ouvrez la bote de dialogue d'informations d'identification CHAP.

Avec les adaptateurs iSCSI logiciels et matriels dpendants, pour ne mettre hors tension que le CHAP
mutuel et laisser le CHAP unilatral, cochez [Ne pas utiliser le CHAP] dans la zone CHAP mutuel.

Pour mettre hors tension le CHAP unilatral, cochez [Ne pas utiliser le CHAP] dans la zone CHAP.
Le CHAP mutuel, s'il est install, passe automatiquement [Ne pas utiliser le CHAP] si vous
dsactivez le CHAP unilatral.

Cliquez sur [OK] .

Configuration des paramtres avancs iSCSI


Il se peut que vous deviez configurer des paramtres supplmentaires pour vos initiateurs iSCSI. Par
exemple, certains systmes de stockage iSCSI exigent la redirection ARP (Address Resolution Protocol) pour
mouvoir le trafic iSCSI dynamiquement d'un port l'autre. Dans ce cas, vous devez activer la redirection
ARP sur votre hte.
Le tableau suivant rpertorie les paramtres iSCSI avancs que vous pouvez configurer l'aide de
Client Web vSphere. En outre, vous pouvez utiliser les commandes CLI vSphere pour configurer certains
des paramtres avancs. Pour plus d'informations, se reporter la documentation Initiation aux interfaces de
ligne de commande vSphere.
IMPORTANT Ne modifiez pas les paramtres avancs iSCSI, moins que l'quipe de support VMware ou les
fournisseurs de stockage ne vous le recommandent.

VMware, Inc.

99

Stockage vSphere

Tableau 115. Paramtres supplmentaires des initiateurs iSCSI

100

Paramtre avanc

Description

Configurable sur

Rsum d'en-tte

Augmente l'intgrit des donnes. Si le prtraitement d'en-tte est


activ, le systme effectue un total de contrle sur la partie d'en-tte
de chaque unit de donnes de protocole (PDU) iSCSI et le vrifie
au moyen de l'algorithme CRC32C.

iSCSI logiciel
Matriel iSCSI
dpendant

Rsum de donnes

Augmente l'intgrit des donnes. Si le rsum de donnes est


activ, le systme effectue un total de contrle sur la partie donnes
de chaque unit de donnes de protocole (PDU) et le vrifie au
moyen de l'algorithme CRC32C.
REMARQUE Les systmes qui utilisent des processeurs Intel
Nehalem dlestent les calculs de rsum iSCSI pour l'iSCSI logiciel,
en rduisant ainsi l'incidence sur les performances.

iSCSI logiciel
Matriel iSCSI
dpendant

Maximum
Outstanding R2T
(Maximum d'units de
donnes de protocole
en suspend prtes
envoyer)

Dfinit le nombre d'units de donnes de protocole (PDU) prtes


envoyer qui peut tre en transition avant qu'une PDU d'accus de
rception ne soit reue.

iSCSI logiciel
Matriel iSCSI
dpendant

First Burst Length


(Longueur de
premire salve)

Indique la quantit maximum de donnes non sollicites qu'un


initiateur iSCSI peut envoyer la cible pendant l'excution d'une
commande SCSI, en octets.

iSCSI logiciel
Matriel iSCSI
dpendant

Maximum Burst
Length (Longueur
maximum de salve)

Charge utile de donnes maximum dans une squence iSCSI


d'entre de donnes ou de sortie de donnes sollicite, en octets.

iSCSI logiciel
Matriel iSCSI
dpendant

Maximum Receive
Data Segment Length
(Longueur maximum
de segment de
donnes en rception)

Longueur maximum de segment de donnes, en octets, qui peut


tre reu dans une PDU iSCSI.

iSCSI logiciel
Matriel iSCSI
dpendant

Session Recovery
Timeout (Dlai de
rcupration de
session)

Indique le laps de temps, en secondes, qui peut s'couler pendant


que s'excute une rcupration de session. Si le dlai dpasse sa
limite, l'initiateur iSCSI termine la session.

iSCSI logiciel
Matriel iSCSI
dpendant

No-Op Interval
(Intervalle sans
opration)

Indique l'intervalle, en secondes, entre les demandes en sortie sans


opration envoyes par votre initiateur iSCSI une cible iSCSI. Les
demandes en sortie sans opration servent de mcanisme ping pour
vrifier qu'une connexion entre l'initiateur iSCSI et la cible iSCSI est
active.

iSCSI logiciel
Matriel iSCSI
dpendant

No-Op Timeout (Dlai


de demande sans
opration)

Indique le laps de temps, en secondes, qui peut s'couler avant que


votre hte ne reoive un message d'entre sans opration (NOP-In).
Le message est envoy par la cible iSCSI en rponse la demande
en sortie sans opration. Ds que la limite de dlai sans opration
est dpasse, l'initiateur clt la session actuelle et en dmarre une
nouvelle.

iSCSI logiciel
Matriel iSCSI
dpendant

ARP Redirect
(Redirection ARP)

Permet aux systmes de stockage de mouvoir le trafic iSCSI


dynamiquement d'un port l'autre. L'ARP est exig par les
systmes de stockage qui appliquent le basculement bas sur baie.

iSCSI logiciel
Matriel iSCSI
dpendant
Matriel iSCSI
indpendant

Accus de rception
retard

Permet aux systmes de retarder l'accus de rception des paquets


de donnes.

iSCSI logiciel
Matriel iSCSI
dpendant

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Configurer les paramtres avancs pour iSCSI dans Client Web vSphere
Les paramtres iSCSI avancs contrlent des paramtres tels que le rsum de l'en-tte et des donnes, la
redirection ARP, l'accus de rception diffr, etc.
AVERTISSEMENT N'apportez aucune modification aux paramtres iSCSI avancs moins de travailler avec
l'quipe d'assistance VMware ou de disposer par d'autres biais d'informations prcises sur les valeurs
attribuer aux paramtres.
Prrequis
Privilge ncessaire : Hte.Configuration.Configuration de partition de stockage
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] , puis slectionnez l'adaptateur (vmhba#) configurer.

Configurer les paramtres avancs.

Pour configurer les paramtres avancs au niveau adaptateur, dans Dtails de l'adaptateur, cliquez
sur l'onglet [Options avances] puis cliquez sur [Modifier] .

Configurez les paramtres avancs au niveau cible.


a

Cliquez sur l'onglet [Cibles] puis cliquez sur [Dcouverte dynamique] ou [Dcouverte
statique] .

Dans la liste des cibles disponibles, slectionnez une cible configurer, puis cliquez sur
[Options avances] .

Saisissez toutes les valeurs obligatoires des paramtres avancs que vous voulez modifier.

Gestion des sessions iSCSI


Pour communiquer entre eux, les initiateurs iSCSI et les cibles tablissent des sessions iSCSI. Vous pouvez
consulter et grer les sessions iSCSI grce vSphere CLI.
Par dfaut, les initiateurs iSCSI logiciel et matriels dpendants lancent une session iSCSI entre chaque port
d'initiateur et chaque port cible. Si votre initiateur ou cible iSCSI possde plus d'un seul port, votre hte
peut tablir plusieurs sessions. Le nombre de sessions par dfaut pour chaque cible est gal au nombre de
ports sur les adaptateurs iSCSI multipli par le nombre de ports cibles.
Grce vSphere CLI, vous pouvez afficher toutes les sessions en cours afin de les analyser et les dboguer.
Pour crer davantage de chemins vers les systmes de stockage, augmentez le nombre de sessions par
dfaut en dupliquant les sessions existantes entre l'adaptateur iSCSI et les ports cibles.
Vous pouvez aussi tablir une session avec un port cible spcifique. Une telle session peut tre utile si votre
hte se connecte un systme de stockage port unique, qui prsente par dfaut un port cible unique
votre initiateur, mais qui peut rediriger des sessions supplmentaires vers un port cible diffrent.
L'tablissement d'une nouvelle session entre votre initiateur iSCSI et un autre port cible cre un chemin
supplmentaire vers le systme de stockage.
Les considrations s'appliquent la gestion des sessions iSCSI :
n

VMware, Inc.

Certains systmes de stockage ne prennent pas en charge les sessions multiples partir du mme nom
d'initiateur ou point terminal. Dans un tel cas, les tentatives de crer les sessions multiples vers telles
cibles peuvent provoquer une instabilit de votre environnement iSCSI.

101

Stockage vSphere

Les fournisseurs de stockages peuvent fournir des gestionnaires de sessions automatiques. L'utilisation
des gestionnaires de sessions automatiques pour ajouter ou supprimer des sessions, ne garantit pas des
rsultats durables et peut perturber les performances du stockage.

Passer en revue les sessions iSCSI


Utilisez la commande vCLI pour afficher les sessions iSCSI entre un adaptateur iSCSI et un systme de
stockage.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Pour rpertorier les sessions iSCSI, excutez la commande suivante :


esxcli --server=server_name iscsi session list

La commande accepte les options suivantes :


Option

Description

-A|--adapter=str

Le nom de l'adaptateur iSCSI, vmhba34, par exemple.

-s|--isid=str

L'identificateur de session iSCSI.

-n|--name=str

Le nom de la cible iSCSI, iqn.X, par exemple.

Ajout de sessions iSCSI


Utilisez le vSphere CLI afin d'ajouter une session iSCSI pour une cible que vous spcifierez ou pour
dupliquer une session existante. En dupliquant les sessions, vous augmentez le nombre de sessions par
dfaut, et vous crez des chemins supplmentaires pour les systmes de stockage.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.

102

VMware, Inc.

Chapitre 11 Configuration des adaptateurs iSCSI et du stockage

Procdure
u

Pour ajouter ou dupliquer une session iSCSI, excutez la commande suivante :


esxcli --server=server_name iscsi session add

La commande accepte les options suivantes :


Option

Description

-A|--adapter=str

Le nom de l'adaptateur iSCSI, vmhba34, par exemple. Cette option est


requise.

-s|--isid=str

L'ISID d'une session dupliquer. Vous pouvez la trouver en listant toutes


les sessions.

-n|--name=str

Le nom de la cible iSCSI, iqn.X, par exemple.

Suivant
Scannez nouveau l'adaptateur iSCSI

Supprimer des sessions iSCSI


Utilisez la commande vCLI pour fermer une session iSCSI entre un adaptateur iSCSI et une cible.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Pour supprimer une session, excutez la commande suivante :


esxcli --server=server_name iscsi session remove

La commande accepte les options suivantes :


Option

Description

-A|--adapter=str

Le nom de l'adaptateur iSCSI, vmhba34, par exemple. Cette option est


requise.

-s|--isid=str

L'ISID d'une session supprimer. Vous pouvez la trouver en listant toutes


les sessions.

-n|--name=str

Le nom de la cible iSCSI, iqn.X, par exemple.

Suivant
Scannez nouveau l'adaptateur iSCSI

VMware, Inc.

103

Stockage vSphere

104

VMware, Inc.

Modification des systmes de


stockage iSCSI pour ESXi

12

Aprs avoir configur vos initiateurs iSCSI et votre stockage, il se peut que vous deviez modifier votre
systme de stockage pour vous assurer qu'il fonctionnera correctement avec votre mise en uvre ESXi.
Cette section prsente de nombreux systmes de stockage iSCSI pris en charge avec VMware ESXi. Pour
chaque priphrique, elle rpertorie les problmes potentiels principaux connus, pointe vers des
informations spcifiques chaque fournisseur (le cas chant) et inclut des informations provenant d'articles
de la base de connaissances VMware.
REMARQUE Les informations de cette section sont mises niveau uniquement chaque nouvelle version. De
nouvelles informations peuvent dj tre disponibles. Par ailleurs, d'autres systmes de stockage iSCSI sont
pris en charge mais ne sont pas abords dans ce chapitre. Consultez le Guide de compatibilit de stockage/SAN
le plus rcent, vrifiez auprs de votre fournisseur de stockage et explorez les articles de la base de
connaissances VMware.
Ce chapitre aborde les rubriques suivantes :
n

Test des configurations SAN de l'ESXi iSCSI , page 105

Considrations gnrales pour les systmes de stockage SAN iSCSI , page 106

Systmes de stockage EMC CLARiiON , page 106

Systmes de stockage EMC Symmetrix , page 107

Activer HP StorageWorks MSA1510i pour communiquer avec ESXi , page 107

Systmes de stockage EVA HP StorageWorks , page 108

Systmes de stockage NetApp , page 109

Systmes de stockage Dell EqualLogic , page 109

Systmes de stockage HP StorageWorks SAN/iQ , page 110

Systmes de stockage Dell PowerVault MD3000i , page 110

Cibles iSCSI dans vApp , page 110

Test des configurations SAN de l' ESXi iSCSI


ESXi prend en charge divers systmes de stockage SAN dans diffrentes configurations. En gnral,
VMware teste ESXi avec les systmes de stockage pris en charge pour une connectivit de base, le
basculement HBA, etc.
Les priphriques de stockage ne sont pas tous certifis pour toutes les fonctionnalits et possibilits de
l'ESXi et les fournisseurs peuvent avoir des positions spcifiques de prise en charge concernant l'ESXi.

VMware, Inc.

105

Stockage vSphere

En gnral, VMware teste l'ESXi avec les systmes de stockage dans les configurations suivantes :
Connectivit de base

Teste si ESXi peut reconnatre et fonctionner avec le systme de stockage.


Cette configuration ne permet pas le chemins multiples ou tout autre type de
basculement.

Basculement iSCSI

Le serveur est quip de plusieurs HBA iSCSI ou adaptateurs rseau. Le


serveur est rsistant aux pannes de HBA ou de carte rseau.

Basculement de port de
stockage

Le serveur est associ plusieurs ports de stockage et est rsistant aux


pannes de port de stockage et aux pannes de commutateur.

Dmarrage partir d'un


SAN

L'hte dmarre avec succs partir d'un LUN configur sur le SAN iSCSI.

Considrations gnrales pour les systmes de stockage SAN iSCSI


Lorsque vous prparez votre systme de stockage SAN iSCSI pour qu'il fonctionne avec ESXi, vous devez
suivre les conditions gnrales spcifiques qui s'appliquent tous les systmes de stockage.
Pour tous les systmes de stockage, il existe les conditions gnrales suivantes :
n

Les LUN doivent tre prsents chaque HBA de chaque hte avec le mme ID de LUN. Si des
numros diffrents sont utiliss, les htes ESXi ne reconnaissent pas diffrents chemins d'accs au
mme LUN. tant donn que les instructions sur la configuration des ID de LUN SAN identiques sont
spcifiques chaque fournisseur, consultez votre documentation de stockage pour obtenir plus
d'informations.

Sauf mention particulire pour des systmes de stockage individuels dcrits dans ce chapitre, dfinissez
le type d'hte des LUN prsents ESXi sur Linux ou Linux Cluster, si applicable votre systme de
stockage. La mthode utilise par l'ESXi pour accder au systme de stockage est la plus compatible
avec un accs Linux. Toutefois, cela peut varier en fonction du systme de stockage que vous utilisez.

Si vous utilisez vMotion, DRS ou HA, veillez ce que les htes source et cible des machines virtuelles
puissent voir les mmes LUN avec des ID de LUN identiques. Les administrateurs SAN peuvent
trouver peu intuitif que plusieurs htes voient les mmes LUN car ils peuvent alors tre concerns par
la corruption des donnes. Toutefois, VMFS empche que plusieurs machines virtuelles n'crivent sur le
mme fichier au mme moment. Il est donc appropri de fournir les LUN tous les systmes ESXi
requis.

Si l'authentification CHAP n'est pas configure sur les LUN auxquels vous accdez, vous devez
galement dsactiver CHAP sur l'hte ESXi. Sinon, l'authentification du systme de stockage choue,
mme si les LUN n'ont aucune exigence CHAP.

Systmes de stockage EMC CLARiiON


Les systmes de stockage EMC CLARiiON fonctionnent avec les htes ESXi dans les configurations SAN
iSCSI. Gnralement, vous utilisez le logiciel EMC pour effectuer ces configurations.
Il s'agit d'une baie de disques actives/passives. Par consquence, toutes les questions associes qui
s'appliquent aux baies de disques actives/passives sont pertinentes. De plus, gardez ce qui suit l'esprit :

106

Pour viter la possibilit d'une annulation de chemin, la stratgie de multivoie par dfaut est
Rcemment utilis, et non Fixe. Le systme ESXidfinit la stratgie par dfaut lorsqu'il identifie le
systme de stockage.

Pour dmarrer partir d'un SAN, slectionnez le processeur de stockage actif pour la cible du LUN de
dmarrage dans le BIOS HBA.

VMware, Inc.

Chapitre 12 Modification des systmes de stockage iSCSI pour ESXi

Pour qu'un ESXi prenne en charge EMC CLARiiON avec ALUA, vrifiez les HCL pour vous assurer
que vous utilisez bien la bonne version de microprogramme sur la baie de stockage. Pour plus
d'informations, contactez votre fournisseur de stockage.

Certains modles EMC CLARiiON, CX3 peuvent ne pas se comporter de faon approprie pendant les
priodes de congestion du rseau. Pour obtenir des informations sur la faon de rsoudre ce problme,
consultez l'article de la base de connaissances VMware sur http://kb.vmware.com/kb/1002598.

Systmes de stockage EMC Symmetrix


Pour fonctionner avec ESXi, les systmes de stockage EMC Symmetrix ncessitent certains paramtres
spcifiques. Utilisez le logiciel EMC pour configurer le systme de stockage.
Les paramtres suivants sont requis pour les oprations ESXi sur le systme de stockage en rseau
Symmetrix :
n

Numro de srie commun (C)

Auto-ngociation (EAN) active

SCSI 3 (SC3) activ

Nom mondial unique (UWN)

L'indicateur SPC-2 (Decal) (SPC2) SPC-2 est requis

REMARQUE L'hte ESXi considre tous les LUN partir d'une baie de stockage Symmetrix avec une capacit
de 50 Mo maximum comme LUN de gestion. Ces LUN sont galement appels pseudo LUN ou LUN de
contrle d'accs. Ces LUN apparaissent dans l'interface de gestion EMC Symmetrix et ne doivent pas tre
utiliss pour contenir des donnes.

Activer HP StorageWorks MSA1510i pour communiquer avec ESXi


Cette section dcrit les tapes d'installation et de configuration ncessaires pour permettre un systme de
stockage HP StorageWorks MSA1510i de communiquer avec les htes ESXi.
Procdure
1

Installez, connectez et allumez les priphriques rseau comme dcrit dans la documentation
d'installation du fournisseur.

Obtenez l'adresse IP attribue au port de gestion du contrleur MSA1510i.


a

Faites dfiler les messages sur l'cran LCD jusqu' ce que le message suivant apparaisse : 603 Port
MA0 IP address

Enregistrez l'adresse IP du port de gestion qui apparat dans [Informations de base de


MSA1510i] .

partir du serveur ou d'un poste de travail sur le segment LAN du MSA1510i, ouvrez un navigateur
Web et saisissez l'adresse obtenue dans tape 2.

Lorsque vous y tes invit, saisissez les autorisations d'accs par dfaut.

VMware, Inc.

Nom d'utilisateur : root

Mot de passe : root

Lorsque vous y tes invit, dfinissez un nom d'utilisateur et un mot de passe unique.

107

Stockage vSphere

l'aide de l'assistant, effectuez les actions suivantes.


Option

Description

Configuration de stockage

a
b

Dfinissez le mode de tolrance aux pannes (mode RAID).


Attribuez un disque disponible pour le niveau RAID appropri.

Configuration iSCSI (configurez un


portail iSCSI)

a
b
c

Slectionnez un port de donnes.


Attribuez une adresse IP au port de donnes.
Les VLAN sont configurs sur le commutateur et sont utiliss pour
contrler l'accs au stockage. Si vous utilisez des VLAN, saisissez l'ID
de VLAN utiliser (0 = non utilis).

L'assistant suggre un nom cible iSCSI et un alias cible iSCSI par


dfaut. Acceptez les valeurs par dfaut ou saisissez des valeurs
dfinies par l'utilisateur.
REMARQUE Pour configurer les autres ports de donnes, suivez le
processus de l'assistant de configuration initiale du systme, puis utilisez
les tches disponibles dans l'onglet [Configurer] .

Paramtres de connexion

Entrez les paramtres de connexion.

Paramtres de gestion

Entrez les paramtres de gestion.

Cliquez sur [Terminer] pour appliquer les paramtres de configuration.

REMARQUE Les assistants sont disponibles uniquement pour les tches de configuration de base. Utilisez les
onglets [Grer] et [Configurer] pour afficher et modifier votre configuration.
Suivant
Aprs la configuration initiale, effectuez les tches suivantes pour terminer la configuration :
n

Crez une baie.

Crez un lecteur logique.

Crez une cible.

Crez un groupe de portail.

Associez ou attribuez les portails crs l'aide de l'assistant avec le groupes de portail cr.

Mappez les lecteurs logiques sur la cible.

Ajoutez des initiateurs (nom IQN et alias de l'initiateur).

Mettez niveau les ACL des lecteurs logiques pour fournir un accs aux initiateurs (slectionnez la liste
des initiateurs pour accder au lecteur logique).

Systmes de stockage EVA HP StorageWorks


Les deux types de systmes EVA HP StorageWorks sont EVA_GL, un systme actif-passif, et EVA_XL, un
systme actif-actif. Pour que les systmes puissent fonctionner avec ESXi, certains paramtres spcifiques
sont requis.
Dfinissez le type de connexion sur [Personnaliser] lorsque vous prsentez un LUN un hte ESXi. La
valeur est l'une des suivantes :

108

Pour HP EVAgl 3000/5000 (actif-passif), utilisez le type de mode d'hte 000000002200282E.

Pour HP EVAgl firmware 4.001 (microprogramme actif-actif pour la srie GL) et versions ultrieures,
utilisez le type de mode d'hte VMware.

Pour les baies actives/actives EVA4000/6000/8000 avec microprogramme antrieur 5.031, utilisez le
type de mode d'hte 000000202200083E.

VMware, Inc.

Chapitre 12 Modification des systmes de stockage iSCSI pour ESXi

Pour les baies actives/actives EVA4000/6000/8000 avec microprogramme 5.031 et versions ultrieures,
utilisez le type de mode d'hte VMware.

Sinon, les systmes EVA ne ncessitent aucune modification spciale de la configuration pour fonctionner
avec un systme ESXi.

Systmes de stockage NetApp


Pour que les systmes de stockage NetApp puissent communiquer dans un environnementESXi, vous devez
effectuer des tapes de configuration spcifiques.
Pour obtenir de la documentation supplmentaire sur NetApp, sur les meilleures pratiques VMware et sur
les solutions SAN, consultez la page Web NetApp.
Tableau 121. tapes de configuration
tape de configuration

Description

Dsactiver ALUA pour le


mode 7.

Si un de vos initiateurs iSCSI fait partie d'un groupe d'initiateurs (igroup), dsactivez
ALUA sur le contrleur NetApp en mode 7. ONTAP en cluster est ALUA uniquement.

Configurez le chemins
multiples.

Lorsque vous configurez les chemins multiples entre deux HBA iSCSI et plusieurs ports
sur un systme de stockage NetApp, attribuez aux deux HBA un nom d'initiateur iSCSI
diffrent.
Le systme de stockage NetApp n'autorise qu'une connexion chaque cible et chaque
initiateur. Toute connexion supplmentaire fait chouer la premire connexion. Par
consquent, un seul HBA ne doit pas tenter de se connecter plusieurs adresses IP
associes la mme cible NetApp.

Dfinissez le type de LUN et


le type de groupes
d'initiateur.

Dfinissez le type de LUN et le type de groupes d'initiateur appropris pour le systme


de stockage :
n Type de LUN : VMware (si le type VMware n'est pas disponible, utilisez Linux).
n Type de groupes d'initiateur : VMware (si le type VMware n'est pas disponible,
utilisez Linux).

Provisionnez le stockage.

Utilisez FilerView ou CLI.

Systmes de stockage Dell EqualLogic


Lors de la configuration de vos systmes de stockage EqualLogic pour qu'ils fonctionnent dans une mise en
uvre ESXi, vous devez poser certaines questions spcifiques.
Suivez ces conditions requises :
n

Vous n'avez pas besoin d'une configuration spciale chemins multiples. Les systmes de stockage
EqualLogic prennent en charge le basculement de processeur de stockage, transparent pour iSCSI.
Plusieurs HBA iSCSI ou adaptateurs rseau peuvent se connecter la mme cible ou LUN ct
stockage. EqualLogic fournit un module d'extensions de gestion multivoie qui peut tre install sur
l'ESXi pour offrir d'autres possibilits.
Pour plus d'informations sur les modules de configuration de gestion multivoie personnaliss,
contactez Dell EqualLogic.

Activez la redirection ARP pour les HBA iSCSI matriels ESXi. Reportez-vous Configuration des
paramtres avancs iSCSI , page 99.

Les systmes de stockage EqualLogic imposent une limite maximale de 1024 connexions iSCSI par pool
de stockage et 2048 connexions par groupes de stockage.

tendez le dlai d'attente de connexion iSCSI de l'hte ESXi 15-30 secondes. Reportez-vous
Configuration des paramtres avancs iSCSI , page 99.

VMware, Inc.

109

Stockage vSphere

Pour plus d'informations sur la configuration et l'utilisation des systmes de stockage EqualLogic, consultez
la documentation du fournisseur et l'article de la base de connaissances VMware l'adresse
http://kb.vmware.com/kb/2007829.

Systmes de stockage HP StorageWorks SAN/iQ


HP StorageWorks (autrefois LeftHand) Les SAN SAN/iQ prennent en charge les connexions iSCSI ESXi
partir d'un initiateur logiciel et d'un initiateur matriel.
Lors de la configuration de SAN/iQ, activez la resignature de volume automatique pour les priphriques
de stockage SAN/iQ pour autoriser l'accs aux snapshots SAN/iQ et aux copies distantes.
Pour plus d'informations sur la configuration du stockage HP StorageWorks pour VMware vSphere,
consultez la documentation du fournisseur relative VMware.
Les tapes de configuration de base incluent plusieurs tches.
1

Installez les nuds de stockage SAN/iQ.

Crez des groupes de gestion et des clusters SAN/iQ.

Crez des volumes.

Attribuez des volumes aux groupes d'authentification et aux listes de volume.

Activez la redirection ARP sur les HBA iSCSI matriels.

Pour une meilleure pratique, configurez l'quilibrage de charge IP virtuelle dans SAN/iQ pour tous les
groupes d'authentification ESXi.

Systmes de stockage Dell PowerVault MD3000i


Lorsque vous configurez le CHAP mutuel pour les systmes de stockage iSCSI MD3000i, certaines
considrations spciales s'appliquent.
Lorsque vous configurez le CHAP mutuel pour la baie iSCSI MD3000i, suivez ces instructions :
n

Sur le systme de stockage MD3000i, la configuration du CHAP mutuel ncessite uniquement un secret
CHAP.

Sur l'hte ESXi, la configuration du CHAP mutuel ncessite la fois le nom et le secret CHAP. Lors de
la configuration du CHAP mutuel sur l'hte ESXi, saisissez le nom IQN de la cible comme nom CHAP
mutuel. Veillez ce que le secret CHAP corresponde celui dfini sur la baie.

Cibles iSCSI dans vApp


Si vous utilisez une cible iSCSI dans un botier virtuel, par exemple HP LeftHand P4000 VSA, l'hte doit se
connecter la cible via l'adaptateur iSCSI logiciel plutt que via un adaptateur iSCSI matriel.

110

VMware, Inc.

Dmarrage partir du SAN iSCSI

13

Lorsque vous paramtrez votre hte pour qu'il dmarre depuis un SAN, l'image de dmarrage de votre hte
est archive sur une ou plusieurs numros d'unit logique (LUN) du systme de stockage du SAN. Lorsque
l'hte dmarre, il se lance partir de la LUN se trouvant sur le SAN et non pas partir du disque local.
Vous pouvez utiliser le dmarrage partir du SAN si vous ne souhaitez pas effectuer de maintenance de
l'archivage local ou si vous avez des configurations matrielles sans disques comme des systmes lame.
ESXi prend en charge diffrentes mthodes de dmarrage partir du SAN iSCSI.
Tableau 131. Prise en charge du dmarrage partir du SAN iSCSI
Matriel iSCSI indpendant

iSCSI logiciel et iSCSI matriel dpendant

Configurez le iSCSI HBA pour un dmarrage


partir du SAN. Pour plus d'informations sur la
configuration du HBA, consultez Configurez
l'adaptateur iSCSI matriel indpendant pour le
dmarrage partir du SAN , page 112

Utilisez l'adaptateur rseau qui prend en charge le iBFT. Pour plus


d'informations, consultez Prsentation de iBFT iSCSI Boot ,
page 114.

Ce chapitre aborde les rubriques suivantes :


n

Recommandations gnrales de dmarrage partir du SAN iSCSI , page 111

Prparation du SAN iSCSI , page 112

Configurez l'adaptateur iSCSI matriel indpendant pour le dmarrage partir du SAN , page 112

Prsentation de iBFT iSCSI Boot , page 114

Recommandations gnrales de dmarrage partir du SAN iSCSI


Si vous prvoyez de paramtrer et d'utiliser un numro d'unit logique (LUN) iSCSI en tant que
priphrique de dmarrage pour votre hte, vous devez suivre certaines instructions gnrales.
Les directives suivantes s'appliquent au dmarrage partir de matriels iBFT et iSCSI indpendants.
n

Consultez les recommandations de l'diteur du matriel que vous utilisez dans votre configuration de
dmarrage.

Pour connatre les spcifications pralables et requises d'installation, consultez Installation et


Configuration vSphere.

Utilisez des adresses IP statiques afin de rduire les risques de conflits DHCP.

Utilisez des LUN diffrentes pour les banques de donnes VMFS et les partitions de dmarrage.

Configurez correctement les ACL sur votre systme de stockage.


n

VMware, Inc.

La LUN de dmarrage doit uniquement tre visible pour l'hte qui utilise la LUN. Aucun autre
hte sur le SAN ne doit tre autoris voir cette LUN de dmarrage.

111

Stockage vSphere

Si une LUN est utilise pour une banque de donnes VMFS, elle peut tre partage par plusieurs
htes. Les ACL sur les systmes de stockage vous permettent d'effectuer ceci.

Configurez une partition de diagnostic.


n

Vous pouvez placer la partition de diagnostic sur le LUN de dmarrage uniquement avec iSCSI
matriel indpendant. Si vous configurez la partition de diagnostic dans la LUN de dmarrage,
cette LUN ne peut pas tre partage sur plusieurs htes. Si un LUN spar est utilis pour la
partition de diagnostic, il peut tre partag par de multiples htes.

Si vous dmarrez partir de SAN en utilisant iBFT, vous ne pouvez pas configurer une partition de
diagnostic sur un LUN SAN. Pour collecter les informations de diagnostic de votre hte, utilisez
vSphereESXi Dump Collector sur un serveur distant. Pour plus d'informations sur ESXi Dump
Collector, consultezInstallation et configuration de vSphere et Mise en rseau vSphere.

Prparation du SAN iSCSI


Avant de configurer votre hte pour qu'il dmarre partir d'un LUN du logiciel iSCSI, prparez et
configurez votre rseau de zone de stockage.
AVERTISSEMENT Si vous utilisez une installation base sur des scripts pour installer ESXi lors du dmarrage
partir d'un SAN, prenez des mesures particulires afin d'viter toutes pertes de donnes non intentionnelles.
Procdure
1

Connectez les cbles rseau en vous rfrant au guide de cblage s'appliquant votre configuration.

Vrifiez la connectivit IP entre votre systme de stockage et votre serveur.


Ceci inclut la configuration correcte de tous les routeurs ou commutateurs de votre rseau de stockage.
Les systmes de stockage doivent tre en mesure de vrifier la connexion aux adaptateurs iSCSI de vos
htes.

Configurez le systme de stockage.


a

Crez un volume (ou une LUN) sur le systme de stockage depuis lequel votre hte va dmarrer.

Configurez le systme de stockage afin que votre hte puisse accder la LUN qui lui est assigne.
Il pourrait tre ncessaire de mettre niveau les ACL avec les adresses IP, les noms des logiciels
iSCSI et avec le paramtre d'authentification CHAP utilis sur l'hte. Certains systmes de
stockage, en plus de devoir fournir les informations d'accs l'hte ESXi, exigent galement
d'associer de manire explicite le LUN assign l'hte.

Assurez-vous que la LUN est prsente correctement l'hte.

Assurez-vous qu'aucun autre systme n'a accs la LUN configure.

Notez le nom du logiciel iSCSI et les adresses IP des cibles assigne l'hte.
Vous devez avoir ces informations pour configurer vos adaptateurs iSCSI.

Configurez l'adaptateur iSCSI matriel indpendant pour le dmarrage


partir du SAN
Si votre hte ESXi utilise un adaptateur iSCSI matriel indpendant, tel que QLogic HBA, vous devez
configurer l'adaptateur pour dmarrer depuis le SAN.
Cette procdure vous explique comment activer le QLogic iSCSI HBA pour qu'il dmarre partir du SAN.
Pour plus d'informations et plus de dtails sur les paramtres de configuration de l'adaptateur QLogic,
rendez-vous sur le site Web de QLogic.

112

VMware, Inc.

Chapitre 13 Dmarrage partir du SAN iSCSI

Prrequis
tant donn que vous devez d'abord dmarrer partir du support d'installation de VMware, configurez
votre hte pour qu'il dmarre partir du CD/DVD-ROM. Pour effectuer cette opration, modifiez la
squence de dmarrage du systme dans votre configuration BIOS systme.
Procdure
1

Insrez le CD/DVD d'installation dans le lecteur de CD/DVD-ROM et redmarrez partir de l'hte.

Utilisez le BIOS pour paramtrer l'hte afin qu'il dmarre d'abord partir du CD/DVD-ROM.

Au cours du POST du serveur, appuyez sur les touches Ctrl+q pour entrer dans le menu de
configuration de QLogic iSCSI HBA.

Slectionnez le port d'E/S configurer.


Par dfaut, le mode Adaptateur dmarrage est paramtr sur Dsactiver.

Configurez le HBA.
a

partir du menu [Options Fast!UTIL ] , slectionnez [Paramtres de configuration] > [Paramtres


de l'adaptateur de l'hte] .

Configurez les paramtres suivants pour l'adaptateur de votre hte : adresse IP initiatrice, masque
de sous-rseau, passerelle, nom iSCSI initiateur et CHAP (si ncessaire).

Configurez les paramtres iSCSI.


Reportez-vous la section Configuration des paramtres de dmarrage de iSCSI , page 113.

Enregistrez vos changements et redmarrez le systme.

Configuration des paramtres de dmarrage de iSCSI


Lors de la configuration de votre hte ESXi pour qu'il dmarre depuis iSCSI, vous devez configurer les
paramtres de dmarrage iSCSI.
Procdure
1

Depuis le menu [Options Fast!UTIL ] , slectionnez [Paramtres de configuration] > [Paramtres de


dmarrage iSCSI] .

Avant de dfinir SendTargets, dfinissez le mode Adaptateur dmarrage sur [Manuel] .

Slectionnez [Paramtres du priphrique de dmarrage principal] .


a

Saisissez la dcouverte [IP cible] et [Port cible] .

Laissez les champs [Dmarrage LUN] et [Nom iSCSI] vides uniquement si une cible iSCSI et une
LUN sont l'adresse de dmarrage spcifie. Autrement, spcifiez ces champs afin de vous assurer
de ne pas dmarrer partir du volume d'un autre systme. Ds que le systme de stockage cible est
atteint, ces champs seront remplis aprs une nouvelle recherche.

Enregistrez vos changements.

Depuis le menu [Paramtres de dmarrage iSCSI] , slectionnez le priphrique de dmarrage


principal. Une nouvelle recherche du HBA est effectue automatiquement pour retrouver de nouvelles
LUN cibles.

Slectionnez la cible iSCSI.


REMARQUE S'il y a plusieurs LUN dans la cible, vous pouvez choisir un ID LUN spcifique en appuyant
sur [Entre] aprs avoir localis le priphrique iSCSI.

VMware, Inc.

113

Stockage vSphere

Retournez dans le menu [Paramtres du priphrique de dmarrage principal] . Aprs une nouvelle
recherche, les champs [Dmarrage LUN] et [Nom iSCSI] sont renseigns. Changez la valeur de
[Dmarrage LUN] sur l'ID LUN de votre choix.

Prsentation de iBFT iSCSI Boot


Les htes ESXi peuvent dmarrer depuis le SAN iSCSI en utilisant l'adaptateur iSCSI logiciel ou l'adaptateur
de matriel iSCSI dpendant et les adaptateurs rseau.
Pour dployer ESXi et dmarrer partir du SAN iSCSI, l'hte doit avoir une carte rseau compatible iSCSI
Boot qui prend en charge le format iBFT (iSCSI Boot Firmware Table). L'iBFT permet de communiquer les
paramtres du priphrique iSCSI Boot au systme d'exploitation.
Avant d'installer ESXi et de dmarrer partir de SAN iSCSI, configurez les paramtres rseau et de
dmarrage iSCSI sur la carte rseau et activez la carte pour le dmarrage iSCSI. tant donn que la
configuration de la carte rseau est propre au fournisseur, consultez la documentation correspondante pour
obtenir des instructions.
Lors du premier dmarrage partir de iSCSI, le microprogramme de dmarrage iSCSI de votre systme se
connecte une cible iSCSI. En cas de connexion russie, le microprogramme enregistre les paramtres
rseau et de dmarrage du logiciel iSCSI dans l'iBFT et stocke la table dans la mmoire du systme. Le
systme utilise cette table pour configurer sa connexion et son rseau iSCSI ainsi que son dmarrage.
La liste suivante dcrit la squence de iBFT iSCSI boot.
1

Une fois redmarr, le BIOS du systme dtecte le microprogramme iSCSI Boot sur la carte rseau.

Le microprogramme iSCSI Boot utilise les paramtres de dmarrage prconfigurs pour se connecter
la cible iSCSI spcifie.

En cas de connexion russie la cible iSCSI, le microprogramme iSCSI Boot crit les paramtres rseau
et de dmarrage iSCSI dans l'iBFT et stocke la table dans la mmoire du systme.
REMARQUE Le systme utilise cette table pour configurer sa connexion et son rseau iSCSI ainsi que son
dmarrage.

Le BIOS dmarre le priphrique de dmarrage.

Le VMkernel commence le chargement et reprend l'opration de dmarrage.

Le VMkernel utilise les paramtres de dmarrage depuis l'iBFT pour se connecter la cible iSCSI.

Une fois la connexion iSCSI tablie, le systme dmarre.

Considrations sur iBFT iSCSI Boot


Si vous dmarrez l'hte ESXi partir de iSCSI en utilisant les adaptateurs rseau iBFT, certaines
considrations s'appliquent.
iBFT iSCSI Boot ne prend pas en charge les lments suivants :
n

IPv6

Basculement sur les adaptateurs rseau iBFT

REMARQUE Mettez jour le code de dmarrage de vos adaptateurs rseau et le microprogramme iBFT en
utilisant les outils du fournisseur avant d'installer et de dmarrer la version VMwareESXi. Consultez la
documentation du fournisseur et le guide VMware HCL pour connatre le code de dmarrage pris en charge
et les versions de microprogramme iBFT pour le dmarrage VMware ESXi iBFT. Il se peut que le code de
dmarrage et le microprogramme iBFT publis par les fournisseurs avant la version ESXi 4.1 ne fonctionnent
pas.

114

VMware, Inc.

Chapitre 13 Dmarrage partir du SAN iSCSI

Une fois votre hte configur pour qu'il dmarre depuis iBFT iSCSI, les restrictions suivantes s'appliquent :
n

Vous ne pouvez pas dsactiver l'adaptateur logiciel iSCSI. Si la configuration iBFT est prsente dans le
BIOS, l'hte ractive l'adaptateur logiciel iSCSI lors de chaque redmarrage.
REMARQUE Si vous n'utilisez pas l'adaptateur rseau iBFT pour le dmarrage iSCSI et ne voulez pas que
l'adaptateur iSCSI logiciel soit toujours activ, supprimez la configuration iBFT de l'adaptateur rseau.

Vous ne pouvez pas supprimer la cible de dmarrage iBFT iSCSI l'aide de Client Web vSphere. La
cible apparat sur la liste de cibles statiques d'adaptateurs.

Configuration du dmarrage iBFT partir du SAN


Vous pouvez dmarrer depuis le SAN iSCSI en utilisant l'adaptateur iSCSI logiciel ou un adaptateur de
matriel iSCSI dpendant et un adaptateur rseau. L'adaptateur rseau doit prendre en charge l'iBFT.
Lorsque vous configurez votre hte pour qu'il dmarre avec iBFT, vous effectuez plusieurs tches.
1

Configuration des paramtres de dmarrage iSCSI page 115


Pour lancer un processus de dmarrage iSCSI, votre hte doit possder une carte rseau dote d'un
microprogramme de dmarrage iSCSI spcialement configur. Lorsque vous configurez le
microprogramme, vous spcifiez les paramtres rseau et iSCSI et activez la carte pour le dmarrage
iSCSI.

Modification de la squence de dmarrage dans le BIOS page 116


Lors de la configuration de votre hte pour qu'il dmarre depuis iBFT iSCSI, changez la squence de
dmarrage pour forcer votre hte dmarrer dans l'ordre appropri.

Installation de ESXi sur la cible iSCSI page 116


Lors de la configuration de votre hte pour qu'il dmarre depuis iBFT iSCSI, installez l'image ESXisur
le LUN cible.

Dmarrage de ESXi partir de la cible iSCSI page 117


Aprs avoir prpar l'hte pour un dmarrage iBFT iSCSI et copi l'image ESXi sur la cible iSCSI,
procdez au dmarrage.

Configuration des paramtres de dmarrage iSCSI


Pour lancer un processus de dmarrage iSCSI, votre hte doit possder une carte rseau dote d'un
microprogramme de dmarrage iSCSI spcialement configur. Lorsque vous configurez le
microprogramme, vous spcifiez les paramtres rseau et iSCSI et activez la carte pour le dmarrage iSCSI.
La configuration sur la carte rseau peut tre dynamique ou statique. Si vous utilisez la configuration
dynamique, vous indiquez que tous les paramtres de dmarrage de la cible et de l'initiateur sont acquis
l'aide de DHCP. Pour la configuration statique, vous entrez manuellement les donnes, savoir l'adresse IP
de votre hte et l'initiateur IQN, et les paramtres de la cible.
Procdure
u

Sur la carte rseau que vous utilisez pour le dmarrage depuis iSCSI, spcifiez les paramtres rseau et
iSCSI.
tant donn que la configuration de la carte rseau est propre au fournisseur, consultez la
documentation correspondante pour obtenir des instructions.

VMware, Inc.

115

Stockage vSphere

Modification de la squence de dmarrage dans le BIOS


Lors de la configuration de votre hte pour qu'il dmarre depuis iBFT iSCSI, changez la squence de
dmarrage pour forcer votre hte dmarrer dans l'ordre appropri.
Changez la squence de dmarrage du BIOS selon l'ordre suivant :
n

iSCSI

DVD-ROM

La modification de la squence de dmarrage dans le BIOS tant propre au fournisseur, reportez-vous la


documentation du fournisseur pour plus d'instructions. La procdure type suivante dcrit comment changer
la squence de dmarrage sur un hte Dell avec une carte rseau Broadcom.
Procdure
1

Mettez l'hte sous tension.

Lors du POST (Power-On Self-Test), appuyez sur F2 pour entrer dans la configuration du BIOS.

Dans la configuration du BIOS, slectionnez la [Squence de dmarrage] et appuyez sur Entre.

Dans le menu Squence de dmarrage, ordonnez les lments de dmarrage de faon ce que iSCSI
prcde le DVD-ROM.

Appuyez sur chap pour quitter le menu Squence de dmarrage.

Appuyez sur chap pour quitter la Configuration du BIOS.

Slectionnez [Enregistrer les changements] et cliquez sur [Quitter] pour quitter le menu Configuration
du BIOS.

Installation de ESXi sur la cible iSCSI


Lors de la configuration de votre hte pour qu'il dmarre depuis iBFT iSCSI, installez l'image ESXisur le
LUN cible.
Prrequis
n

Configurez le microprogramme iSCSI Boot sur votre carte rseau de dmarrage de faon le diriger
vers le LUN cible que vous souhaitez utiliser comme LUN de dmarrage.

Changez la squence de dmarrage dans le BIOS afin que iSCSI prcde le DVD-ROM.

Si vous utilisez des cartes Broadcom, dfinissez [Dmarrer sur la cible iSCSI] comme [Dsactiv] .

Procdure
1

Insrez le support d'installation dans le lecteur de CD/DVD-ROM et redmarrez l'hte.

Lorsque le programme d'installation dmarre, suivez la procdure d'installation type.

Lorsque vous y tes invit, slectionnez le LUN iSCSI comme cible d'installation.
Le programme d'installation copie l'image de dmarrage ESXi sur le LUN iSCSI.

116

Suite au redmarrage du systme, retirez le DVD d'installation.

VMware, Inc.

Chapitre 13 Dmarrage partir du SAN iSCSI

Dmarrage de ESXi partir de la cible iSCSI


Aprs avoir prpar l'hte pour un dmarrage iBFT iSCSI et copi l'image ESXi sur la cible iSCSI, procdez
au dmarrage.
Prrequis
n

Configurez le microprogramme iSCSI Boot sur votre carte rseau de dmarrage de faon le diriger
vers le LUN de dmarrage.

Changez la squence de dmarrage dans le BIOS afin que iSCSI prcde le priphrique de dmarrage.

Si vous utilisez les cartes Broadcom, dfinissez [Dmarrage vers la cible iSCSI] comme [Activ]

Procdure
1

Redmarrez l'hte.
L'hte dmarre partir de la LUN du logiciel iSCSI l'aide des donnes iBFT. Lors du dmarrage
initial, le script d'initialisation iSCSI paramtre le rseau par dfaut. La configuration du rseau ne
change pas suite aux prochains redmarrages.

(Facultatif) Ajustez la configuration du rseau en utilisant Client Web vSphere.

Meilleures pratiques de mise en rseau


Pour dmarrer l'hte ESXi partir de iSCSI en utilisant iBFT, vous devez configurer correctement la mise en
rseau.
Pour une scurit renforce et des performances optimales, utilisez des adaptateurs rseau redondantes sur
l'hte.
La manire dont vous paramtrez toutes les adaptateurs rseau dpend de l'utilisation par votre
environnement de rseaux partags ou isols pour le trafic iSCSI et le trafic de gestion de l'hte.

Rseaux iSCSI et de gestion partags


Configurez la mise en rseau et les paramtres iSCSI sur la premire carte rseau sur l'hte. Une fois que
l'hte a dmarr, vous pouvez ajouter des adaptateurs rseau secondaires au groupes de ports par dfaut.

Rseaux iSCSI et de gestion isols


Lorsque vous configurez des rseaux iSCSI et de gestion isols, suivez ces directives pour viter des
problmes de bande passante.
n

Vos rseaux isols doivent tre dans des sous-rseaux diffrents.

Si vous utilisez des VLAN pour isoler les rseaux, ceux-ci doivent avoir des sous-rseaux diffrents afin
d'assurer que les tables de routage sont paramtres correctement.

VMware recommande de configurer l'adaptateur iSCSI et la cible de faon ce qu'ils se trouvent dans le
mme sous-rseau. Si vous configurez l'adaptateur iSCSI et la cible afin qu'ils se trouvent dans
diffrents sous-rseaux, les restrictions suivantes s'appliquent :
n

La passerelle VMkernel par dfaut doit pouvoir acheminer le trafic iSCSI et le trafic de gestion.

Une fois que l'hte a dmarr, vous pouvez utiliser l'adaptateur rseau iBFT uniquement pour
iBFT. Vous ne pouvez pas utiliser l'adaptateur pour tout autre trafic iSCSI.

Utilisez la premire carte rseau physique pour le rseau de gestion.

Utilisez la deuxime carte rseau physique pour le rseau iSCSI. Assurez-vous d'avoir configur l'iBFT.

VMware, Inc.

117

Stockage vSphere

Une fois que l'hte a dmarr, vous pouvez ajouter des adaptateurs rseau secondaires aux rseaux de
gestion et rseaux iSCSI.

Modification des paramtres iBFT iSCSI Boot


Si les paramtres, tels que le nom IQN, l'adresse IP et autres, changent sur le stockage du logiciel iSCSI ou
sur votre hte, mettez niveau l'iBFT. Cette tche suppose que la LUN de dmarrage et les donnes stockes
sur la LUN demeurent intactes.
Procdure
1

Arrtez l'hte ESXi.

Changez les paramtres de stockage iSCSI.

Mettez niveau l'iBFT sur l'hte avec les nouveaux paramtres.

Redmarrez l'hte.
L'hte dmarre en utilisant les nouvelles informations stockes dans l'iBFT.

Dpannage de iBFT iSCSI Boot


Les rubriques dans cette section vous permettent d'identifier et de rsoudre les problmes que vous
pourriez rencontrez lors de l'utilisation de iBFT iSCSI Boot.

La perte de passerelle du systme provoque la perte de connectivit du rseau


Vous perdez la connectivit du rseau lorsque vous supprimez un groupe de ports associ la carte rseau
iBFT.
Problme
Une perte de connectivit se produit suite une suppression d'un groupe de ports.
Cause
Lorsque vous spcifiez une passerelle dans l'adaptateur rseau iBFT lors de l'installation ESXi, cette
passerelle devient la passerelle par dfaut du systme. Si vous supprimez le groupe de ports associ la
carte rseau, la passerelle par dfaut du systme est perdue. Cette action provoque la perte de connectivit
du rseau.
Solution
Ne dfinissez pas une passerelle iBFT sauf si elle est requise. Si la passerelle est requise, aprs l'installation,
dfinissez manuellement la passerelle par dfaut du systme celle utilise par le rseau de gestion.

La modification des paramtres de dmarrage du systme iSCSI fait dmarrer


ESXi en mode sans tat
La modification des paramtres de dmarrage iSCSI sur la carte rseau aprs le dmarrage initial ne met pas
jour la configuration iSCSI et du rseau sur l'hte ESXi .
Problme
Si vous changez les paramtres de dmarrage iSCSI sur la carte rseau aprs le premier dmarrage de ESXi
depuis iSCSI, l'hte dmarrera en mode sans tat.

118

VMware, Inc.

Chapitre 13 Dmarrage partir du SAN iSCSI

Cause
Le microprogramme utilise la configuration de dmarrage mise jour et peut se connecter la cible iSCSI et
tlcharger l'image ESXi. Toutefois, lorsque le systme est charg, il ne capte pas les nouveaux paramtres,
mais continue utiliser les paramtres rseau et iSCSI persistants du dmarrage prcdent. L'hte ne peut
donc pas se connecter la cible et dmarre en mode sans tat.
Solution
1

Utilisez Client Web vSpherepour la connexion l'hteESXi.

Reconfigurez iSCSI et la mise en rseau sur l'hte de faon faire correspondre les paramtres aux
paramtres iBFT.

Effectuez une nouvelle analyse.

VMware, Inc.

119

Stockage vSphere

120

VMware, Inc.

Meilleures pratiques pour le stockage


iSCSI

14

Lorsque vous utilisez ESXi avec le SAN iSCSI, suivez les meilleures pratiques que VMware offre pour viter
des problmes.
Consultez votre reprsentant de stockage pour savoir si votre systme de stockage prend en charge les
fonctionnalits d'acclration matrielle API de stockage - Intgration de baie. Le cas chant, consultez la
documentation du fournisseur pour plus d'informations sur le mode d'activation de la prise en charge de
l'acclration matrielle du ct du systme de stockage. Pour plus d'informations, voir Chapitre 24,
Acclration matrielle du stockage , page 257.
Ce chapitre aborde les rubriques suivantes :
n

Prvention des problmes de iSCSI SAN , page 121

Optimisation des performances du stockage SAN iSCSI , page 122

Consultation des statistiques des commutateurs Ethernet , page 126

Liste de vrification de la configuration du SAN iSCSI , page 126

Prvention des problmes de iSCSI SAN


Lorsque vous utilisez ESXi conjointement un SAN, vous devez suivre des directives spcifiques afin
d'viter des problmes de SAN.
Vous devriez observer ces conseils, afin d'viter des problmes dans votre configuration SAN :
n

Placez une seule banque de donnes VMFS sur chaque LUN. Avoir plusieurs banques de donnes
VMFS sur un seul LUN n'est pas recommand.

Ne changez pas la politique de chemin que le systme dfinit, sauf si vous comprenez les implications
de tels changements.

Documentez tout ce que vous faites. Incluez des informations sur la configuration, le contrle d'accs, le
stockage, le commutateur, le serveur et la configuration HBA iSCSI, les versions de logiciel et
microprogramme, et le plan des cbles de stockage.

Plan en cas de panne :

VMware, Inc.

Fates plusieurs copies de vos mappages topologiques. Pour chaque lment, envisagez les
consquences sur votre SAN si cet lment tombe en panne.

Rayez chaque lien, commutateurs, HBA et autres lments pour vrifier que vous n'avez omis
aucun point de panne critique dans votre architecture.

Assurez-vous que les HBA iSCSI sont installs dans les slots corrects de l'hte ESXi selon la vitesse du
slot et du bus. quilibrez la charge de bus PCI entre les divers bus du serveur.

121

Stockage vSphere

Familiarisez-vous avec les diffrents points de contrle de votre rseau de stockage, sur tous les points
de visibilit, y compris l'ESXi, les graphiques de performance, les statistiques des commutateurs FC et
des performances de stockage.

Soyez prudent lorsque vous modifiez les ID des LUN qui prennent en charge des banques de donnes
en cours d'utilisation par votre hte. Si vous modifiez les ID, ces machines virtuelles en fonction sur les
banque de donnes VMFS tomberont en panne.
Si aucune machine virtuelle ne se trouve en fonction sur la banque de donnes VMFS, aprs avoir
modifi l'ID du LUN vous devez ranalyser pour rinitialiser l'ID de votre hte. Pour plus
d'informations sur la fonction ranalyse, consultez Oprations d'actualisation et de ranalyse du
stockage , page 131.

Si vous devez changer le nom iSCSI par dfaut de votre adaptateur iSCSI, assurez-vous que le nom que
vous entrez est unique mondialement et correctement format. Pour viter des problmes d'accs de
stockage, n'attribuez jamais le mme nom iSCSI diffrents adaptateurs, mme sur diffrents htes.

Optimisation des performances du stockage SAN iSCSI


Plusieurs facteurs contribuent l'optimisation d'un environnement SAN classique.
Si l'environnement de rseau est correctement configur, les composants iSCSI fournissent un dbit adquat
et une latence suffisamment basse pour les initiateurs et les cibles iSCSI. Si le rseau est congestionn et les
liens, commutateurs et routeurs sont saturs, la performance iSCSI en souffre et risque de ne plus convenir
un environnement ESXi.

Performances des systmes de stockage


Les performances des systmes de stockage sont l'un des principaux facteurs contribuant aux performances
de la totalit de l'environnement iSCSI.
En cas de problme de performances des systmes de stockage, consultez la documentation de votre diteur
de systmes de stockage.
Lors de l'attribution des LUN, souvenez-vous que chaque LUN partag est accessible par plusieurs htes et
que plusieurs machines virtuelles peuvent excuter sur chaque hte. Un LUN utilis par l'hte ESXi peut
servir des E/S provenant d'applications trs varies et excutes sur diffrents systmes d'exploitation. En
raison de ces charges de travail trs varies, le groupe RAID contenant les LUN ESXi ne doit pas inclure de
LUN utiliss par d'autres htes qui n'excutent pas ESXi pour les applications intensives.
Activez le cache de lecture et le cache d'criture.
L'quilibrage de charge est le processus distribution des requtes d'E/S serveur sur tous les SP disponibles et
les chemins d'accs au serveur d'hte associ. Le but est d'optimiser les performances en termes de dbit
(E/S par seconde, mga-octets par seconde ou temps de rponse).
Les systmes de stockage SAN ncessitent des modifications et des ajustements permanents pour s'assurer
que les charges d'E/S sont rparties sur tous les chemins d'accs des systmes de stockage. Pour rpondre
cette exigence, rpartissez les chemins d'accs vers les LUN entre tous les SP pour assurer un quilibrage de
charge optimal. Une surveillance attentive permet de savoir quand il est ncessaire de rquilibrer
manuellement la rpartition des LUN.
L'ajustement des systmes de stockage quilibres de manire statique implique la surveillance de
statistiques de performance spcifiques (nombre d'oprations d'entre-sortie par seconde, blocs par seconde
et temps de rponse) et la rpartition de la charge de travail des LUN pour rpartir la charge de travail sur
tous les SP.

122

VMware, Inc.

Chapitre 14 Meilleures pratiques pour le stockage iSCSI

Performances de serveur avec iSCSI


Vous devez tenir compte de diffrents facteurs pour garantir des performances optimales des serveurs.
Chaque application de serveur doit avoir accs son stockage dsign aux conditions suivantes :
n

Vitesse d'E/S leve (nombre d'oprations d'entre-sortie par seconde)

Rendement lev (mgaoctets par seconde)

Latence minimale (temps de rponse)

Comme chaque application a diffrentes exigences, ces objectifs peuvent tre remplis en choisissant un
groupe RAID appropri sur le systme de stockage. Pour atteindre les objectifs de performance, effectuez les
tches suivantes :
n

Placez chaque LUN sur un groupe RAID qui offre les niveaux de performance ncessaires. Faites
attention aux activits et l'utilisation des ressources d'autres LUN dans le groupes RAID associ. Un
groupe RAID haute performance ayant un nombre excessif d'applications effectuant des E/S risque de
ne pas satisfaire aux exigences de performance requises par une application excute sur l'hte ESXi.

Prvoyez un nombre suffisant des adaptateurs rseau ou des adaptateurs iSCSI matriel pour autoriser
un dbit maximum pour toutes les applications hberges sur le serveur pendant la priode de pointe.
Une entre/sortie rpartie sur plusieurs ports prsente un dbit suprieur et moins de latence pour
chaque application.

Pour assurer la redondance d'iSCSI logiciel, vrifiez que l'initiateur est connect tous les adaptateurs
rseau utiliss pour la connectivit iSCSI.

Lors de l'allocation de groupes LUN ou RAID aux systmes ESXi, plusieurs systmes d'exploitation
utilisent et partagent cette ressource. Par consquent, les performances requises de la part de chaque
LUN du sous-systme de stockage peuvent tre nettement suprieures en cas d'utilisation du systme
ESXi qu'avec des machines physiques. Par exemple, si vous pensez exploiter quatre applications
fortes E/S, allouez quatre fois les capacits de performance aux LUN de l'ESXi.

En cas d'utilisation de plusieurs systmes ESXi avec vCenter Server, les performances requises pour le
sous-systme de stockage augmentent en consquence.

Le nombre d'E/S en attente requises par applications excutes sur un systme ESXi doit correspondre
au nombre d'E/S pouvant tre traites par le SAN.

Performances du rseau
Gnralement, un SAN consiste en un ensemble d'ordinateurs connects un ensemble de systmes de
stockage par un rseau de commutateurs. Il arrive souvent que plusieurs ordinateurs accdent au mme
stockage.
La connexion au stockage par lien ethernet unique montre plusieurs systmes informatiques connects un
systme de stockage par un commutateur ethernet. Dans cette configuration, chaque systme est connect
par un lien ethernet unique au commutateur, qui est galement connect au systme de stockage par un lien
ethernet unique. Dans la plupart des configurations, avec des commutateurs modernes et un trafic classique,
cela ne constitue pas un problme.

VMware, Inc.

123

Stockage vSphere

Figure 141. Connexion au stockage par lien ethernet unique

Lorsque les systmes lisent les donnes du stockage, la rponse maximum du stockage consiste envoyer
suffisamment de donnes pour remplir le lien entre les systmes de stockage et le swicth ethernet. Il est peu
probable qu'un systme ou machine virtuelle seuls exploite totalement la vitesse du rseau, mais cependant
cette situation peut survenir lorsque de nombreux systmes partage un mme priphrique de stockage.
Lorsqu'ils crivent des donnes sur le stockage, des systmes ou machines virtuelles multiples peuvent
tenter d'exploiter totalement la vitesse de leurs liens. Comme l'illustration Paquets abandonns le montre
lorsque cela survient, le commutateur entre les systmes et le systme de stockage se trouvent contraints
d'abandonner des donnes. En effet, bien que sa connexion au systme de stockage soit unique, le
commutateur a plus de trafic envoyer au systme de stockage qu'un seul lien peut en prend en charger.
Dans ce cas, le commutateur abandonne des paquets rseau parce que la quantit de donnes qu'il peut
transmettre est limite par la vitesse du lien entre lui et le systme de stockage.
Figure 142. Paquets abandonns
1 Gbit
1 Gbit

1 Gbit
paquets abandonns

La restauration de paquets rseau abandonns provoque une forte dtrioration des performances. En plus
du temps pass dterminer quelles donnes ont t abandonnes, leur retransmission utilise la bande
passante qui pourrait autrement servir aux transactions actuelles.
Le trafic iSCSI est assur sur le rseau par le protocole de contrle de transmission TCP. TCP est un
protocole de transmission fiable, qui veille ce que les paquets abandonns soient reprsents, et enfin
atteignent leur destination. TCP est conu pour restaurer les paquets abandonns, et les retransmettre
rapidement et sans coupure. Toutefois, lorsque le commutateur abandonne des paquets rgulirement, la
performance rseau peut en souffrir nettement. Le rseau est alors congestionn par les requtes de
rexpdition de donnes en plus des paquets renvoys, ce qui permet de transmettre moins de donnes que
dans un rseau non congestionn.
La plupart des commutateurs ethernet peuvent conserver en mmoire tampon ou stocker les donnes et
attribuer chaque priphrique tentant d'envoyer des donnes une chance gale de joindre la destination.
Cette capacit conserver en mmoire tampon certaines transmissions, combine avec plusieurs systmes
limitant le nombre de commandes en suspend, permet de petites rafales de plusieurs systmes d'tre
achemins leur tour vers un systme de stockage.

124

VMware, Inc.

Chapitre 14 Meilleures pratiques pour le stockage iSCSI

Si les transactions sont volumineuses et que de nombreux serveurs tentent d'envoyer des donnes par un
port de commutation unique, la capacit de ce commutateur conserver en mmoire tampon une requte
pendant qu'il en traite une autre peut se retrouver dpasse. Dans un tel cas, le swicth abandonne les
donnes qu'il ne peut pas envoyer, et le systme de stockage doit demander la retransmission du paquet
abandonn. Par exemple, si un commutateur ethernet peut placer en tampon 32 ko sur un port d'entre,
mais que le serveur auquel il est connect pense pourvoir en envoyer 256 Ko au priphrique de stockage,
certaines donnes seront abandonnes.
La plupart des commutateurs administrables fournissent des informations sur les paquets abandonns, qui
ressemblent ceci :
*: interface is up
IHQ: pkts in input hold queue
OHQ: pkts in output hold queue
RXBS: rx rate (bits/sec)
TXBS: tx rate (bits/sec)
TRTL: throttle count

IQD: pkts dropped from input queue


OQD: pkts dropped from output queue
RXPS: rx rate (pkts/sec)
TXPS: tx rate (pkts/sec)

Tableau 141. Exemple d'information du commutateur


Interface

IHQ

IQD

OHQ

OQD

RXBS

RXPS

TXBS

TXPS

TRTL

*
GigabitEt
hernet0/1

9922

47630300
0

62273

47784000
0

63677

Dans cet exemple provenant d'un commutateur Cisco, la bande passante utilise est de 476303000
bits/seconde, moins de la moiti de la bande passante physique. Et malgr cela, le port plaait en mmoire
tampon des paquets arrivant et en abandonnait un nombre certain. La ligne finale de ce rsum d'interface
indique dans la colonne IQD que le port a dj abandonn presque 10 000 paquets arrivants.
Pour viter ce problme il est ncessaire de modifier la configuration en s'assurant que plusieurs liens
ethernet arrivants ne se retrouve en goulot d'tranglement sur un seul lien sortant, provoquant une
surcharge du lien trop abonn. Lorsqu'un certain nombre de liens transmettant quasi saturation sont
redirigs vers un plus petit nombre de liens, le surabonnement devient possible.
Gnralement, les applications ou systmes qui crivent beaucoup de donnes sur le stockage, tels que
l'acquisition ou les systmes de journalisation des transactions, ne doivent pas partager le mme lien vers le
priphrique de stockage. Ces types d'applications sont les plus efficaces avec des connexions multiples aux
priphriques de stockage.
L'illustration Multiple connexions du commutateur au stockage montre des connexions multiples du
commutateur au stockage.
Figure 143. Connexions multiples du commutateur au stockage
1 Gbit
1 Gbit
1 Gbit
1 Gbit

L'utilisation de VLANs ou de VPNs n'apporte pas de solution adquate au problme du surabonnement des
liens en configurations partages. Les VLANs et autres partitionnements virtuels d'un rseau fournissent
une conception logique du rseau, mais ne modifient pas les capacits physiques des liens et des
transmissions entre les commutateurs. Lorsque le trafic de stockage et autres trafics rseau partagent des

VMware, Inc.

125

Stockage vSphere

connexions physiques, comme dans un VPN, la possibilit de surabonnement et de paquets perdus est
relle. Cela est aussi vrai pour les VLANs qui partagent des transmissions intercommutateur. La conception
des performances pour un SAN doit prendre en compte les limitations physiques du rseau, pas les
allocations logiques.

Consultation des statistiques des commutateurs Ethernet


Souvent les commutateurs ethernet fournissent des moyens de surveiller leur bon fonctionnement.
Les commutateurs dont certains ports oprent dbit maximal souvent n'assurent pas une performance
optimale. Si vous avez des ports dans votre SAN iSCSI oprant presque au maximum, rduisez leur charge.
Si le port est connect un systme ESXi ou un stockage iSCSI, vous pouvez rduire sa charge par
quilibrage de charge manuel.
Si le port est connect entre de nombreux commutateurs ou routeurs, pensez installer des liens
supplmentaires entre ces composants afin de pouvoir grer une plus grande charge. Les commutateurs
ethernet fournissent aussi frquemment des informations sur les erreurs de transmission, les paquets en file
d'attente, et les paquets ethernet abandonns. Si le commutateur rapporte rgulirement de telles conditions
pour les ports utiliss par le trafic iSCSI, la performance du SAN iSCSI sera rduite.

Liste de vrification de la configuration du SAN iSCSI


Cette rubrique vous fournit une liste de vrification des configurations spciales requises pour l'installation
sur les diffrents systmes de stockage et sur les htes ESXi.
Tableau 142. Configuration requise pour le SAN iSCSI
Composant

Commentaires

Tous les systmes de


stockage

Le cache en criture doit tre dsactiv s'il n'est pas soutenu par batterie.

Topologie

Une dfaillance unique ne peut en aucun cas entraner le basculement de HBA et de SP,
tout particulirement, avec des baies de stockage actives/passives.

EMC Symmetrix

Activez les paramtres SPC2 et SC3. Contactez EMC pour obtenir les paramtres les plus
rcents.

EMC Clariion

Rglez le mode de basculement de EMC Clariion sur 1 ou 4. Contactez EMC pour les
dtails.

HP MSA

Aucune configuration spcifique requise

HP EVA

Pour la version 4.001 et suprieure du microprogramme EVA3000/5000 et pour la version


5.031 et suprieure du microprogramme EVA4000/6000/8000, dfinissez le type d'hte sur
VMware.
Sinon, dfinissez le type de mode de l'hte sur Custom. La valeur est :
n Version 3.x du microprogramme EVA3000/5000 : 000000002200282E
n EVA4000/6000/8000 : 000000202200083E

126

NetApp

Si un de vos initiateurs iSCSI fait partie d'un groupe d'initiateurs (igroup), dsactivez
ALUA sur la baie NetApp.

Dell EqualLogic

Assurez-vous que ARP Redirect est activ sur les adaptateurs iSCSI du matriel
indpendant.

VMware, Inc.

Chapitre 14 Meilleures pratiques pour le stockage iSCSI

Tableau 142. Configuration requise pour le SAN iSCSI (suite)


Composant

Commentaires

HP StorageWorks (autrefois
LeftHand)

Assurez-vous que ARP Redirect est activ sur les adaptateurs iSCSI du matriel
indpendant.

Configuration ESXi

Dfinissez les paramtres avancs suivants pour l'hte ESXi : [Disk.UseLunReset] [1] .
Une rgle de gestion multivoie plus rcemment utilise (Most Recently Used) doit tre
dfinie pour toutes les LUN hbergeant des disques en cluster pour les baies
actives/passives. Une rgle de gestion multivoie plus rcemment utilise (Most Recently
Used) ou fixe (Fixed) doit tre dfinie pour toutes les LUN sur les baies actives/passives.
Autorisez la redirection ARP si le systme de stockage prend en charge le basculement
transparent.

VMware, Inc.

127

Stockage vSphere

128

VMware, Inc.

Gestion des priphriques de


stockage

15

Grez le priphrique de stockage en rseau ou local auquel votre hteESXi a accs.


Ce chapitre aborde les rubriques suivantes :
n

Explication du nommage de priphriques de stockage , page 129

Oprations d'actualisation et de ranalyse du stockage , page 131

Identification des problmes de connexion de priphrique , page 133

Explication du nommage de priphriques de stockage


Chaque priphrique de stockage, ou LUN, est identifi par plusieurs noms.

Identificateurs de priphrique
Selon le type de stockage, l'hte ESXi utilise diffrents algorithmes et conventions pour gnrer un
identificateur pour chaque priphrique de stockage.
Identificateurs de SCSI
INQUIRY.

L'hte utilise la commande SCSI INQUIRY pour interroger un priphrique


de stockage et utilise les donnes rsultantes, en particulier les informations
de la Page 83, pour gnrer un identificateur unique. Les identificateurs de
priphrique qui sont bass sur la Page 83 sont uniques pour tous les htes,
permanents, et ont l'un des formats suivants :
n

naa.number

t10.number

eui.number

Ces formats sont conformes aux normes du comit T10. Consultez la


documentation SCSI-3 sur le site Web du comit T10.
Identificateur bas sur
le chemin.

Lorsque le priphrique ne fournit pas les informations de la Page 83, l'hte


gnre un nom .mpxpath, o path reprsente le premier chemin d'accs au
priphrique, par exemple, mpx.vmhba1:C0:T1:L3. Cet identificateur peut
tre utilis de la mme manire que SCSI INQUIRY l'identifie.
L'identificateur mpx. est cr pour les priphriques locaux dans l'hypothse
que leurs noms de chemin sont uniques. Toutefois, cet identificateur n'est ni
unique ni permanent et pourrait changer aprs chaque dmarrage.
En gnral, le chemin vers le priphrique est au format suivant :

VMware, Inc.

129

Stockage vSphere

vmhbaAdapter:CChannel:TTarget:LLUN
n

vmhbaAdapter est le nom de l'adaptateur de stockage. Le nom fait


rfrence la carte physique sur l'hte et non au contrleur SCSI utilis
par les machines virtuelles.

CChannel est le numro de canal de stockage.


Les adaptateurs iSCSI logiciels et les adaptateurs de matriel iSCSI
dpendants utilisent le numro de canal pour prsenter plusieurs
chemins menant la mme cible.

TTarget est le numro cible. La numrotation de la cible est choisie par


l'hte et peut tre modifie en cas de changement de mappages des
cibles visibles par l'hte. Les cibles qui sont partages par diffrents
htes n'ont pas ncessairement le mme numro cible.

LLUN est le numro de LUN qui indique la position du LUN dans la


cible. Le numro de LUN est fourni par le systme de stockage. Si une
cible possde un seul LUN, le numro de LUN est toujours zro (0).

Par exemple, vmhba1:C0:T3:L1 reprsente LUN1 sur la cible 3 accessible via


l'adaptateur de stockage vmhba1 et le canal 0.

Identificateur hrit
Outre les identificateurs SCSI INQUIRY ou mpx., pour chaque priphrique, ESXi gnre un autre nom
hrit. L'identificateur est au format suivant :
vml.number
L'identificateur hrit inclut une srie de chiffres qui est unique pour le priphrique et qui peut tre
obtenue en partie partir des informations de la Page 83, si elles sont disponibles. Pour les priphriques
non locaux qui ne prennent pas en charge les informations la Page 83, le nom vml. est utilis comme tant
le seul et unique identificateur disponible.

Exemple : Affichage des noms de priphrique dans la vSphere CLI


Vous pouvez utiliser la commande esxcli --server=server_name storage core device list pour afficher
tous les noms de priphrique dans la vSphere CLI. Le rsultat est similaire l'exemple suivant :
# esxcli --server=server_name storage core device list
naa.number
Display Name: DGC Fibre Channel Disk(naa.number)
...
Other UIDs:vml.number

Renommer des priphriques de stockage


Vous pouvez modifier le nom d'affichage d'un priphrique de stockage. Le nom d'affichage est attribu par
l'hteESXi selon le type de stockage et le fabricant.
Procdure

130

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Priphriques de stockage] .

Slectionnez le priphrique renommer, puis cliquez sur [Renommer] .

VMware, Inc.

Chapitre 15 Gestion des priphriques de stockage

Modifiez le nom du priphrique et attribuez-lui un nom convivial.

Oprations d'actualisation et de ranalyse du stockage


L'opration d'actualisation des banques de donnes, des priphriques de stockage et des adaptateurs de
stockage met jour les listes et les informations de stockage affiches dans Client Web vSphere. Par
exemple, elle met jour des informations telles que la capacit des banques de donnes. Lorsque vous
effectuez des tches de gestion des banques de donnes ou que vous modifiez la configuration SAN, il se
peut que vous deviez ranalyser le stockage.
Lorsque vous effectuez des oprations de gestion de la banque de donnes VMFS, comme la cration d'une
banque de donnes VMFS ou d'un RDM, l'ajout d'une extension et l'augmentation ou la suppression d'une
banque de donnes VMFS, votre hte ou le vCenter Server ranalyse automatiquement le stockage et le met
niveau. Vous pouvez mettre hors tension la fonction de ranalyse automatique en dsactivant le filtre de
ranalyse de l'hte. Reportez-vous la section Dsactiver les filtres de stockage dans Client Web
vSphere , page 160.
Dans certains cas, vous devez effectuer une ranalyse manuel. Vous pouvez ranalyser tous les stockages
disponibles sur votre hte ou, si vous utilisez le vCenter Server, sur tous les htes d'un dossier, d'un cluster
et d'un centre de donnes.
Si les modifications que vous apportez ne concernent que le stockage connect un adaptateur spcifique,
effectuez une ranalyse pour cette carte.
Effectuez la ranalyse manuelle chaque fois que vous apportez les modifications suivantes.
n

Zonage d'une nouvelle baie de disques sur un SAN.

Crer de nouveaux LUN sur un SAN

Modification du masquage de chemin sur un hte.

Reconnecter un cble

Modification des paramtres CHAP (iSCSI uniquement).

Ajout ou suppression de la dtection ou des adresses statiques (iSCSI uniquement).

Ajout d'un seul hte dans le vCenter Server aprs la modification ou la suppression du vCenter Server
d'une banque de donnes partage par les htes du vCenter Server et un seul hte.

IMPORTANT Si vous ranalysez quand un chemin n'est pas disponible, l'hte le supprime de la liste de
chemins sur le priphrique. Ce chemin rapparat dans la liste ds qu'il devient disponible et recommence
fonctionner.

Ranalyser le stockage dans Client Web vSphere


Lorsque vous apportez des modifications la configuration de votre SAN, il est possible que vous deviez
ranalyser le stockage. Vous pouvez ranalyser tout le stockage disponible de votre hte, de votre cluster ou
de votre centre de donnes. Si les modifications que vous apportez ne concernent que le stockage accessible
par un hte spcifique, effectuez une ranalyse pour cet hte uniquement.
Procdure
1

Dans le navigateur d'objet Client Web vSphere, slectionnez un hte, un cluster, un centre de donnes
ou un dossier contenant des htes.

Slectionnez [Actions] > [Toutes les actions vCenter] > [Ranalyser le stockage] .

VMware, Inc.

131

Stockage vSphere

Spcifiez l'tendue de la ranalyse.


Option

Description

Analyser les nouveaux


priphriques de stockage

Ranalyse de tous les adaptateurs pour dcouvrir de nouveaux


priphriques de stockage. Si de nouveaux priphriques sont dcouverts,
ils apparaissent dans la liste des priphriques.

Analyser les nouveaux volumes


VMFS

Ranalyse de tous les priphriques de stockage pour dcouvrir les


nouvelles banques de donnes qui ont t ajoutes depuis la dernire
analyse. Si de nouvelles banques de donnes sont dcouvertes, elles
apparaissent dans la liste des banques de donnes.

Ranalyser l'adaptateur dans Client Web vSphere


Lorsque vous modifiez votre configuration SAN et que ces modifications ne concernent que le stockage
accessible par un adaptateur spcifique, effectuez une ranalyse pour cet adaptateur uniquement.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Adaptateurs de stockage] et, dans la liste, slectionnez l'adaptateur ranalyser.

Cliquez sur [Ranalyser l'adaptateur] .

Modification du nombre de LUN analyss dans Client Web vSphere


Par dfaut, VMkernel analyse pour chaque cible les LUN allant de LUN 0 LUN 255 (soit un total de 256
LUN). Vous pouvez modifier le paramtre [Disk.MaxLUN] pour acclrer la dtection de LUN.
IMPORTANT Vous ne pouvez pas effectuer de reconnaissance de LUN avec un nombre d'ID de LUN
suprieur 255.
Si vous diminuez cette valeur, cela permet de raccourcir la dure de ranalyse et d'amorage. Toutefois, la
dure de ranalyse de LUN peut dpendre de plusieurs facteurs (type de baie de stockage, prise en charge
ou non des LUN clairsems).
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Paramtres] .

Dans Systme, cliquez sur [Paramtres systme avancs] .

Dans Paramtres systme avancs, slectionnez [Disk.MaxLUN] et cliquez sur l'icne [Modifier] .

Modifiez sa valeur selon vos besoins, puis cliquez sur [OK] .


La valeur que vous spcifiez est celle du LUN suivant le dernier LUN reconnatre.
Par exemple, pour effectuer la reconnaissance des LUN 0 31, affectez [Disk.MaxLUN] la valeur 32.

132

VMware, Inc.

Chapitre 15 Gestion des priphriques de stockage

Identification des problmes de connexion de priphrique


Quand votre hteESXi rencontre un problme lors de la connexion un priphrique de stockage, l'hte
traite le problme comme permanent ou temporaire selon certains facteurs.
Les causes des problmes de connectivit sont multiples. Bien qu'ESXi ne puisse toujours dterminer la
cause de l'indisponibilit d'un priphrique de stockage ou de ses chemins, l'hte fait la diffrence entre un
tat de perte permanente de priphrique (PDL) et un tat tous chemins vers bas (APD) passager du
stockage.
Perte permanente de
priphrique (PDL)

Il s'agit d'une condition survenant quand un priphrique de stockage est


dfaillant de faon permanente ou est administrativement supprim ou
exclu. Il n'est pas cens devenir disponible. Lorsque le priphrique devient
dfinitivement indisponible, ESXi reoit les codes de dtection adquats ou
un rejet de connexion des baies de stockage et peut reconnaitre que le
priphrique est dfinitivement perdu.

Tous chemins vers


bas (APD)

Il s'agit d'une condition survenant lorsqu'un priphrique de stockage


devient inaccessible pour l'hte et qu'aucun chemin vers le priphrique n'est
disponible. ESXi traite ceci comme une condition passagre car les problmes
relatifs au priphrique rencontrs sont gnralement temporaires et le
priphrique est cens redevenir disponible.

Dtection des tats PDL


Un priphrique de stockage est considr comme en tat de perte permanente de priphrique (PDL)
lorsqu'il devient dfinitivement indisponible pour votre hte ESXi.
Gnralement, l'tat PDL survient lorsqu'un priphrique est supprim de faon non intentionnelle, que son
identifiant unique est modifi ou quand le priphrique subit une erreur matrielle irrcuprable.
Lorsque la baie de stockage dtermine que le priphrique est dfinitivement indisponible, il envoie des
codes de dtection SCSI l'hte ESXi. Le codes de dtection permettent votre hte de reconnatre que le
priphrique est dfaillant et d'enregistrer l'tat du priphrique comme PDL. Les codes de dtection
doivent tre reus sur tous les chemins menant au priphrique pour que celui-ci soit considr comme
dfinitivement perdu.
Aprs avoir enregistr l'tat PDL du priphrique, l'hte arrte ses tentatives de rtablissement de la
connectivit ou d'envoyer des commandes au priphrique pour viter de se bloquer ou de se trouver dans
l'incapacit de rpondre.
Client Web vSphere affiche les informations suivantes relatives au priphrique :
n

L'tat oprationnel du priphrique devient Lost Communication.

Tous les chemins sont affichs comme Dead.

Les banques de donnes du priphrique sont grises.

L'hte supprime automatiquement le priphrique PDL et tous les chemins qui y mnent s'il ne dispose
d'aucune connexion ouverte, ou aprs la fermeture de la dernire connexion. Vous pouvez dsactiver la
suppression automatique des chemins en dfinissant les paramtres avancs de l'hte Disk.AutoremoveOnPDL
sur 0. Consultez Dfinir les attributs d'hte avancs dans Client Web vSphere , page 141.

VMware, Inc.

133

Stockage vSphere

Si le priphrique revient l'tat PDL, l'hte peut le dcouvrir, mais il le traite comme un nouveau
priphrique. La cohrence des donnes pour les machines virtuelles sur le priphrique rcupr n'est pas
garantie.
REMARQUE L'hte ne peut pas dtecter les tats PDL et continue traiter les problmes de connectivit
comme APD lorsqu'un priphrique de stockage devient dfinitivement dfaillant d'une manire
n'occasionnant pas le retour des codes de dtection SCSI adquats ou un rejet de connexion iSCSI.

Perte permanente de priphrique et codes de dtection SCSI


L'exemple suivant de journal VMkernel d'un code de dtection SCSI signale que le priphrique est dans un
tat PDL.
H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x25 0x0 or Logical Unit Not Supported

Pour plus d'informations sur les codes de dtection SCSI, consultez la section Dpannage du stockage dans
Dpannage vSphere.

Perte permanente de priphrique et iSCSI


Dans le cas de baies iSCSI avec un seul LUN par cible, le PDL est dtect par l'chec de connexion iSCSI.
Une baie de stockage iSCSI rejette les tentatives de dmarrage d'une session iSCSI de votre hte avec une
justification Cible indisponible. Comme pour les codes de dtection, cette rponse doit tre reue sur tous
les chemins menant au priphrique pour que celui-ci soit considr comme dfinitivement perdu.

Perte permanente de priphrique et machines virtuelles


Aprs avoir enregistr l'tat PDL du priphrique, l'hte met fin toutes les E/S des machines virtuelles.
vSphere HA peut dtecter le PDL et redmarrer les machines virtuelles qui ont chou. Pour plus
d'informations, voir tats PDL et High Availability , page 139.

Effectuer un retrait de priphrique de stockage prvu


Lorsqu'un priphrique de stockage prsente des signes de dysfonctionnement, vous pouvez planifier son
retrait et sa reconnexion afin d'viter les risques de PDL (perte de priphrique permanente) ou d'APD (tous
chemins hors service).
Un retrait de priphrique prvu est la dconnexion intentionnelle d'un priphrique de stockage. Le retrait
planifi d'un priphrique peut avoir divers motifs : mettre niveau votre matriel ou reconfigurer vos
priphriques de stockage, par exemple. Pour retirer et reconnecter un priphrique de stockage dans les
rgles de l'art, vous devez effectuer plusieurs tches.
1

Migrez les machines virtuelles du priphrique que vous prvoyez de dconnecter.


Voir Gestion de vCenter Server et des htes.

Dmontez la banque de donnes dploye sur le priphrique.


Reportez-vous la section Dmonter des banques de donnes VMFS ou NFS , page 157.

Dconnectez le priphrique de stockage.


Reportez-vous Dconnexion des priphriques de stockage , page 135.

Pour un priphrique iSCSI avec un seul LUN par cibe, supprimez la cible statique de chaque HBA
iSCSI comportant un chemin vers le priphrique de stockage.
Reportez-vous Supprimer des cibles statiques dansClient Web vSphere , page 95.

134

Si ncessaire, reconfigurez le priphrique de stockage l'aide de la console de baie.

VMware, Inc.

Chapitre 15 Gestion des priphriques de stockage

Reconnectez le priphrique de stockage.


Reportez-vous Joindre des priphriques de stockage , page 135.

Montez la banque de donnes et redmarrez les machines virtuelles. Reportez-vous Monter des
banques de donnes VMFS , page 157.

Dconnexion des priphriques de stockage


Dconnecter en toute scurit un priphrique de stockage de votre hte.
Il se peut que vous deviez dconnecter le priphrique pour le rendre inaccessible votre hte, lorsque, par
exemple, vous effectuez une mise niveau du matriel ct stockage.
Prrequis
n

Le priphrique ne contient pas de banques de donnes.

Aucune machine virtuelle n'utilise le priphrique en tant que disque RDM.

Le priphrique ne contient pas de partition de diagnostic, ni de partition de travail.

Procdure
1

Dans Client Web vSphere, affichez les priphriques de stockage.

Slectionnez le priphrique dconnecter, puis cliquez sur l'icne [Dtacher] .

Le priphrique devient inaccessible. L'tat oprationnel du priphrique devient Dmont.


Suivant
Si plusieurs htes partagent le priphrique, dconnectez le priphrique de chaque hte.

Joindre des priphriques de stockage


Reconnectez un priphrique de stockage que vous avez prcdemment dconnect.
Procdure
1

Dans Client Web vSphere, affichez les priphriques de stockage.

Slectionnez le priphrique de stockage dconnect et cliquez sur l'icne [Joindre] .

Le priphrique devient accessible.

Rcupration partir des conditions PDL


Une condition PDL (perte de priphrique permanente) non planifie survient lorsqu'un priphrique de
stockage devient indisponible de faon permanente sans avoir t dtach de faon adquate de l'hte ESXi.
DansClient Web vSphere, les lments suivants signalent que le priphrique est dans un tat PDL :
La banque de donnes dploye est indisponible.
n
n

L'tat oprationnel du priphrique passe Lost Communication.

Tous les chemins sont affichs comme Dead.

Un avertissement concernant un priphrique inaccessible de faon permanente apparat dans le fichier


de journal VMkernel.

Pour rcuprer d'une condition PDL non planifie et supprimer le priphrique indisponible de l'hte, vous
devez effectuer un certain nombre de tches.
1

VMware, Inc.

Mettez hors tension et annulez l'enregistrement de toutes les machines virtuelles qui s'excutent sur la
banque de donnes affecte par la condition PDL.

135

Stockage vSphere

Dmontez la banque de donnes.


Reportez-vous Dmonter des banques de donnes VMFS ou NFS , page 157.

Effectuez une nouvelle analyse de tous les htes ESXi ayant accs au priphrique.
Reportez-vous Ranalyser le stockage dans Client Web vSphere , page 131.

REMARQUE Si la nouvelle analyse est infructueuse et que l'hte continue rpertorier le priphrique, il se
peut que des E/S en attente ou des rfrences actives existent encore. Vrifiez les machines virtuelles, les
modles, les images ISO, les mappages de priphriques bruts etc. , qui peuvent encore avoir une rfrence
active au priphrique et la banque de donnes.

Traitement des conditions APD passagres


Un priphrique de stockage est considr comme en tat APD lorsqu'il devient indisponible pour votre
hte ESXipour une priode de temps indtermine.
Les causes d'un tat APD peuvent tre, par exemple, un commutateur dfaillant ou un cble de stockage
dconnect.
Contrairement l'tat PDL, l'hte traite l'tat APD comme tant passager et s' attend ce que le
priphrique soit nouveau disponible.
L'hte continue indfiniment ressayer d'envoyer des commandes afin de rtablir la connectivit avec le
priphrique. Si les commandes de l'hte chouent pendant une priode de temps prolonge, l'hte et ses
machines encourent le risque de problmes de performance et peuvent ventuellement ne plus rpondre.
Pour viter ces problmes, votre hte utilise une fonction de traitement APD par dfaut. Lorsqu'un
priphrique passe l'tat APD, le systme dclenche immdiatement un minuteur et permet votre hte
de continuer essayer d'envoyer des commandes de machine non virtuelle pendant une priode de temps
limite.
Le dlai d'attente APD est dfini par dfaut sur 140 secondes, ce qui est gnralement plus que ce dont la
plupart des priphriques ont besoin pour rcuprer d'une perte de connexion. Si le priphrique devient
disponible durant ce laps de temps, l'hte et sa machine virtuelle continuent de fonctionner sans aucun
problme.
Si le priphrique ne rcupre pas et que le dlai d'attente prend fin, l'hte cesse ses tentatives et met fin
toute E/S de machine non virtuelle. Les tentatives d'E/S de la machine virtuelle continueront.
Client Web vSphere affiche les informations suivantes concernant le priphrique dont le dlai d'attente
APD a expir :
n

L'tat oprationnel du priphrique passe Dead or Error.

Tous les chemins sont affichs comme Dead.

Les banques de donnes du priphrique sont grises.

Mme si le priphrique et les banques de donnes sont indisponibles, les machines virtuelles continuent de
rpondre. Vous pouvez mettre les machines virtuelles hors tension ou les dplacer vers une banque de
donnes ou un hte diffrent.
Si, plus tard, un ou plusieurs priphriques deviennent oprationnels, l'E/S suivante est envoye
normalement au priphrique et l'ensemble du traitement APD prend fin.

136

VMware, Inc.

Chapitre 15 Gestion des priphriques de stockage

Dsactiver le traitement APD de stockage


Le traitement APD de stockage sur votre hte ESXi est activ par dfaut. Lorsqu'il est activ, l'hte continue
de retenter l'envoi de commandes E/S de machine non virtuelle un priphrique de stockage en tat APD
pendant une priode de temps limite. Lorsque cette priode de temps arrive expiration, l'hte arrte ses
tentatives et met fin toute E/S de machine non virtuelle. Vous pouvez dsactiver la fonction de traitement
APD de votre hte.
Si vous dsactivez le traitement APD, l'hte continuera indfiniment ressayer d'envoyer des commandes,
afin de se reconnecter au priphrique APD. La continuit des nouvelles tentatives correspond au
comportement de la version 5.0 d' ESXi. Ce comportement peut amener les machines virtuelles de l'hte
excder leur dlai d'attente E/S interne et ainsi ne plus rpondre ou faire l'objet d'une dfaillance. L'hte
peut se retrouver dconnect de vCenter Server.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Paramtres] .

Dans Systme, cliquez sur [Paramtres systme avancs] .

Dans Paramtres systme avancs , slectionnez le paramtre [Misc.APDHandlingEnable] et cliquez


sur l'icne Edit.

Modifiez la valeur sur 0.

Si vous avez dsactiv le traitement APD, vous pouvez le ractiver lorsqu'un priphrique passe l'tat
APD. La fonction interne de traitement APD se met immdiatement en marche et le minuteur dmarre avec
la valeur actuelle de dlai d'attente pour chaque priphrique APD.

Changer les limites de dlai pour l'APD de stockage


Le paramtre de dlai d'attente contrle le nombre de secondes pendant lesquelles l'hte ESXi ressayera les
commandes E/S de machine non-virtuelle vers un priphrique de stockage dans un tat Tous chemins
vers bas (All paths down, APD). Si besoin est, vous pouvez modifier la valeur de dlai d'attente par
dfaut.
Le temporisateur dmarre immdiatement aprs que le priphrique entre dans l'tat APD. Lorsque le dlai
d'attente expire, l'hte marque le priphrique APD comme inaccessible et choue toute E/S de machine
non virtuelle, nouvelle ou en attente. L'E/S de machine virtuelle continuera d'tre retente.
Le paramtre de dlai d'attente par dfaut de votre hte est de 140 secondes. Vous pouvez augmenter la
valeur du dlai d'attente si, par exemple, des priphriques de stockage connects votre hteESXi
prennent plus de 140 secondes rcuprer d'une perte de connexion.
REMARQUE Si vous changez la valeur de dlai d'attente pendant qu'une APD est en cours, cela n'affectera
pas le dlai d'attente de cette APD.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Paramtres] .

Dans Systme, cliquez sur [Paramtres systme avancs] .

Dans Paramtres systme avancs , slectionnez le paramtre [Divers dlais d'attente APD] et cliquez
sur l'icne Edit.

Modifiez la valeur par dfaut.


Vous pouvez saisir une valeur comprise entre 20 et 99 999 secondes.

VMware, Inc.

137

Stockage vSphere

Vrification de l'tat de la connexion d'un priphrique de stockage


Utilisez la commande esxcli pour vrifier l'tat de la connexion d'un priphrique de stockage particulier.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure

138

Excutez la commande esxcli --server=server_name storage core device list -d=device_ID .

Vrifiez l'tat de connexion dans le Statut : .


n

on - Le priphrique est connect.

dead - Le priphrique est pass l'tat APD. Le minuteur APD dmarre.

dead timeout - Le dlai d'attente APD a expir.

not connected - Le priphrique est dans l'tat PDL.

VMware, Inc.

Chapitre 15 Gestion des priphriques de stockage

tats PDL et High Availability


Lorsqu'une banque de donnes entre dans un tat de perte permanente de priphrique (PDL), High
Availability (HA) peut mettre hors tension les machines virtuelles et les redmarrer ultrieurement.
VMware offre des options avances destines rguler la mise hors tension et le redmarrage des
oprations pour les machines virtuelles. Dans la plupart des environnements, les paramtres par dfaut ne
doivent pas tre modifis. Cependant, selon votre environnement spcifique, vous devrez ventuellement
modifier certaines de ces options.
Tableau 151. Paramtres avancs de rgulation des PDL
Paramtre

Type de paramtre

Description

scsi#:#.terminateVMOnPDL
ide#:#.terminateVMOnPDL
sata#:#.terminateVMOnPDL

Option de machine
virtuelle avance.
Pour effectuer la
configuration, reportezvous Modifier les
paramtres du fichier de
configuration dans
Client Web vSphere ,
page 140.

La valeur par dfaut est FALSE.


Lorsqu'il est dfini sur TRUE, ce paramtre
met hors tension la machine virtuelle si le
priphrique spcifi qui sauvegarde la
banque de donnes de la machine virtuelle
passe en tat PDL. HA ne redmarrera pas
cette machine virtuelle. Ce paramtre
remplace
disk.terminateVMOnPDLDefault.
Lorsqu'il est dfini sur DEFAULT,
disk.terminateVMonPDLDefault est
utilis.

disk.terminateVMOnPDLDefault

Option de machine
virtuelle avance.
Pour effectuer la
configuration, reportezvous Modifier les
paramtres du fichier de
configuration dans
Client Web vSphere ,
page 140.

La valeur par dfaut est FALSE.


Lorsqu'il est dfini sur TRUE, ce paramtre
met hors tension la machine virtuelle si un
priphrique qui sauvegarde la banque de
donnes de la machine virtuelle passe en
tat PDL. HA ne redmarrera pas cette
machine virtuelle. Ce paramtre peut tre
remplac au niveau de chaque
priphrique par le paramtre
{scsi,ide,sata}#:#.terminateVMOnPD
L appropri.
Lorsqu'il est dfini sur DEFAULT,
VMkernel.Boot.terminateVMOnPDL est
utilis.

VMware, Inc.

139

Stockage vSphere

Tableau 151. Paramtres avancs de rgulation des PDL (suite)


Paramtre

Type de paramtre

Description

VMkernel.Boot.terminateVMOnPDL

Option VMkernel
avance.
Pour effectuer la
configuration, reportezvous Dfinir les
attributs d'hte avancs
dans Client Web
vSphere , page 141

La valeur par dfaut est FALSE.


Lorsqu'il est dfini sur TRUE, ce paramtre
met hors tension toutes les machines
virtuelles sur le systme lorsque le
stockage qu'elles utilisent passe dans l'tat
PDL. Le paramtre peut tre remplac pour
chaque machine virtuelle par le paramtre
{scsi,ide,sata}#:#.terminateVMOnPD
L ou disk.terminateVMOnPDLDefault
appropri.
Peut tre uniquement dfini sur TRUE ou
FALSE.
REMARQUE Aprs que vous avez apport
des modifications
VMkernel.Boot.terminateVMOnPDL,
redmarrez l'hte.

das.maskCleanShutdownEnabled

Option HA avance.
Pour effectuer la
configuration, reportezvous
http://kb.vmware.com/k
b/2033250.

Cette option est dfinie sur TRUE par


dfaut. Elle permet l'HA de redmarrer
les machines mises hors tension alors que
l'tat PDL est en cours. Lorsque cette
option est dfinie sur TRUE, HA redmarre
toutes les machines virtuelles, y compris
celles intentionnellement mises hors
tension par un utilisateur.

Modifier les paramtres du fichier de configuration dans Client Web vSphere


Vous pouvez modifier ou ajouter des paramtres de configuration de machine virtuelle si vous y tes invit
par un reprsentant du support technique de VMware, ou si la documentation de VMware vous invite
ajouter ou modifier un paramtre pour rsoudre un problme de votre systme.
IMPORTANT La modification ou l'ajout d'un paramtre alors que votre systme est stable peut entrainer une
diminution des performances et une instabilit du systme.
Les conditions suivantes s'appliquent :
n

Pour changer un paramtre, vous changez la valeur existante pour la paire mot cl/valeur. Par exemple,
si vous commencez par la paire mot cl/valeur, mot cl/valeur, et la changez en mot cl/valeur2, le
rsultat est mot cl=valeur2.

Vous ne pouvez pas supprimer l'entre du paramtre de configuration.

AVERTISSEMENT Vous devez attribuer une valeur aux mots-cls de paramtres de configuration. Si vous
n'attribuez aucune valeur, le mot-cl peut renvoyer la valeur 0, FALSE ou DISABLE et il est possible alors
que la machine virtuelle ne puisse pas tre mise sous tension.
Procdure

140

Cliquez avec le bouton droit de la souris sur une machine virtuelle dans l'inventaire et slectionnez
[Modifier les paramtres] .

Cliquez sur l'onglet [Options VM] et dveloppez [Avanc] .

Cliquez sur [Modifier la configuration] .

(Facultatif) Pour ajouter un paramtre, cliquez sur [Ajouter ligne] et entrez le nom et la valeur du
paramtre.

VMware, Inc.

Chapitre 15 Gestion des priphriques de stockage

(Facultatif) Pour changer un paramtre, tapez un nouvelle valeur dans la zone de texte [Valeur] du
paramtre.

Cliquez sur [OK] .

Dfinir les attributs d'hte avancs dans Client Web vSphere


Vous pouvez rgler les attributs avancs d'un hte.
AVERTISSEMENT La modification des options avances est considre comme non prise en charge sauf si
l'assistance technique VMware ou un article KB vous demandent de le faire. Dans tous les autres cas, la
modification de ces options est considre comme non prise en charge. Dans la plupart des cas, les
paramtres par dfaut donnent un rsultat optimal.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

Sous [Systme] , cliquez sur [Paramtres systme avancs] .

Dans Paramtres avancs, slectionnez l'lment appropri.

Cliquez sur le bouton [Modifier] pour modifier la valeur.

Cliquez sur [OK] .

VMware, Inc.

141

Stockage vSphere

142

VMware, Inc.

Utilisation des banques de donnes

16

Les banques de donnes sont des conteneurs logiques, analogues des systmes de fichiers, qui masquent
les informations de chaque priphrique de stockage et fournissent un modle uniforme pour stocker des
fichiers de machine virtuelle. Les banques de donnes peuvent galement tre utilises pour le stockage
d'images ISO, de modles de machine virtuelle et d'images de disquette.
Les informations de cette rubrique s'appliquent essentiellement aux banques de donnes VMFS et NFS. Pour
plus d'informations sur les banques de donnes de rseau SAN virtuel, consultez la section Chapitre 19,
Utilisation du rseau SAN virtuel , page 187.
Utilisez vSphere Client pour accder aux diffrents types de priphriques de stockage que votre hte ESXi
dcouvre, et y dployer des banques de donnes.
Selon le type de stockage utilis, les banques de donnes peuvent tre sauvegardes aux formats de systme
de fichier suivants :
n

Systme de fichier de la machine virtuelle (VMFS). Reportez-vous la section Prsentation des


banques de donnes VMFS , page 144.

Systme de fichier du rseau (NFS). Reportez-vous la section Prsentation des banques de donnes
NFS , page 148.

Aprs avoir cr des banques de donnes, vous pouvez les organiser de diffrentes manires. Par exemple,
vous pouvez les regrouper dans des dossiers en fonction des pratiques professionnelles. Cette opration
permet d'affecter simultanment les mmes autorisations et alarmes sur les banques de donnes d'un
groupe.
Vous pouvez galement ajouter des banques de donnes des clusters de banques de donnes. Un cluster
de banques de donnes est un ensemble de banques de donnes avec des ressources partages et une
interface de gestion partage. Lorsque vous crez un cluster de banques de donnes, vous pouvez utiliser le
DRS de stockage pour grer les ressources de stockage. Pour plus d'informations sur les clusters de banques
de donnes, consultez la documentation Gestion des ressources vSphere.
Ce chapitre aborde les rubriques suivantes :
n

Prsentation des banques de donnes VMFS , page 144

Prsentation des banques de donnes NFS , page 148

Cration de banques de donnes , page 150

Administration des banques de donnes VMFS dupliques , page 152

Mise niveau des banques de donnes VMFS , page 154

Augmentation de la capacit d'une banque de donnes VMFS , page 155

Renommer les banques de donnes VMFS ou NFS dans Client Web vSphere , page 156

VMware, Inc.

143

Stockage vSphere

Dmonter des banques de donnes VMFS ou NFS , page 157

Monter des banques de donnes VMFS , page 157

Supprimer des banques de donnes VMFS dans Client Web vSphere , page 158

Filtres de stockage , page 159

Configuration de la mise en miroir des disques dynamiques , page 160

Crer une partition de diagnostic , page 161

Vrification de la cohrence des mtadonnes avec VOMA , page 163

Configuration du cache de blocs de pointage VMFS , page 164

Prsentation des banques de donnes VMFS


Pour stocker les disques virtuels, ESXi utilise des banques de donnes qui sont des conteneurs logiques
cachant les dtails du stockage physique aux machines virtuelles et fournissant un modle uniforme pour le
stockage des fichiers de machines virtuelles. Les banques de donnes que vous dployez sur les
priphriques de stockage des blocs utilisent le format vSphere VMFS, un format de systme de fichiers
haute performance optimis pour le stockage des machines virtuelles.
Plusieurs versions du systme de fichiers VMFS ont t publies depuis son introduction. Le tableau suivant
prsente les relations des versions htes VMFS.
Tableau 161. Accs de l'hte la version VMFS
VMFS

Hte ESX/ESXi 3.x

Hte ESX/ESXi 4.x

Hte ESXi 5.x

VMFS2

RO

RO

VMFS3

RW

RW

RW

VMFS5

RW

RW : Prise en charge complte de la lecture et de l'criture. Vous pouvez crer et mettre sous tension
des machines virtuelles.

RO : Prise en charge de la lecture seule. Vous ne pouvez pas crer ni mettre sous tension des machines
virtuelles.

N : Aucun accs. ESXi 5.x ne prend pas VMFS2 en charge. Si votre banque de donnes a t formate
avec VMFS2, mettez-la d'abord niveau vers VMFS3 en utilisant les htes hrits et vSphere Client.

Utilisez Client Web vSphere pour configurer une banque de donnes VMFS l'avance sur un priphrique
de stockage bas sur des blocs dtect par votre hte ESXi. Une banque de donnes VMFS peut tre tendue
pour englober plusieurs extensions de stockage physique, y compris les LUN du SAN et le stockage local.
Cette fonction vous permet de regrouper le stockage et vous assure une grande souplesse de cration de
banque de donnes ncessaires vos machines virtuelles.
Vous pouvez augmenter la capacit d'une banque de donnes pendant que les machines virtuelles
fonctionnent sur la banque de donnes. Ainsi, vous pouvez augmenter l'espace de vos banques de donnes
VMFS si votre machine virtuelle en a besoin. VMFS est conu pour un accs simultan depuis plusieurs
machines physiques et met en place les contrles d'accs sur les fichiers des machines virtuelles.

Diffrences entre VMFS5 et VMFS3


VMFS5 offre de nombreuses amliorations en termes d'volutivit et de performances par rapport la
version prcdente.
VMFS5 offre les amliorations suivantes :
n

144

Priphriques de stockage de plus de 2 To pour chaque extension VMFS.

VMware, Inc.

Chapitre 16 Utilisation des banques de donnes

Prise en charge de machines virtuelles disques virtuels haute capacit ou de disques suprieurs 2 To.
tant donn que les banques de donnes VMFS3 ne prennent pas en charge les disques virtuels haute
capacit, vous ne pouvez pas dplacer des disques virtuels de plus de 2 To d'une banque de donnes
VMFS5 une autre VMFS3.

Augmentation des limites de ressources telles que les descripteurs de fichiers.

Taille de bloc du systme de fichiers standard de 1 Mo avec prise en charge des disques virtuels de
2 To.

Taille du disque suprieure 2 To pour les RDM

Prise en charge des petits fichiers de 1 Ko.

Tout fichier dans une banque de donnes VMFS5, qu'elle soit nouvelle ou mise jour depuis VMFS3,
peut tre ouvert en mode partag par un maximum de 32 htes. VMFS3 continue prendre en charge 8
htes ou moins pour le partage de fichiers. Ceci affecte les produits VMware qui utilisent des clones
lis, tels que View Manager.

Amliorations en termes d'volutivit sur les priphriques de stockage prenant en charge l'acclration
matrielle. Pour plus d'informations, consultez Chapitre 24, Acclration matrielle du stockage ,
page 257.

Utilisation par dfaut du verrouillage par assistance matrielle, galement appel ATS (atomic test and
set), sur les priphriques de stockage prenant en charge l'acclration matrielle. Pour plus
d'informations sur la dsactivation du verrouillage ATS, consultez Dsactivation du verrouillage
ATS , page 148.

Capacit rcuprer un espace de stockage physique sur des priphriques de stockage allocation
dynamique. Pour plus d'informations, consultez Allocation dynamique des baies et banques de
donnes VMFS , page 273.

Processus de mise niveau en ligne procdant la mise niveau des banques de donnes existantes
sans perturber les htes ou les machines virtuelles qui fonctionnent actuellement. Pour plus
d'informations, consultez Mise niveau des banques de donnes VMFS , page 154.

Pour de plus amples informations sur les limitations de tailles de bloc d'une banque de donnes VMFS,
consultez l'article de la base de connaissances VMware l'adresse http://kb.vmware.com/kb/1003565.

Formats de banques de donnes VMFS et de disque de stockage


Les priphriques de stockage que votre hte prend en charge peuvent utiliser le format MBR (Master Boot
Record) ou le format GPT (GUID partition table).
Avec ESXi 5.0 et ses versions ultrieures, si vous crez une nouvelle banque de donnes VMFS5, le
priphrique est format au format GPT. Le format GPT vous permet de crer des banques de donnes
d'une taille suprieure 2 To et pouvant atteindre 64 To pour une seule extension.
Les banques de donnes VMFS3 continuent d'utiliser le format MBR pour leurs priphriques de stockage.
Lorsque vous travaillez avec des banques de donnes VMFS3, tenez compte des points suivants :
n

Pour les banques de donnes VMFS3, la limite de 2 To s'applique toujours, mme lorsque le
priphrique de stockage possde une capacit suprieure 2 To. Pour pouvoir utiliser l'espace de
stockage total, mettez niveau une banque de donnes VMFS3 vers VMFS5. La conversion vers le
format MBR survient uniquement lorsque vous agrandissez la banque de donnes au-del de 2 To.

Lorsque vous mettez niveau une banque de donnes VMFS3 vers VMFS5, la banque de donnes
utilise le format MBR. La conversion vers GPT survient uniquement lorsque vous agrandissez la
banque de donnes au-del de 2 To.

Lorsque vous mettez niveau une banque de donnes VMFS3, supprimez du priphrique de stockage
les partitions qu'ESXi ne reconnat pas, par exemple, les partitions qui utilisent les formats EXT2 ou
EXT3. Autrement, l'hte ne peut formater le priphrique avec GPT et la mise jour est un chec.

VMware, Inc.

145

Stockage vSphere

Vous ne pouvez pas agrandir une banque de donnes VMFS3 sur des priphriques qui disposent du
format de partition GPT.

Banques de donnes VMFS comme rfrentiel


ESXi peut formater des priphriques de stockage SCSI tels que des banques de donnes VMFS. Les
banques de donnes VMFS servent principalement de rfrentiel aux machines virtuelles.
Grce VMFS5, vous pouvez possder jusqu' 256 banques de donnes VMFS par hte, d'une taille
maximale de 64 To. La taille maximale requise pour une banque de donnes VMFS est de 1,3 Go.
Cependant, la taille minimale recommande est de 2 Go.
REMARQUE Ayez toujours une seule banque de donnes VMFS par LUN.
Vous pouvez stocker plusieurs machines virtuelles sur la mme banque de donnes VMFS. Chaque machine
virtuelle, encapsule dans un ensemble de fichier, occupe un rpertoire unique et distinct. Pour le systme
d'exploitation au sein de la machine virtuelle, VMFS conserve la smantique du systme de fichiers interne,
qui garantit un comportement d'application adquat et une intgrit des donnes pour les applications
s'excutant dans les machines virtuelles.
Lorsque vous excutez plusieurs machines virtuelles, VMFS offre des mcanismes de verrouillage
spcifiques des fichiers de machines virtuelles afin de permettre aux machines virtuelles de fonctionner en
toute scurit dans un environnement SAN au sein duquel plusieurs htes ESXi partagent la mme banque
de donnes VMFS.
Outre les machines virtuelles, les banques de donnes VMFS peuvent stocker d'autres fichiers, tels que des
modles de machine virtuelles et des images ISO.

Partager une banque de donnes VMFS entre des htes


En tant que systme de fichiers en cluster, VMFS permet plusieurs htes ESXi d'accder simultanment
la mme banque de donnes VMFS. Vous pouvez connecter jusqu' 128 htes une banque de donnes
VMFS.
Figure 161. Partager une banque de donnes VMFS entre des htes
hte
A

hte
B

hte
C

VM1

VM2

VM3

Volume VMFS
disque1
fichiers
disque2 de disque
virtuel
disque3

Pour garantir que plusieurs serveurs n'accdent pas la mme machine virtuelle simultanment, VMFS
fournit un verrouillage sur disque.
Le partage du mme volume VMFS entre plusieurs htes offre les avantages suivants :
n

146

Vous pouvez utiliser VMware Distributed Resource Scheduling (DRS) et VMware High Availability
(HA).

VMware, Inc.

Chapitre 16 Utilisation des banques de donnes

Vous pouvez distribuer des machines virtuelles travers diffrents serveurs physiques. Cela signifie
que vous excutez un mlange de machines virtuelles sur chaque serveur de sorte qu'il ne reoive pas
de demandes trop importantes dans la mme zone, simultanment. Si un serveur choue, vous pouvez
redmarrer les machines virtuelles sur un autre serveur physique. En cas de dfaillance, le verrouillage
sur disque pour chaque machine virtuelle s'active. Pour plus d'informations sur VMware DRS,
consultez la documentation Gestion des ressources vSphere. Pour plus d'informations sur VMware HA,
consultez la documentation Disponibilit vSphere.
n

Vous pouvez utiliser vMotion pour migrer des machines virtuelles en cours d'excution depuis un
serveur physique vers un autre. Pour prendre en charge vMotion entre ESXi 5 et des htes de version
3.x ou 4.x, les machines virtuelles doivent se trouver sur des volumes VMFS3. Pour plus d'informations
sur la migration des machines virtuelles, consultez la documentation Gestion de vCenter Server et des
htes.

Mises jour des mtadonnes VMFS


Une banque de donnes VMFS contient, entre autres, les fichiers, les rpertoires, les liens symboliques, les
fichiers descripteurs RDM des machines virtuelles. La banque de donnes maintient galement une vue
cohrente de toutes les informations de mappage pour ces objets. Ces informations de mappage sont
appeles mtadonnes.
Les mtadonnes sont mises jour chaque fois que vous ralisez des oprations de gestion de banque de
donnes ou de machine virtuelle Exemples d'oprations ncessitant une mise jour des mtadonnes :
n

Cration, agrandissement ou verrouillage d'un fichier de la machine virtuelle

Modification des attributs d'un fichier

Dmarrage ou arrt d'une machine virtuelle

Cration ou suppression d'une banque de donnes VMFS

Dveloppement d'une banque de donnes VMFS

Cration d'un modle

Dploiement d'une machine virtuelle partir d'un modle

Migration d'une machine virtuelle avec vMotion

Lorsque des modifications sont apportes aux mtadonnes dans un environnement de stockage partag,
VMFS utilise des mcanismes de verrouillage spciaux pour protger ses donnes et empcher plusieurs
htes d'crire simultanment sur les mtadonnes.

Mcanismes de verrouillage VMFS


Dans un environnement de stockage partag, lorsque plusieurs htes accdent la mme banque de
donnes VMFS, des mcanismes de verrouillage spcifiques sont utiliss. Ces mcanismes de verrouillage
empchent plusieurs htes d'crire simultanment sur les mtadonnes et vitent la corruption des donnes.
VMFS prend en charge les rservations SCSI et le verrouillage ATS (atomic test and set).

Rservations SCSI
VMFS utilise les rservations SCSI sur les priphriques de stockage qui ne prennent pas en charge
l'acclration matrielle. Lors de la ralisation d'une opration ncessitant une protection des mtadonnes,
les rservations SCSI verrouillent l'intgralit d'un priphrique de stockage. Une fois l'opration termine,
VMFS libre la rservation et les autres oprations peuvent se poursuivre. Ce verrouillage tant exclusif, les
rservations SCSI excessives d'un hte peuvent provoquer une dgradation de la performance des autres
htes accdant au mme VMFS. Pour plus d'informations sur la rduction des rservations SCSI, consultez
la documentation Dpannage vSphere.

VMware, Inc.

147

Stockage vSphere

ATS (atomic test and set)


Pour les priphriques de stockage prenant en charge l'acclration matrielle, VMFS utilise l'algorithme
ATS, galement connu sous le nom de verrouillage par assistance matrielle. Contrairement aux
rservations SCSI, ATS prend en charge un verrouillage discret par secteur de disque. Pour plus
d'informations sur l'acclration matrielle, consultez Chapitre 24, Acclration matrielle du stockage ,
page 257.
Les mcanismes utiliss par VMFS pour appliquer diffrents types de verrouillage dpendent de la version
VMFS.
Tableau 162. Utilisation du verrouillage ATS sur des priphriques de stockage prenant en charge
Priphriques de
stockage

Nouvelle banque de donnes


VMFS5

Banque de donnes VMFS5


mise niveau

Banque de donnes
VMFS3

Extension unique

ATS uniquement

ATS, mais possibilit de rtablir


des rservations SCSI

ATS, mais possibilit de


rtablir des rservations
SCSI

Plusieurs extensions

S'tend uniquement sur des


priphriques compatibles ATS

ATS, except lors du


verrouillage d'un lment non
principal

ATS, except lors du


verrouillage d'un
lment non principal

Dans certains cas, il est possible que vous deviez dsactiver le paramtre ATS uniquement pour une
nouvelle banque de donnes VMFS5. Pour plus d'informations, consultez Dsactivation du verrouillage
ATS , page 148.

Dsactivation du verrouillage ATS


Lorsque vous crez une banque de donnes VMFS5 sur un priphrique qui prend en charge le verrouillage
ATS (atomic test and set), la banque de donnes est configure sur le mode exclusivement ATS. Dans
certaines circonstances, il est possible que vous deviez dsactiver le paramtre du mode ATS.
Dsactivez le paramtre ATS, lorsque, par exemple, votre priphrique de stockage passe une version
prcdente ou lorsque les mises jour du microprogramme chouent et que le priphrique ne prend plus
en charge l'acclration matrielle. L'option que vous utilisez pour dsactiver le paramtre ATS est
uniquement disponible via le shell ESXi. Pour plus d'informations, consultez Initiation aux interfaces de ligne
de commande vSphere.
Procdure
u

Pour dsactiver le paramtre ATS, excutez la commande suivante.


vmkfstools --configATSOnly 0 device

Le paramtre device est le chemin vers le priphrique de domaine principal sur lequel VMFS5 a t
dploy. Utilisez le format suivant :
/vmfs/devices/disks/disk_ID:P

Prsentation des banques de donnes NFS


ESXi peut accder un volume NFS ddi, situ sur un serveur NAS, monter le volume et l'utiliser pour des
besoins de stockage. Vous pouvez utiliser des volumes NFS pour stocker et dmarrer des machines
virtuelles de la mme manire que vous utilisez des banques de donnes VMFS.
ESXi prend en charge les capacits de stockage suivantes sur des volumes NFS :

148

vMotion

VMware DRS et VMware HA

VMware, Inc.

Chapitre 16 Utilisation des banques de donnes

Images ISO, prsentes en tant que CD-ROM aux machines virtuelles

Snapshots de machine virtuelle

Machines virtuelles disques virtuels haute capacit ou disques suprieurs 2 To

Lorsque vous travaillez avec le stockage NFS, les considrations suivantes s'appliquent :
n

La taille maximale des banques de donnes NFS dpend de la prise en charge assure par le serveur
NFS. ESXi n'impose aucune limite la taille de la banque de donnes NFS.

Si vous utilisez des caractres non-ASCII pour nommer des banques de donnes et des machines
virtuelles, veillez ce que le serveur NFS sous-jacent offre une prise en charge de l'internationalisation.
Si le serveur ne prend pas en charge les caractres internationaux, utilisez uniquement les caractres
ASCII, sinon des dfaillances imprvisibles pourraient se produire.

Banques de donnes NFS comme rfrentiels des fichiers couramment utiliss


En plus du stockage des disques virtuels sur des banques de donnes NFS, vous pouvez employer NFS
comme rfrentiel central pour les images ISO, les modles de machine virtuelle, etc.
Pour utiliser NFS comme rfrentiel partag, vous crez un rpertoire sur le serveur NFS et le montez
comme banque de donnes sur tous les htes. Si vous utilisez la banque de donnes pour les images ISO,
vous pouvez connecter le priphrique CD-ROM de la machine virtuelle un fichier ISO sur la banque de
donnes, et installer un systme d'exploitation invit depuis le fichier ISO.
REMARQUE Si le volume NFS sous-jacent sur lequel sont stocks les fichiers est en lecture seule, assurez-vous
que le volume est export en tant que partage en lecture seule par le serveur NFS, ou configurez-le en tant
que banque de donnes en lecture seule sur l'hte ESXi. Sinon, l'hte considre que la banque de donnes est
en Lecture/criture et risque de ne pas pouvoir ouvrir les fichiers.

Utiliser des connexions routes L3 pour accder un stockage NFS


Lorsque vous utilisez des connexions routes L3 pour accder du stockage NFS, il vous faut prendre en
compte un certain nombre d'exigences et de restrictions.
Assurez-vous que votre environnement rpond aux exigences suivantes :
n

Utiliser le protocole Hot Standby Router (HSRP) de Cisco dans le routeur IP. Si vous utilisez un routeur
non-Cisco, assurez-vous d'utiliser la place le protocole Virtual Router Redundancy Protocol (VRRP).

Utiliser la qualit de service (QoS) pour accorder la priorit au trafic NFS L3 sur les rseaux avec des
bandes passantes limites, ou sur les rseaux encombrs. Consultez la documentation de votre routeur
pour de plus amples dtails.

Respecter les meilleures pratiques pour l'accs NFS rout par commutateur L3 recommandes par le
fournisseur de stockage. Contactez votre fournisseur de stockage pour plus d'informations.

Dsactivez Network I/O Resource Management (NetIORM).

Si vous prvoyez d'utiliser des systmes avec des commutateurs en haut de baie ou un partitionnement
de priphrique d'E/S dpendant d'un commutateur, contactez votre fournisseur de systme pour la
compatibilit et la prise en charge.

Dans un environnement L3, les restrictions suivantes s'appliquent :


n

L'environnement ne prend pas en charge VMware Site Recovery Manager.

L'environnement prend en charge uniquement le protocole NFS. N'utilisez pas d'autres protocoles de
stockage comme FCoE sur le mme rseau physique.

Le trafic NFS dans cet environnement ne prend pas en charge IPv6.

Le trafic NFS dans cet environnement peut tre rout uniquement sur un rseau local. Les autres
environnements comme les rseaux WAN ne sont pas pris en charge.

VMware, Inc.

149

Stockage vSphere

L'environnement ne prend pas en charge le commutateur virtuel distribu (DVS).

Cration de banques de donnes


Selon vos besoins et le type de stockage utilis, vous pouvez crer une banque de donnes VMFS ou NFS.
L' assistant Nouvelle banque de donnes vous permet de crer vos banques de donnes. Il vous permet
galement de grer les copies de banques de donnes VMFS. Pour plus d'informations, consultez
Administration des banques de donnes VMFS dupliques , page 152.

Crer une banque de donnes VMFS dans Client Web vSphere


Les banques de donnes VMFS servent de rfrentiel aux machines virtuelles. Vous pouvez configurer des
banques de donnes VMFS sur tous les priphriques de stockage bass sur SCSI que l'hte dtecte, y
compris Fibre Channel, iSCSI et les priphriques de stockage locaux.
Prrequis
n

Installez et configurez tous les adaptateurs dont votre stockage a besoin. Ranalysez les cartes pour
dtecter les priphriques de stockage nouvellement ajouts.

Accdez aux banques de donnes dans le navigateur de Client Web vSphere. Reportez-vous
Afficher les informations des banques de donnes dans Client Web vSphere , page 20.

Procdure
1

Cliquez sur l'icne Crer une nouvelle banque de donnes.

Saisissez un nom de banque de donnes et, si ncessaire, slectionnez l'emplacement pour la banque de
donnes.
Client Web vSphere impose une limite de 42 caractres pour le nom de la banque de donnes.

Slectionnez VMFS comme type de banque de donnes.

Slectionnez le priphrique utiliser pour votre banque de donnes.


IMPORTANT Aucune valeur ne doit tre affiche dans la colonne Volume du snapshot du priphrique
que vous slectionnez. Si une valeur est prsente, le priphrique contient une copie d'une banque de
donnes VMFS existante. Pour plus d'informations sur la gestion des copies de banques de donnes,
consultez Administration des banques de donnes VMFS dupliques , page 152.

150

Slectionnez la version VMFS.


Option

Description

VMFS5

Active la prise en charge des LUN de plus de 2 To.

VMFS3

Autorise l'hte ESX/ESXi de version antrieure la version 5.0 accder


la banque de donnes.

Spcifiez la configuration de partition.


Option

Description

Utilisez toutes les partitions


disponibles

Ddie la totalit du disque une seule banque de donnes VMFS. Si vous


slectionnez cette option, tous les systmes de fichiers et donnes stocks
actuellement sur ce priphrique sont dtruits.

Utilisez l'espace libre

Dploie une banque de donnes VMFS dans l'espace libre restant du


disque.

VMware, Inc.

Chapitre 16 Utilisation des banques de donnes

(Facultatif) Si vous jugez que l'espace allou pour la banque de donnes est excessif, ajustez les valeurs
de capacit dans le champ Taille de la banque de donnes.
Par dfaut, tout l'espace libre sur le priphrique de stockage est allou.

Pour la version VMFS3, slectionnez la taille maximale du fichier.

Sur la page Prt terminer, passez en revue les informations de configuration de banque de donnes et
cliquez sur [Terminer] .

La banque de donnes sur le priphrique de stockage bas sur SCSI est cre. Elle est disponible pour tous
les htes qui ont accs au priphrique.

Crer une banque de donnes NFS dans Client Web vSphere


Vous pouvez utiliser l'assistant Nouvelle banque de donnes pour monter un volume NFS.
Prrequis
n

Configurer la mise en rseau VMkernel. NFS ncessite une connectivit rseau pour accder aux
donnes stockes sur des serveurs distants. Voir la documentation Mise en rseau vSphere.

Accdez aux banques de donnes dans le navigateur de Client Web vSphere. Reportez-vous
Afficher les informations des banques de donnes dans Client Web vSphere , page 20.

Procdure
1

Cliquez sur l'icne Crer une nouvelle banque de donnes.

Saisissez un nom de banque de donnes et, si ncessaire, slectionnez l'emplacement pour la banque de
donnes.
Client Web vSphere impose une limite de 42 caractres pour le nom de la banque de donnes.

Slectionnez NFS comme type de banque de donnes.

Tapez le nom du serveur et le nom de dossier du point de montage.


Pour le nom du serveur, vous pouvez entrer une adresse IP, un nom DNS ou un UUID NFS.
REMARQUE Quand vous montez le mme volume NFS sur plusieurs htes, assurez-vous que les noms
de serveur et de dossier sont identiques sur les htes. Si les noms ne sont pas identiques, les htes
considrent le mme volume NFS comme deux banques de donnes diffrentes. Cette erreur peut
provoquer une dfaillance de certaines fonctions, telles que vMotion. Par exemple, ce type de diffrence
se produit si vous nommez le serveur filer sur un hte et filer.domain.com sur l'autre.

(Facultatif) Slectionnez [Montage NFS lecture seule] si le volume est export en Lecture seule par le
serveur NFS.

Si vous crez une banque de donnes au niveau du centre de donnes ou du cluster, slectionnez des
htes exigeant un accs la banque de donnes.

Passez en revue les options de configuration puis cliquez sur [Terminer] .

VMware, Inc.

151

Stockage vSphere

Administration des banques de donnes VMFS dupliques


Lorsqu'un priphrique de stockage contient une copie de banque de donnes VMFS, vous pouvez monter
la banque de donnes avec sa signature existante ou lui assigner une nouvelle signature.
Chaque banque de donnes VMFS cre dans un disque de stockage a une signature unique, appele UUID,
qui est stocke dans le super-bloc de systme de fichiers. Lorsque le disque de stockage est reproduit ou que
son snapshot est pris ct stockage, la copie rsultante du disque est identique, octet par octet, au disque
d'origine. En consquence, si le disque de stockage d'origine contient une banque de donnes VMFS avec
UUID X, la copie du disque semble contenir une banque de donnes VMFS identique ou une copie de la
banque de donnes VMFS, avec exactement le mme UUID X.
Outre la capture et la duplication de LUN, les oprations du dispositif de stockage pourraient amener l'ESXi
indiquer que la banque de donnes existante sur le priphrique est une copie de la banque de donnes
d'origine :
n

Changements d'ID de LUN

Changements du type de priphrique SCSI, par exemple, de SCSI-2 SCSI-3

activation de la conformit SPC-2

ESXi peut dtecter la copie de la banque de donnes VMFS et l'afficher dans Client Web vSphere. Vous
pouvez monter la copie de la banque de donnes VMFS avec son UUID d'origine ou changer l'UUID pour
resigner la banque de donnes.
Que vous ayez choisi de resigner ou de monter sans resigner dpend de la manire dont les LUN sont
masqus dans l'environnement de stockage. Si vos htes sont capables de voir les deux copies du LUN, alors
resigner est la mthode recommande. Dans les autres cas, monter est un option.

Garder la signature existante dans Client Web vSphere


Si vous n'avez pas resigner la copie d'une banque de donnes VMFS, vous pouvez la monter sans changer
sa signature.
Vous pouvez conserver la signature si, par exemple, vous maintenez des copies synchronises de machines
virtuelles sur un site secondaire, dans le contexte d'un plan de rcupration aprs sinistre. En cas de sinistre
sur le site primaire, vous pouvez monter la copie de banque de donnes et dmarrer les machines virtuelles
sur le site secondaire.
Prrequis
n

Effectuez une nouvelle analyse de stockage de votre hte pour qu'il mette jour l'affichage des
priphriques de stockage prsents l'hte.

Dmontez la banque de donnes VMFS d'origine possdant le mme UUID que la copie que vous
envisagez de monter. Vous ne pouvez monter une copie de banque de donnes VMFS que si elle n'entre
pas en conflit avec la banque de donnes VMFS d'origine.

Accdez aux banques de donnes dans le navigateur de Client Web vSphere. Reportez-vous
Afficher les informations des banques de donnes dans Client Web vSphere , page 20.

Procdure

152

Cliquez sur l'icne Crer une nouvelle banque de donnes.

Saisissez un nom de banque de donnes et, si ncessaire, slectionnez l'emplacement pour la banque de
donnes.

Slectionnez VMFS comme type de banque de donnes.

VMware, Inc.

Chapitre 16 Utilisation des banques de donnes

partir de la liste des priphriques de stockage, slectionnez le priphrique qui a une valeur
spcifique affiche dans la colonne Volume du snapshot.
Le nom prsent dans la colonne Volume du snapshot indique que le priphrique est une copie
contenant une copie d'une banque de donnes VMFS existante.

Dans Options de montage, slectionnez [Garder signature existante] .

Passez en revue les informations de configuration de la banque de donnes et cliquez sur [Terminer] .

Suivant
Si vous voulez resigner la banque de donnes monte plus tard, vous devrez d'abord la dmonter.

Resigner la copie d'une banque de donnes VMFS dans Client Web vSphere
Utilisez la re-signature de banque de donnes si vous voulez conserver les donnes stockes dans la copie
de banque de donnes VMFS.
Lors d'une re-signature de copie VMFS, ESXi assigne une nouvelle signature (UUID) la copie, et la monte
en tant que banque de donnes distincte de l'original. Toutes les rfrences la signature originale des
fichiers de configuration de la machine virtuelle sont mises jour.
Lorsque vous effectuez une re-signature de banque de donnes, prenez en compte les points suivants :
n

La re-signature d'une banque de donnes est irrversible.

Aprs resignature, la rplique du priphrique de stockage qui contenait la copie VMFS ne sera plus
traite comme une rplique.

Une banque de donnes parpille ne peut tre re-signe que si toutes ses parties sont en ligne.

Le processus de re-signature est tolrant aux pannes et aux incidents. Si le processus est interrompu,
vous pourrez le reprendre plus tard.

Vous pouvez monter la nouvelle banque de donnes VMFS sans risque que son UUID soit en conflit
avec les UUID de toute autre banque de donnes, comme un anctre ou un enfant dans une hirarchie
d'instantans de priphriques de stockage.

Prrequis
n

Dmontez la copie de la banque de donnes.

Effectuez une nouvelle analyse de stockage de votre hte pour qu'il mette jour l'affichage des
priphriques de stockage prsents l'hte.

Accdez aux banques de donnes dans le navigateur de Client Web vSphere. Reportez-vous
Afficher les informations des banques de donnes dans Client Web vSphere , page 20.

Procdure
1

Cliquez sur l'icne Crer une nouvelle banque de donnes.

Saisissez un nom de banque de donnes et, si ncessaire, slectionnez l'emplacement pour la banque de
donnes.

Slectionnez VMFS comme type de banque de donnes.

partir de la liste des priphriques de stockage, slectionnez le priphrique qui a une valeur
spcifique affiche dans la colonne Volume du snapshot.
Le nom prsent dans la colonne Volume du snapshot indique que le priphrique est une copie
contenant une copie d'une banque de donnes VMFS existante.

VMware, Inc.

Dans Options de montage, slectionnez [Affecter nouvelle signature] et cliquez sur [Suivant] .

153

Stockage vSphere

Passez en revue les informations de configuration de la banque de donnes et cliquez sur [Terminer] .

Mise niveau des banques de donnes VMFS


Si vos banques de donnes ont t formates avec VMFS2 ou VMFS3, vous pouvez les mettre niveau vers
VMFS5.
Lorsque vous effectuez des mises niveau de banque de donnes, prenez en compte les points suivants :
n

Pour mettre niveau une banque de donnes VMFS2, vous devez suivre deux tapes qui impliquent la
mise niveau de VMFS2 vers VMFS3. Les htes ESXi 5.0 et ultrieurs ne pouvant pas accder aux
banques de donnes VMFS2, utilisez un hte hrit (ESX/ESXi 4.x ou antrieur) pour accder la
banque de donnes VMFS2 et procdez la mise niveau de la banque de donnes VMFS2 vers
VMFS3.
Une fois la banque de donnes VMFS2 mise niveau vers VMFS3, elle devient disponible sur l'hte
ESXi 5.x, o vous pouvez poursuivre le processus de mise jour vers VMFS5.

Vous pouvez effectuer une mise niveau de VMFS3 vers VMFS5 alors que la banque de donnes est en
cours d'utilisation avec des machines virtuelles sous tension.

Au cours de la mise niveau, votre hte prserve tous les fichiers sur la banque de donnes.

La mise niveau de banque de donnes est un processus unilatral. Une fois la banque de donnes mise
niveau, vous ne pouvez pas revenir l'ancien format VMFS.

Une banque de donnes VMFS5 mise niveau est diffrent d'une banque de donnes VMFS5 formate.
Tableau 163. Comparaison d'une banque de donnes VMFS5 mise niveau et d'une banque de donnes
VMFS5 formate
Caractristiques

Banque de donnes VMFS5 mise


niveau

Banque de donnes
VMFS5 formate

Taille de bloc de fichier

1, 2, 4 et 8 Mo

1 Mo

Taille de sous-bloc

64 Ko

8 Ko

Format de partition

MBR. La conversion vers GPT survient


uniquement lorsque vous agrandissez la
banque de donnes pour lui donner une
taille suprieure 2 To.

GPT

Limites de banque de donnes

Conserve les limites d'une banque de


donnes VMFS3.

Mettre niveau une banque de donnes vers VMFS5 dans Client Web vSphere
Vous pouvez mettre niveau votre banque de donnes VMFS3 vers VMFS5. VMFS5 est une nouvelle
version du systme de fichiers de cluster VMware qui offre des amliorations en termes de performances et
d'volutivit.
Vous pouvez effectuer une mise niveau alors que la banque de donnes est en cours d'utilisation avec des
machines virtuelles sous tension.
Prrequis

154

Si vous possdez une banque de donnes VMFS2, vous devez d'abord la mettre niveau vers VMFS3
en utilisant un hte ESX/ESXi 3.x ou ESX/ESXi 4.x. Utilisez vSphere Host Client pour accder l'hte.

Tous les htes qui accdent la banque de donnes doivent prendre en charge VMFS5.

Vrifiez que le volume qui doit tre mis niveau dispose d'au moins 2 Mo et d'un descripteur de fichier
libre.

VMware, Inc.

Chapitre 16 Utilisation des banques de donnes

Accdez aux banques de donnes dans le navigateur de Client Web vSphere. Reportez-vous
Afficher les informations des banques de donnes dans Client Web vSphere , page 20.

Procdure
1

Cliquez sur la banque de donnes mettre niveau.

Cliquez sur longlet [Grer] , puis cliquez sur [Paramtres] .

Cliquez sur [Mettre niveau vers VMFS5] .

Assurez-vous que les htes qui accdent la banque de donnes prennent en charge VMFS5.

Cliquez sur [OK] pour dmarrer la mise niveau.

Effectuez une nouvelle analyse sur tous les htes associs la banque de donnes.

La banque de donnes est mise niveau vers VMFS5 et est disponible pour tous les htes qui lui sont
associs.

Augmentation de la capacit d'une banque de donnes VMFS


Si votre banque de donnes VMFS requiert plus d'espace, augmentez la capacit de la banque de donnes.
Vous pouvez augmenter dynamiquement la capacit en agrandissant une extension de la banque de
donnes ou en ajoutant une nouvelle extension.
Utilisez une des mthodes suivantes pour augmenter la capacit d'une banque de donnes :
n

Agrandissez dynamiquement toute extension de banque de donnes pouvant l'tre, afin qu'elle
remplisse la capacit adjacente disponible. L'extension est considre comme agrandissable lorsque le
priphrique de stockage sous-jacent dispose d'espace libre immdiatement aprs l'extension.

Ajouter dynamiquement une nouvelle extension. La banque de donnes peut s'tendre sur
32 extensions maximum, la taille de chacune des extensions dpassant les 2 To. Cependant, la banque
de donnes apparat en tant que volume unique. La banque de donnes VMFS tendue peut utiliser
n'importe laquelle de ses extensions ou toutes ses extensions tout moment. Elle ne doit pas
ncessairement remplir une extension spcifique avant d'utiliser la suivante.
REMARQUE Les banques de donnes ne prenant en charge que le verrouillage par assistance matrielle,
galement appel ATS (atomic test and set), ne peuvent s'tendre sur des priphriques non ATS. Pour
plus d'informations, voir Mcanismes de verrouillage VMFS , page 147.

Augmenter la capacit dune banque de donnes VMFS dans


Client Web vSphere
Lorsque vous avez besoin dajouter des machines virtuelles une banque de donnes ou lorsque les
machines virtuelles excutant sur une banque de donnes ncessitent plus despace, vous pouvez
augmenter dynamiquement la capacit dune banque de donnes VMFS.
Si une banque de donnes partage dispose de machines virtuelles sous tension et qu'elle est remplie
compltement, vous pouvez augmenter la capacit de la banque de donnes uniquement partir de l'hte
dans lequel les machines virtuelles sous tension sont enregistres.
Prrequis
Accdez aux banques de donnes dans le navigateur de Client Web vSphere. Reportez-vous Afficher les
informations des banques de donnes dans Client Web vSphere , page 20.
Procdure
1

VMware, Inc.

Slectionnez la banque de donnes agrandir et cliquez sur licne Augmenter la capacit de la banque
de donnes.

155

Stockage vSphere

Slectionnez un priphrique dans la liste des priphriques de stockage.


Votre choix dpend de savoir si un priphrique de stockage extensible est disponible.
Option

Description

Pour agrandir une extension


existante.

Slectionnez le priphrique dont la colonne Extensible contient la valeur


Oui. Un priphrique de stockage est signal comme extensible sil
possde un espace libre immdiatement aprs lextension.

Ajoutez une nouvelle extension.

Slectionnez le priphrique dont la colonne Extensible contient la valeur


Non.

Vrifiez la [Disposition actuelle du disque] pour identifier les configurations disponibles et cliquez sur
[Suivant] .

Slectionnez une option de configuration dans le panneau du bas.


Selon la disposition actuelle du disque et vos slections prcdentes, les options que vous voyez
pourraient varier.

Option

Description

Utilisez l'espace libre pour ajouter


la nouvelle extension

Ajoute de l'espace libre sur ce disque comme nouvelle extension.

Utilisez l'espace libre pour largir


l'extension existante

Une extension existante est agrandie par rapport la capacit requise.

Utilisez l'espace libre

Dploie une extension dans l'espace libre restant du disque. Cette option
est disponible uniquement lorsque vous ajoutez une extension.

Utilisez toutes les partitions


disponibles

Ddie la totalit du disque une seule extension. Cette option est


disponible uniquement lorsque vous ajoutez une extension et que le
disque que vous formatez n'est pas vierge. Le disque est reformat et les
banques de donnes et toutes les donnes qu'elles contiennent sont
effaces.

Dfinissez la capacit de l'extension.


La taille d'extension minimale est 1,3 Go. Par dfaut, l'espace libre entier sur le priphrique de
stockage est disponible.

Cliquez sur [Suivant] .

Passez en revue la disposition propose et la nouvelle configuration de votre banque de donnes et


cliquez sur [Terminer] .

Renommer les banques de donnes VMFS ou NFS dans


Client Web vSphere
Vous pouvez modifier le nom d'une banque de donnes existante.
Prrequis
Accdez aux banques de donnes dans le navigateur de Client Web vSphere. Reportez-vous Afficher les
informations des banques de donnes dans Client Web vSphere , page 20.
Procdure
1

Cliquez avec le bouton droit sur la banque de donnes renommer.

Slectionnez [Renommer] dans le menu contextuel.

Entrez un nouveau nom de banque de donnes.


Client Web vSphere impose une limite de 42 caractres pour le nom de la banque de donnes.

156

VMware, Inc.

Chapitre 16 Utilisation des banques de donnes

Le nouveau nom s'affiche sur tous les htes ayant accs la banque de donnes.

Dmonter des banques de donnes VMFS ou NFS


Quand vous dmontez une banque de donnes, elle reste intacte, mais ne peut tre vue par les htes que
vous spcifiez. La banque de donnes continue d'apparatre sur les autres htes, o elle reste monte.
N'excutez aucune opration de configuration qui puisse gnrer des E/S vers la banque de donnes lorsque
le dmontage est en cours.
REMARQUE Le signal de pulsation vSphere HA ne vous empche pas de dmonter la banque de donnes.
Toutefois, si une banque de donnes est utilise pour le signal de pulsation, son dmontage peut provoquer
la dfaillance de l'hte et le redmarrage de toutes les machines virtuelles actives.
Prrequis
Avant de dmonter une banque de donnes VMFS, veillez ce que les conditions requises suivantes soient
remplies :
n

Aucune machine virtuelle ne doit se trouver dans la banque de donnes.

La banque de donnes ne doit pas faire partie d'un cluster de banques de donnes.

La banque de donnes n'est pas gre par le DRS de stockage.

Le contrle E/S du stockage doit tre dsactiv pour la banque de donnes.

La banque de donnes n'est pas utilise pour le signal de pulsation vSphere HA.

Accdez aux banques de donnes dans le navigateur de Client Web vSphere. Reportez-vous Afficher les
informations des banques de donnes dans Client Web vSphere , page 20.
Procdure
1

Cliquez avec le bouton droit sur la banque de donnes dmonter et slectionnez [Dmonter la
banque de donnes] .

Si la banque de donnes est partage, spcifiez quels htes ne devraient plus accder la banque de
donnes.

Confirmez que vous voulez dmonter la banque de donnes.

Ds qu'une banque de donnes VMFS est dmonte, elle est marque comme tant inactive.
Suivant
Si vous avez dmont la banque de donnes VMFS dans le cadre d'une procdure de retrait dans les rgles
de l'art, vous pouvez prsent dconnecter le priphrique de stockage assurant la sauvegarde de la banque
de donnes. Reportez-vous la section Dconnexion des priphriques de stockage , page 135.

Monter des banques de donnes VMFS


Vous pouvez monter une banque de donnes VMFS dmonte.
Prrequis
Accdez aux banques de donnes dans le navigateur de Client Web vSphere. Reportez-vous Afficher les
informations des banques de donnes dans Client Web vSphere , page 20.

VMware, Inc.

157

Stockage vSphere

Procdure
1

Cliquez avec le bouton droit sur la banque de donnes monter et slectionnez [Monter la banque de
donnes] .
REMARQUE La banque de donnes qui est dmonte sur certains htes tout en tant monte sur d'autres
apparat comme tant active dans l'inventaire .

Slectionnez les htes devant accder la banque de donnes.

Supprimer des banques de donnes VMFS dans Client Web vSphere


Vous pouvez supprimer n'importe quel type de banque de donnes VMFS, y compris les copies que vous
avez montes sans nouvelle signature. Quand vous supprimez une banque de donnes, elle est dtruite et
disparat de tous les htes qui y ont accs.
REMARQUE L'opration de suppression de la banque de donnes supprime dfinitivement tous les fichiers
associs aux machines virtuelles de la banque de donnes. Bien que vous puissiez supprimer la banque de
donnes sans la dmonter, il est prfrable de la dmonter au pralable.
Prrequis
n

Supprimez ou migrez toutes les machines virtuelles de la banque de donnes.

Vrifiez qu'aucun autre hte n'accde la banque de donnes.

Dsactivez le stockage DRS pour la banque de donnes.

Dsactivez Storage I/O control pour la banque de donnes.

Assurez-vous que la banque de donnes n'est pas utilise pour le signal de pulsation vSphere HA.

Accdez aux banques de donnes dans le navigateur de Client Web vSphere. Reportez-vous
Afficher les informations des banques de donnes dans Client Web vSphere , page 20.

Procdure

158

Cliquez avec le bouton droit sur la banque de donnes supprimer.

Slectionnez [Toutes les actions vCenter] > [Supprimer la banque de donnes] .

Confirmez que vous souhaitez supprimer la banque de donnes.

VMware, Inc.

Chapitre 16 Utilisation des banques de donnes

Filtres de stockage
vCenter Server fournit des filtres de stockage pour vous aider viter la corruption des priphriques de
stockage ou les dgradations de performances pouvant tre provoques par une utilisation non prise en
charge des priphriques LUN. Ces filtres sont disponibles par dfaut.
Tableau 164. Filtres de stockage
Nom du filtre

Description

Touche

Filtre VMFS

limine les priphriques de stockage, ou LUN, qui


sont dj utiliss par une banque de donnes VMFS
ou un hte gr par vCenter Server. Les LUN ne
s'affichent pas comme des candidats au formatage
avec une autre banque de donnes VMFS ou pour
une utilisation en tant que RDM.

config.vpxd.filter.vmfsFilter

Filtre RDM

limine les LUN dj rfrencs par un RDM sur un


hte gr par vCenter Server. Les LUN ne s'affichent
pas comme des candidats au formatage avec VMFS
ou pour une utilisation par un RDM diffrent.
Si vos machines virtuelles doivent accder au mme
LUN, celles-ci doivent partager le mme fichier de
mappage RDM. Pour plus d'informations sur ce type
de configuration, consultez la documentation Gestion
des ressources vSphere.

config.vpxd.filter.rdmFilter

Filtre d'hte identique


et de transports

limine les LUN inligibles pour une utilisation


comme extensions de banque de donnes VMFS en
raison d'incompatibilit d'hte ou de stockage. Vous
empche d'ajouter les LUN suivants comme
extensions :
n LUN non exposs tous les htes qui partagent
la banque de donnes VMFS d'origine.
n LUN utilisant un type de stockage diffrent de
celui utilis par la banque de donnes d'origine.
Par exemple, vous ne pouvez pas ajouter une
extension Fibre Channel une banque de
donnes VMFS sur un priphrique de stockage
local.

config.vpxd.filter.SameHostAndTransportsFilter

Filtre de ranalyse
d'hte

Ranalyse automatiquement et met niveau les


banques de donnes VMFS aprs que vous avez
effectu des oprations de gestion de banque de
donnes. Ce filtre aide fournir une vue cohrente
de toutes les banques de donnes VMFS sur tous les
htes grs par vCenter Server.

config.vpxd.filter.hostRescanFilter

REMARQUE Si vous prsentez un nouveau LUN un


hte ou un cluster, les htes excutent
automatiquement une ranalyse que le filtre de
ranalyse d'hte soit activ ou non.

VMware, Inc.

159

Stockage vSphere

Dsactiver les filtres de stockage dans Client Web vSphere


Lorsque vous effectuez des oprations de gestion de banque de donnes VMFS, vCenter Server utilise des
filtres de protection par dfaut. Les filtres vous aident viter une corruption du stockage en extrayant
uniquement les priphriques de stockage pouvant tre utiliss pour une opration particulire. Les
priphriques non conformes ne sont pas affichs pour la slection. Vous pouvez dsactiver les filtres pour
afficher tous les priphriques.
Prrequis
Avant d'apporter des modifications aux filtres des priphriques, contactez l'quipe de support de VMware.
Vous pouvez dsactiver les filtres uniquement si vous avez d'autres moyens d'empcher une corruption des
LUN.
Procdure
1

Accdez au vCenter Server dans le navigateur d'objets de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Paramtres] .

Cliquez sur [Paramtres avancs] , puis sur [Modifier] .

Dans la zone de texte Touche, entrez une cl adquate.


Touche

Nom du filtre

config.vpxd.filter.vmfsFilter

Filtre VMFS

config.vpxd.filter.rdmFilter

Filtre RDM

config.vpxd.filter.SameHostAndTra
nsportsFilter

Filtre d'hte identique et de transports

config.vpxd.filter.hostRescanFilter

Filtre de ranalyse d'hte


REMARQUE Si vous dsactivez le filtre de ranalyse de l'hte, vos htes
continuent d'excuter une ranalyse chaque fois que vous prsentez un
nouveau LUN un hte ou un cluster.

Dans la zone de texte Valeur, tapez False pour la cl spcifie.

Cliquez sur [Ajouter] et cliquez sur [OK] .


Vous n'avez pas besoin de redmarrer le systme vCenter Server.

Configuration de la mise en miroir des disques dynamiques


En gnral, vous ne pouvez pas utiliser de logiciel de gestion de volumes logiques sur des machines
virtuelles pour mettre en miroir des disques virtuels. Cependant, si vos machines virtuelles Microsoft
Windows prennent en charge les disques dynamiques, vous pouvez protger les machines virtuelles d'une
perte de priphrique de stockage imprvue en mettant en miroir les disques virtuels sur deux LUN SAN.
Prrequis
n

Utilisez une machine virtuelle Windows qui prend en charge les disques dynamiques.

Privilge ncessaire : Avanc

Procdure
1

Cration d'une machine virtuelle disposant de deux disques virtuels.


Veillez placer les disques sur des banques de donnes diffrentes.

160

VMware, Inc.

Chapitre 16 Utilisation des banques de donnes

Connectez-vous votre machine virtuelle et configurez les disques en tant que disques dynamiques mis
en miroir.
Consultez la documentation de Microsoft.

Aprs la synchronisation des disques, mettez la machine virtuelle hors tension.

Modifiez les paramtres de la machine virtuelle pour autoriser l'utilisation de la mise en miroir des
disques dynamiques.
a

Cliquez avec le bouton droit sur la machine virtuelle et slectionnez [Modifier les paramtres] .

Cliquez sur l'onglet [Options VM] et dveloppez le menu [Avanc] .

Cliquez sur [Modifier la configuration] en regard de Paramtres de configuration.

Cliquez sur [Ajouter ligne] et ajoutez les paramtres suivants :

Nom

Valeur

scsi#.returnNoConnectDuringAPD

Vrai

scsi#.returnBusyOnNoConnectStatus

Faux

Cliquez sur [OK] .

Crer une partition de diagnostic


Pour s'excuter correctement, votre hte ncessite une partition de diagnostic ou une partition de dcharge
pour stocker les vidages mmoire destins au dbogage et au support technique.
En gnral, une partition de diagnostic locale est cre lors de l'installation d'ESXi. Vous pouvez remplacer
ce comportement par dfaut. Par exemple, vous pouvez utiliser des priphriques de stockage partags au
lieu d'un stockage local. Pour viter le formatage de disque automatique, dtachez les priphriques de
stockage locaux de l'hte avant d'installer ESXi et mettez l'hte sous tension pour la premire fois Vous
pouvez ensuite crer une partition de diagnostic sur un disque local ou sur un LUN de rseau de stockage
SAN priv ou partag en utilisant le client.
Les considrations suivantes s'appliquent :
n

Une partition de diagnostic ne peut pas tre situe sur un LUN iSCSI accessible par le logiciel iSCSI ou
un adaptateur de matriel iSCSI dpendant. Pour plus d'informations sur les partitions de diagnostic
avec iSCSI, consultez Recommandations gnrales de dmarrage partir du SAN iSCSI , page 111.

Sauf si vous utilisez des serveurs sans disques, crez une partition de diagnostic sur un stockage local.

Chaque hte doit avoir une partition de diagnostic de 110 Mo. Si plusieurs htes partagent une
partition de diagnostic sur un LUN de rseau de stockage SAN, la partition doit tre suffisamment
importante pour contenir les vidages de mmoire de tous les htes.

Si un hte utilisant une partition de diagnostic partage choue, redmarrez l'hte et procdez
l'extraction des fichiers journaux immdiatement aprs l'chec. Autrement, il est possible que le
deuxime hte qui choue avant que vous n'ayez pu collecter les donnes de diagnostic du premier
hte, ne parvienne pas enregistrer le vidage mmoire.

Pour grer la partition de diagnostic, utilisez les commandes vCLI. Consultez Concepts et exemples de
l'interface de ligne de commande vSphere.

Crer une partition de diagnostic dans vSphere Web Client


Crez une partition de diagnostic pour votre hte.
Procdure
1

VMware, Inc.

Accdez l'hte dans le navigateur de Client Web vSphere.

161

Stockage vSphere

Cliquez avec le bouton droit de la souris sur l'hte et slectionnez [Toutes les actions de
linfrastructure virtuelle] > [Ajouter une partition de diagnostic] .
Si cette option n'apparat pas, l'hte a dj une partition de diagnostic.

Spcifiez le type de partition de diagnostic.


Option

Description

Locale prive

Cre la partition de diagnostic sur un disque local. Cette partition stocke


les informations de dfaillance uniquement pour votre hte.

Stockage SAN priv

Cre la partition de diagnostic sur un LUN de rseau de stockage SAN non


partag. Cette partition stocke les informations de dfaillance uniquement
pour votre hte.

Stockage SAN partag

Cre la partition de diagnostic sur un LUN de SAN partag. Cette partition


est accessible par plusieurs htes et peut stocker des information de
dfaillance pour plus d'un hte.

Cliquez sur [Suivant] .

Slectionnez le priphrique utiliser pour la partition de diagnostic et cliquez sur [Suivant] .

Passez en revue les informations de configuration de la partition et cliquez sur [Terminer] .

Vrifier une partition de diagnostic


Utilisez la commande esxcli pour vrifier si une partition de diagnostic a t dfinie.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Dressez la liste des partitions pour vrifier si une partition de diagnostic a t dfinie.
esxcli --server=nom_du_serveur system coredump partition list

Si une partition de diagnostic est dfinie, cette commande affiche les informations relatives cette partition.
Dans le cas contraire, elle indique qu'aucune partition n'a t active et configure.

Dplacer le vidage de mmoire vers un fichier


L'augmentation de la taille du systme entrane un accroissement du vidage de mmoire ESXi. La partition
de vidage de mmoire des nouvelles installations d'ESXi 5.5 est de 2,5 Go. Pour les mises niveau partir
des versions d'ESXi antrieures la version 5.5, la partition de vidage de mmoire est limite 100 Mo pour
les incidents ESXi. Pour beaucoup de systmes volumineux, cette limite est insuffisante si bien que les
fichiers journaux de vidage de mmoire sont tronqus. La limite influe sur la priorisation des problmes lis
au noyau et au systme ESXi.
Pour les mises niveau limites des partitions de 100 Mo, le systme peut crer un fichier de vidage de
mmoire au cours du processus de dmarrage. S'il ne cre pas de fichier de vidage de mmoire, vous
pouvez en crer un manuellement l'aide de la commande esxcli system coredump file.

162

VMware, Inc.

Chapitre 16 Utilisation des banques de donnes

Procdure
1

Pour crer un fichier de vidage de mmoire de banque de donnes VmKernel VMFS.


esxcli system coredump file add

Pour rcuprer la configuration actuelle du fichier de vidage de mmoire.


esxcli system coredump file get

Pour dsactiver le fichier de vidage de mmoire.


esxcli system coredump file set -e false

Pour rechercher et activer le fichier de vidage de mmoire actif.


esxcli system coredump file set --smart --enable true

Pour annuler la configuration du fichier de vidage VMFS :


esxcli system coredump file set --unconfigure

Pour supprimer le fichier de vidage de mmoire.


L'option --force dsactive le fichier supprim et annule sa configuration.
esxcli system coredump file remove --force

Vrification de la cohrence des mtadonnes avec VOMA


Utilisez VMware Ondisk Metadata Analyser (VOMA) lorsque vous rencontrez des problmes avec votre
banque de donnes VMFS et que vous avez besoin de vrifier la cohrence des mtadonnes de VMFS ou un
volume logique qui prend en charge le volume VMFS.
Problme
Les exemples suivants montrent les circonstances dans lesquelles vous pouvez avoir besoin d'effectuer une
vrification des mtadonnes :
n

Vous rencontrez des pannes SAN.

Aprs avoir reconstruit RAID ou effectu un remplacement de disque.

Vous constatez des erreurs de mtadonnes dans le fichier vmkernel.log.

Vous ne parvenez pas accder aux fichiers de la banque de donnes VMFS qui ne sont pas utiliss par
un autre hte.

Solution
Pour vrifier la cohrence des mtadonnes, excutez VOMA partir de l'interface de ligne de commande
d'un hte ESXi version 5.1 ou ultrieure. VOMA peut vrifier la fois le volume logique et le VMFS pour les
incohrences de mtadonnes. Vous pouvez utiliser VOMA sur les banques de donnes VMFS3 et VMFS5.
VOMA fonctionne dans un mode lecture seule et ne sert qu' identifier les problmes. VOMA ne corrige pas
les erreurs qu'il dtecte. Consultez le support VMware pour rsoudre les erreurs signales par VOMA.
Suivez ces directives lors de l'utilisation de l'outil VOMA :
n

Assurez-vous que les banques de donnes VMFS que vous analysez ne s'tendent pas sur plusieurs
extensions. Vous ne pouvez excuter VOMA que sur une extension unique de la banque de donnes.

Mettez hors tension les machines virtuelles en cours d'excution ou dplacez-les vers une autre banque
de donnes.

Suivez ces tapes lorsque vous utilisez l'outil VOMA pour vrifier la cohrence des mtadonnes VMFS.
1

VMware, Inc.

Obtenez le nom et le numro de la partition du priphrique qui prend en charge la banque de donnes
VMFS que vous devez vrifier.

163

Stockage vSphere

Liste tendue vmfs de stockage #esxcli

Les colonnes Nom priphrique et Partition dans la sortie identifient le priphrique. Par exemple :
Volume Name
1TB_VMFS5

XXXXXXXX
XXXXXXXX

Device Name
naa.600508e000000000b367477b3be3d703

Partition
3

Excutez VOMA pour vrifier les erreurs VMFS.


Indiquez le chemin absolu de la partition du priphrique qui prend en charge la banque de donnes
VMFS et entrez un numro de partition avec le nom du priphrique. Par exemple :
# voma -m vmfs -f check -d /vmfs/devices/disks/naa.600508e000000000b367477b3be3d703:3

La sortie rpertorie les erreurs possibles. Par exemple, la sortie suivante indique que l'adresse de signal
de pulsation n'est pas valide.
XXXXXXXXXXXXXXXXXXXXXXX
Phase 2: Checking VMFS heartbeat region
ON-DISK ERROR: Invalid HB address
Phase 3: Checking all file descriptors.
Phase 4: Checking pathname and connectivity.
Phase 5: Checking resource reference counts.
Total Errors Found:

L'outil VOMA utilise les options suivantes.


Tableau 165. Options de commande VOMA
Option de commande

Description

-m | --module

Module excuter : vmfs ou lvm. Si vous spcifiez vmfs,


les vrifications minimales sont galement effectues pour
LVM. Le module par dfaut est vmfs.

-f | --func

Fonctions excuter :
query - fonctions de liste prises en charge par le module.
check - recherche des erreurs.

-d|--device

Priphrique ou disque inspecter. Assurez-vous de


fournir le chemin absolu de la partition du priphrique
qui prend en charge la banque de donnes VMFS. Par
exemple, /vmfs/devices/disks/naa.
00000000000000000000000000:1.

-s | --logfile

Spcifiez le fichier journal pour gnrer les rsultats.

-v | --version

Afficher la version de VOMA.

-h|--help

Afficher le message d'aide de la commande VOMA.

Configuration du cache de blocs de pointage VMFS


Pour configurer le cache de blocs de pointage, vous pouvez utiliser les paramtres VMFS avancs.
Le nombre de blocs de pointage utiliss par les fichiers des machines virtuelles sur les banques de donnes
VMFS augmente proportionnellement l'accroissement de la taille de ces fichiers. Les blocs de pointage sont
utiliss pour traiter des blocs de fichiers dans des machines virtuelles et des disques virtuels volumineux
figurant sur une banque de donnes VMFS.
Vous pouvez configurer les tailles minimale et maximale du cache de blocs de pointage sur chaque hte
ESXi. Lorsque la taille du cache de blocs de pointage se rapproche de la taille maximale configure, un
mcanisme d'viction supprime certaines entres de bloc de pointage du cache pour permettre l'entre de
nouveaux blocs.

164

VMware, Inc.

Chapitre 16 Utilisation des banques de donnes

Basez la taille maximale du cache de blocs de pointage sur la taille de travail de tous les fichiers des disques
virtuels ouverts qui rsident sur les banques de donnes VMFS. Toutes les banques de donnes VMFS
prsentes sur l'hte utilisent un cache de blocs de pointage unique.
La valeur minimale est base sur la quantit minimale de mmoire garantie que le systme peut allouer au
cache. 1 To d'espace pour les fichiers ouverts exige approximativement 4 Mo de mmoire.
Pour configurer les valeurs minimale et maximale du cache de blocs de pointage, utilisez les paramtres
suivants.
Tableau 166. Paramtres avancs pour rguler le cache de blocs de pointage
Paramtre

Valeurs

Description

VMFS3.MaxAddressableSpaceTB

La valeur par dfaut est 32 (en To).

Taille maximale de tous les fichiers


ouverts que le cache VMFS peut
prendre en charge avant le dmarrage
de l'viction.

VMFS3.MinAddressableSpaceTB

La valeur par dfaut est 10 (en To).

Taille minimale de tous les fichiers


ouverts que le cache VMFS garantit de
prendre en charge.

Pour obtenir des informations sur la configuration de ces paramtres avancs, reportez-vous Dfinir les
attributs d'hte avancs dans Client Web vSphere , page 141.

Dfinir les attributs d'hte avancs dans Client Web vSphere


Vous pouvez rgler les attributs avancs d'un hte.
AVERTISSEMENT La modification des options avances est considre comme non prise en charge sauf si
l'assistance technique VMware ou un article KB vous demandent de le faire. Dans tous les autres cas, la
modification de ces options est considre comme non prise en charge. Dans la plupart des cas, les
paramtres par dfaut donnent un rsultat optimal.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

Sous [Systme] , cliquez sur [Paramtres systme avancs] .

Dans Paramtres avancs, slectionnez l'lment appropri.

Cliquez sur le bouton [Modifier] pour modifier la valeur.

Cliquez sur [OK] .

VMware, Inc.

165

Stockage vSphere

166

VMware, Inc.

Mappage de priphrique brut

17

Le mappage de priphrique brut (RDM) fournit un mcanisme permettant une machine virtuelle
d'accder directement un LUN sur le sous-systme de stockage physique (Fibre Channel ou iSCSI
uniquement).
Les rubriques suivantes contiennent des informations sur les RDM et fournissent des instructions sur la
manire de crer et de grer des RDM.
Ce chapitre aborde les rubriques suivantes :
n

propos du mappage de priphrique brut , page 167

Caractristiques du mappage de priphrique brut , page 171

Crer des machines virtuelles avec des RDM dans Client Web vSphere , page 173

Grer les chemins d'accs d'un LUN mapp dans Client Web vSphere , page 174

propos du mappage de priphrique brut


Un RDM est un fichier de mappage dans un volume VMFS spar qui se comporte comme un proxy pour
un priphrique physique brut. Le RDM permet une machine virtuelle d'accder directement au
priphrique de stockage et de l'utiliser. Le RDM contient des mtadonnes pour la gestion et la redirection
de l'accs au disque vers le priphrique physique.
Le fichier vous donne certains des avantages de l'accs direct au priphrique physique tout en conservant
les avantages du disque virtuel dans VMFS. En consquence, il associe la capacit de gestion de VMFS
l'accs au priphrique brut.
Les RDM peuvent tre dcrits comme le mappage d'un priphrique brut dans une banque de donnes, le
mappage d'un LUN systme ou le mappage d'un fichier du disque vers un volume de disque physique.
Tous ces termes se rapportent au RDM.

VMware, Inc.

167

Stockage vSphere

Figure 171. Mappage de priphrique brut


Machine
virtuelle

lit,
crit

ouvre
Volume VMFS
fichier de
mappage

rsolution
d'adresse

priphrique
mapp

Bien que VMware recommande d'utiliser les banques de donnes VMFS pour la plus grande partie du
stockage sur disque virtuel, dans certains cas, vous pouvez utiliser des LUN bruts ou des disques logiques
situs sur un SAN.
Par exemple, vous pouvez utiliser des LUN bruts avec des RDM dans les situations suivantes :
n

Lorsque le snapshot du SAN ou d'autres applications en couche sont excuts dans la machine virtuelle.
Le RDM permet des systmes de dchargement volutifs l'aide de fonctions inhrentes au SAN.

Dans tout scnario de mise en clusters MSCS qui parcourt les htes physiques (clusters virtuel virtuel
ainsi que clusters physique virtuel). Dans ce cas, les donnes du cluster et les disques quorum doivent
tre configurs comme des RDM plutt que comme des disques virtuels sur un VMFS partag.

Considrez un RDM comme un lien symbolique d'un volume VMFS vers un LUN brut. Le mappage fait
apparatre les LUN comme des fichiers dans un volume VMFS. LE RDM, et non le LUN brut, est rfrenc
dans la configuration de la machine virtuelle. Le RDM contient une rfrence au LUN brut.
En utilisant le RDM, vous pouvez :
n

Utiliser vMotion pour migrer des machines virtuelles l'aide de LUN bruts.

Ajoutez des LUN bruts aux machines virtuelles l'aide de Client Web vSphere.

Utiliser les fonctions du systme de fichiers telles que le verrouillage des fichiers distribus, les
autorisations et les noms.

Deux modes de compatibilit sont disponibles pour les RDM :

168

Le mode de compatibilit virtuelle permet un RDM d'agir exactement comme un fichier de disque
virtuel, y compris l'utilisation des snapshots.

Le mode de compatibilit physique permet un accs direct au priphrique SCSI pour les applications
ayant besoin d'un niveau de contrle infrieur.

VMware, Inc.

Chapitre 17 Mappage de priphrique brut

Avantages du mappage de priphrique brut


Un RDM fournit un certain nombre d'avantages, mais il ne doit pas tre utilis dans tous les cas.
Gnralement, les fichiers de disque virtuel sont prfrables la capacit de gestion du RDM. Cependant, si
vous avez besoin de priphriques bruts, vous devez utiliser le RDM.
Le RDM offre plusieurs avantages.
Noms persistants
conviviaux

Fournit un nom convivial pour un priphrique mapp. Lorsque vous


utilisez un RDM, il est inutile de se rapporter au priphrique par son nom
de priphrique. Vous l'appelez par le nom du fichier de mappage, par
exemple :
/vmfs/volumes/monVolume/monRpertoireVM/myonDisqueBrut.vmdk

Rsolution dynamique
de nom

Stocke des informations uniques d'identification pour chaque priphrique


mapp. VMFS associe chaque RDM son priphrique SCSI actuel, quelles
que soient les modifications dans la configuration physique du serveur, en
raison des modifications matrielles de l'adaptateur, des modifications de
chemin, de la relocalisation du priphrique, etc.

Verrouillage des fichiers


distribus

Permet d'utiliser le verrouillage distribu VMFS pour les priphriques SCSI


bruts. Le verrouillage distribu sur un RDM permet d'utiliser en toute
scurit un LUN brut partag sans perdre de donnes lorsque deux machines
virtuelles sur des serveurs diffrents essaient d'accder au mme LUN.

Autorisations de fichier

Permet les autorisations de fichier. Les autorisations de fichier de mappage


sont appliques au moment de l'ouverture du fichier pour protger le
volume mapp.

Oprations du systme
de fichiers

Permet d'utiliser les utilitaires du systme de fichiers pour travailler avec un


volume mapp l'aide du fichier de mappage comme proxy. La plupart des
oprations valides pour un fichier ordinaire peuvent tre appliques au
fichier de mappage et sont rediriges pour fonctionner sur un priphrique
mapp.

Snapshots

Permet d'utiliser les snapshots de machine virtuelle sur un volume mapp.


Les snapshots ne sont pas disponibles lorsque le RDM est utilis en mode de
compatibilit physique.

vMotion

Permet de migrer une machine virtuelle avec vMotion. Le fichier de


mappage agit comme un proxy pour permettre vCenter Server de migrer la
machine virtuelle l'aide du mme mcanisme que celui qui existe pour la
migration des fichiers du disque.

VMware, Inc.

169

Stockage vSphere

Figure 172. vMotion pour une machine virtuelle utilisant le mappage de


priphrique brut

Hte 1

Hte 2

vMotion
VM1

VM2

Volume VMFS
fichier de
mappage

rsolution
d'adresse

priphrique
mapp

Agents de gestion du
SAN

Permet d'excuter certains agents de gestion du SAN l'intrieur d'une


machine virtuelle. De mme, tout logiciel ayant besoin d'accder un
priphrique l'aide de commandes SCSI spcifiques au matriel peut tre
excut dans une machine virtuelle. Ce type de logiciel est appel logiciel
bas sur cible SCSI. Lorsque vous utilisez les agents de gestion du SAN,
slectionnez un mode de compatibilit physique pour le RDM.

Virtualisation d'ID de
port N (NPIV)

Permet d'utiliser la technologie NPIV qui autorise un port unique Fibre


Channel HBA s'enregistrer sur l'ensemble Fibre Channel l'aide de
plusieurs noms de port mondiaux (WWPN). Ainsi, le port HBA a la forme de
ports virtuels multiples, chacun ayant son propre ID et un nom de port
virtuel. Les machines virtuelles peuvent ensuite appeler chacun de ces ports
virtuels et les utiliser pour tout le trafic RDM.
REMARQUE Vous ne pouvez utiliser le NPIV qu'avec les machines virtuelles
dotes de disques RDM.

VMware travaille avec les fournisseurs de logiciel de gestion de stockage pour garantir que leur logiciel
fonctionne correctement dans des environnements incluant ESXi. Certaines applications de ce type sont :
n

Logiciel de gestion du SAN

Logiciel de gestion des ressources de stockage (SRM)

Logiciel de snapshot

Logiciel de rplication

De tels logiciels utilisent un mode de compatibilit physique pour les RDM afin que le logiciel puisse
accder aux priphriques directement.

170

VMware, Inc.

Chapitre 17 Mappage de priphrique brut

Divers produits de gestion s'excutent mieux de manire centralise (non pas sur la machine ESXi, tandis
que d'autres s'excutent bien sur les machines virtuelles. VMware ne certifie pas ces applications, ni ne
fournit de matrice de compatibilit. Pour savoir si une application de gestion du SAN est prise en charge
dans un environnement ESXi, contactez le fournisseur du logiciel de gestion du SAN.

Considrations et Limitations des RDM


Certaines considrations et limitations existent lorsque vous utilisez les RDM.
n

Le RDM n'est pas disponible pour les priphriques de traitement par blocs ou certains priphriques
RAID connexion directe. Le RDM utilise un numro srie SCSI permettant d'identifier le priphrique
mapp. Comme les priphriques de traitement par blocs et certains priphriques RAID connexion
directe n'exportent pas de numros de srie, ils ne peuvent pas tre utiliss avec les RDM.

Si vous utilisez le RDM en mode de compatibilit physique, vous ne pouvez pas utiliser un snapshot
avec le disque. Le mode de compatibilit physique permet la machine virtuelle de grer son propre
snapshot ou de mettre en miroir des oprations.
Les snapshots de machine virtuelle sont disponibles pour les RDM avec le mode de compatibilit
virtuel.

Vous ne pouvez pas mapper sur une partition de disque. Les RDM exigent que le priphrique mapp
soit un LUN entier.

Si vous utilisez vMotion pour migrer des machines virtuelles avec des RDM, assurez-vous de maintenir
des ID de LUN cohrents pour les RDM, parmi tous les htes ESXi participant.

Flash Read Cache ne prend pas en charge les RDM en mode de compatibilit physique. Les RDM de
compatibilit virtuelle sont pris en charge par Flash Read Cache.

Caractristiques du mappage de priphrique brut


Un RDM est un fichier de mappage spcial dans un volume VMFS qui gre les mtadonnes pour son
priphrique mapp. Le fichier de mappage est prsent au logiciel de gestion comme un fichier de disque
ordinaire, disponible pour les oprations fichier-systme habituelles. Pour la machine virtuelle, la couche de
visualisation du stockage prsente le priphrique mapp comme un priphrique SCSI.
Le contenu cl des mtadonnes du fichier de mappage comprend l'emplacement du priphrique mapp
(rsolution de nom), l'tat de verrouillage du priphrique mapp, les autorisations, etc.

Modes de compatibilit physique et virtuel du RDM


Vous pouvez utiliser les RDM en mode de compatibilit virtuelle ou en mode de compatibilit physique. Le
mode virtuel spcifie la virtualisation totale du priphrique mapp. Le mode physique spcifie une
virtualisation SCSI minimale du priphrique mapp, permettant une plus grande flexibilit pour le logiciel
de gestion du rseau SAN.
En mode virtuel, VMkernel envoie uniquement READ et WRITE au priphrique mapp. Le priphrique
mapp apparat pour le systme d'exploitation invit exactement comme un fichier de disque virtuel dans
un volume VMFS. Les caractristiques relles du matriel sont masques. Si vous utilisez un disque brut en
mode virtuel, vous pouvez vous rendre compte des avantages du VMFS tels que le verrouillage avanc du
fichier pour la protection des donnes et les snapshots pour la rationalisation des processus de
dveloppement. Le mode virtuel est galement plus compatible au sein du matriel de stockage que le mode
physique et prsente le mme comportement qu'un fichier de disque virtuel.

VMware, Inc.

171

Stockage vSphere

En mode physique, VMkernel transmet toutes les commandes SCSI au priphrique, sans aucune
exception : la commande REPORT LUN est virtualise afin que VMkernel puisse isoler le LUN pour la
machine virtuelle propritaire. Sinon, toutes les caractristiques physiques du matriel sous-jacent sont
exposes. Le mode physique est utilis pour excuter les agents de gestion du SAN et d'autres logiciels bass
sur cible SCSI dans la machine virtuelle. Le mode physique permet galement une mise en cluster virtuel
physique pour une disponibilit rentable.
VMFS5 prend en charge une taille de disque suprieure 2 To pour les RDM en modes de compatibilit
virtuelle et physique. Vous ne pouvez pas dplacer des RDM d'une taille suprieure 2 To vers les banques
de donnes l'exception de VMFS5.

Rsolution dynamique de nom


Le fichier RDM prend en charge la rsolution dynamique de nom lorsqu'un chemin vers un priphrique
brut change.
VMFS identifie de manire unique tous les priphriques de stockage mapps, et l'identification est stocke
dans ses structures de donnes internes. Toute modification au chemin vers un priphrique brut, telle
qu'une dfaillance de commutateur Fibre Channel ou l'ajout d'un nouvel HBA, peut modifier le nom du
priphrique. La rsolution dynamique de nom rsout ces modifications et associe automatiquement le
priphrique d'origine son nouveau nom.

Mappage de priphrique brut sur des clusters de machine virtuelle


Utilisez un RDM avec les clusters de machine virtuelle qui doivent accder au mme LUN brut pour les
scnarios de reprise. La configuration est identique celle d'un cluster de machine virtuelle accdant au
mme fichier de disque virtuel, mais un RDM remplace le fichier de disque virtuel.
Figure 173. Accs partir des machines virtuelles en clusters

Hte 3

Hte 4

VM3

VM4
accs partag

fichier de
mappage

rsolution
d'adresse

priphrique
mapp

Volume VMFS

Comparaison des modes d'accs disponibles du priphrique SCSI


Les mthodes d'accs un priphrique de stockage SCSI comprennent un fichier de disque virtuel sur une
banque de donnes VMFS, un RDM de mode virtuel et un RDM de mode physique.
Pour vous aider choisir parmi les modes d'accs disponibles pour les priphriques SCSI, la table suivante
donne une brve comparaison des fonctions disponibles avec les diffrents modes.

172

VMware, Inc.

Chapitre 17 Mappage de priphrique brut

Tableau 171. Fonctions disponibles dans les disques virtuels et les mappages de priphrique brut
Fonctions ESXi

Fichier de disque
virtuel

RDM mode virtuel

RDM mode physique

Commandes SCSI transmises

Non

Non

Oui
REPORT LUN n'est pas
transmis

Prise en charge vCenter Server

Oui

Oui

Oui

Snapshots

Oui

Oui

Non

Verrouillage distribu

Oui

Oui

Oui

Mettre en cluster

Cluster dans une bote


uniquement

Cluster dans une bote


cluster entre botes

Cluster physique virtuel


cluster entre botes

Logiciel bas sur cible SCSI

Non

Non

Oui

VMware recommande d'utiliser des fichiers de disque virtuel pour le type cluster dans une bote de mise en
cluster. Si vous envisagez de reconfigurer vos clusters cluster dans une bote en clusters cluster-accross-thebox, utilisez les RDM de mode virtuel pour les clusters cluster dans une bote.

Crer des machines virtuelles avec des RDM dans


Client Web vSphere
Quand vous donnez votre machine virtuelle un accs direct un LUN de rseau SAN brut, vous crez un
disque RDM qui rside sur une banque de donnes VMFS et pointe vers le LUN. Vous pouvez crer le RDM
comme un disque initial pour une nouvelle machine virtuelle ou l'ajouter une machine virtuelle existante.
Lors de la cration du RDM, vous spcifiez le LUN mapper et la banque de donnes sur laquelle mettre le
RDM.
Bien que le fichier du disque RDM ait la mme extension .vmdk qu'un fichier de disque virtuel ordinaire, le
RDM contient uniquement des informations de mappage. Les donnes relles de disque virtuel sont
stockes directement sur le LUN.
Cette procdure suppose que vous criez une nouvelle machine virtuelle. Pour plus d'informations,
consultez la documentation Administration d'une machine virtuelle vSphere.
Procdure
1

Cliquez droit sur n'importe quel objet d'inventaire qui est un objet parent valide d'une machine
virtuelle, comme un centre de donnes, un dossier, un cluster, un pool de ressources ou un hte et
slectionnez [Nouvelle machine virtuelle.]

Slectionnez [Crer une nouvelle machine virtuelle] et cliquez sur [Suivant] .

Suivez les tapes requises pour crer une machine virtuelle.

Sur la page Personnaliser le matriel, cliquez sous l'onglet [Matriel virtuel] .

(Facultatif) Pour supprimer le disque dur virtuel par dfaut cr par le systme pour votre machine
virtuelle, dplacez le curseur sur le disque et cliquez sur l'icne [Supprimer] .

Dans le menu droulant [Nouveau] en bas de la page, slectionnez [Disque RDM] et cliquez sur
[Ajouter] .

Dans la liste des priphriques SAN ou LUN, slectionnez un LUN brut auquel votre machine virtuelle
accde directement, puis cliquez sur [OK] .
Le systme cre un disque RDM qui mappe votre machine virtuelle pour le LUN cible. Le disque RDM
est affich dans la liste des priphriques virtuels comme un nouveau disque dur.

VMware, Inc.

Cliquez sur le triangle [Nouveau disque dur] pour dvelopper les proprits du disque RDM.

173

Stockage vSphere

Choisissez un emplacement pour le disque RDM.


Vous pouvez placer le RDM sur la banque de donnes o rsident vos fichiers de configuration de
machine virtuelle ou en slectionner une autre.
REMARQUE Pour utiliser vMotion pour les machines virtuelles avec NPIV activ, assurez-vous que les
fichiers RDM et les fichiers des machines virtuelles sont situs dans la mme banque de donnes. Vous
ne pouvez pas effectuer des oprations Storage vMotion lorsque NPIV est activ.

10

11

Slectionnez un mode de compatibilit.


Option

Description

Physique

Permet au systme d'exploitation client d'accder directement au matriel.


La compatibilit physique est utile si vous utilisez des applications prenant
en charge les SAN sur la machine virtuelle. Toutefois, une machine
virtuelle avec un RDM de compatibilit physique ne peut pas tre clone,
convertie en modle ou migre si la migration implique de copier le
disque.

Virtuel

Permet au RDM de se comporter comme un disque virtuel afin que vous


puissiez utiliser des fonctions telles que la prise de snapshots, le clonage,
etc. Quand vous clonez le disque ou en faites un modle, le contenu du
LUN est copi dans un fichier de disque virtuel .vmdk. Quand vous faites
migrer un RDM en mode de compatibilit virtuelle, vous pouvez faire
migrer le fichier de mappage ou copier le contenu du LUN dans un disque
virtuel.

Si vous avez slectionn un mode de compatibilit virtuel, slectionnez un mode de disque.


Les modes de disque ne sont pas disponibles pour les disques RDM utilisant le mode de compatibilit
physique.
Option

12

Description

Dpendant

Les disques dpendants sont inclus dans les snapshots.

Indpendant - Persistant

Les disques en mode persistant se comportent comme des disques


normaux sur votre ordinateur physique. Toutes les donnes crites sur un
disque en mode persistant sont crites de manire permanente sur le
disque.

Indpendant - Non persistant

Les modifications des disques en mode de non-persistant sont supprimes


lorsque vous mettez hors tension la machine virtuelle ou la rinitialisez.
Avec non persistant, vous pouvez redmarrer la machine virtuelle avec un
disque virtuel dans le mme tat chaque fois. Les modifications des
disques sont crites et lues dans un fichier journal de rtablissement qui est
supprim lorsque vous mettez hors tension ou rinitialisez.

Cliquez sur [OK] .

Grer les chemins d'accs d'un LUN mapp dans Client Web vSphere
Lorsque vous utilisez des machines virtuelles avec des RDM, vous pouvez grer les chemins d'accs des
LUN bruts mapps.
Procdure

174

Dans Client Web vSphere, accdez la machine virtuelle.

Cliquez avec le bouton droit sur la machine virtuelle et slectionnez [Modifier les paramtres] .

Cliquez sur l'onglet [Appareil Virtuel] , puis sur [Disque dur] pour largir le menu d'options de
disque.

Cliquez sur [Grer les chemins] .

VMware, Inc.

Chapitre 17 Mappage de priphrique brut

Utilisez la bote de dialogue Modifier les rgles multivoie pour activer ou dsactiver les chemins, dfinir
la rgle multivoie et indiquer le chemin prfr.
Pour plus d'informations sur la gestion des chemins, voir Chapitre 23, Prsentation de la gestion
gestion multivoie et du basculement , page 235.

VMware, Inc.

175

Stockage vSphere

176

VMware, Inc.

Activation des disques l'tat solide

18

Outre les disques durs ordinaires, ESXi prend en charge les disques l'tat solide (SSD).
la diffrence des disques durs ordinaires qui sont des dispositifs lectromcaniques contenant des pices
mobiles, les SSD utilisent des semiconducteurs comme support de stockage et ne comportent pas de pice
mobile.
Sur plusieurs baies de stockage, l'hte ESXi peut diffrencier automatiquement les SSD des disques durs
traditionnels. Vous pouvez utiliser les rgles de rclamation PSA SATP pour marquer les priphriques SSD
qui ne peuvent pas tre dtects automatiquement.
Ce chapitre aborde les rubriques suivantes :
n

Avantage de l'activation des SSD , page 177

Auto-Dtection des priphriques SSD , page 178

Marquer les priphriques comme SSD , page 178

Supprimer un priphrique SSD , page 179

Supprimer un priphrique SSD dtect automatiquement , page 180

Marquer les priphriques comme local , page 181

Contrler les priphriques SSD , page 182

Identifier les priphriques SSD , page 182

Identification d'un priphrique SSD virtuel , page 182

Meilleures pratiques pour les dispositifs SSD , page 183

Permutation vers le cache de l'hte , page 183

Empcher le formatage du SSD lors du partitionnement automatique , page 184

Impossible de dtecter les SSD locaux , page 185

Avantage de l'activation des SSD


Les SSD sont trs rsilients et permettent d'accder plus rapidement aux donnes.
L'activation des SSD offre plusieurs avantages :
n

Utilisez les banques de donnes VMFS qui sont cres sur les priphriques de stockage SSD pour
allouer de l'espace au cache d'hteESXi.

Utilisez des disques SSD locaux pour les fonctions telles que le cache de lecture Flash et le rseau SAN
virtuel.

VMware, Inc.

177

Stockage vSphere

L'utilisation de disques SSD augmente le taux de consolidation des machines virtuelles car ce type de
disques assure un dbit d'E/S trs lev.

Elle prend en charge l'identification du priphrique SSD virtuel par le systme d'exploitation de l'hte.

Auto-Dtection des priphriques SSD


ESXi permet l'auto- dtection des priphriques SSD en utilisant un mcanisme de requte bas sur les
normes T10.
ESXi permet la dtection des priphriques SSD sur plusieurs baies de stockage. Consultez le fournisseur
pour savoir si votre baie de stockage prend en charge la dtection des priphriques SSD ESXi.
Vous pouvez utiliser les rgles de rclamation PSA SATP pour marquer les priphriques qui ne peuvent
pas tre auto-dtects.

Marquer les priphriques comme SSD


Vous pouvez utiliser des rgles de rclamation PSA SATP pour marquer des priphriques SSD qui ne sont
pas dtects automatiquement.
Seuls les priphriques qui sont consomms par le plugin NMP (Native Multipathing) PSA peuvent tre
marqus.
Si vous avez besoin d'autres informations sur les commandes rpertories dans cette rubrique, consultez la
documentation Initiation aux interfaces de ligne de commande vSphere et Concepts et exemples de l'interface de ligne
de commande vSphere.
Procdure
1

Identifiez le priphrique marquer et son SATP.


esxcli storage nmp device list

La commande donne l'information suivante.


naa.6006016015301d00167ce6e2ddb3de11
Device Display Name: DGC Fibre Channel Disk (naa.6006016015301d00167ce6e2ddb3de11)
Storage Array Type: VMW_SATP_CX
Storage Array Type Device Config: {navireg ipfilter}
Path Selection Policy: VMW_PSP_MRU
Path Selection Policy Device Config: Current Path=vmhba4:C0:T0:L25
Working Paths: vmhba4:C0:T0:L25

Noter le SATP associ au priphrique.

Ajoutez une rgle de rclamation PSA pour marquer le priphrique comme SSD.
u

Vous pouvez ajouter une rgle de rclamation en spcifiant le nom du priphrique.


esxcli storage nmp satp rule add -s SATP

Vous pouvez ajouter une rgle de rclamation en spcifiant le nom du fournisseur et le nom du
modle.
esxcli storage nmp satp rule add -s SATP
option="enable_ssd"

--transport transport_protocol --

Vous pouvez ajouter une rgle de rclamation base sur le nom du pilote.
esxcli storage nmp satp rule add -s SATP

178

-V vendor_name -M model_name --

Vous pouvez ajouter une rgle de rclamation base sur le protocole de transport.
esxcli storage nmp satp rule add -s SATP
option="enable_ssd"

--device device_name --option="enable_ssd"

--driver driver_name --option="enable_ssd"

VMware, Inc.

Chapitre 18 Activation des disques l'tat solide

Supprimer le priphrique.
u

Vous pouvez faire une non rclamation du priphrique en spcifiant le nom du priphrique.
esxcli storage core claiming unclaim --type device --device device_name

Vous pouvez faire une non rclamation du priphrique en spcifiant le nom du fournisseur et le
nom du modle.
esxcli storage core claiming unclaim --type device -V vendor_name -M model_name

Vous pouvez faire une non rclamation base sur le protocole de transport.
esxcli storage core claiming unclaim --type device --transport transport_protocol

Vous pouvez faire une non rclamation base sur le nom du pilote.
esxcli storage core claiming unclaim --type device --driver driver_name

Rclamer le priphrique en excutant les commandes suivantes.


esxcli storage core claimrule load
esxcli storage core claimrule run

Vrifiez si les priphriques sont marqus comme SSD.


esxcli storage core device list -d device_name

Le rsultat de la commande indique si un priphrique rpertori est marqu comme SSD.


Is SSD: true

Suivant
Si le priphrique SSD que vous voulez marquer est partag entre de multiples htes, vrifiez si vous
marquez le priphrique depuis tous les htes qui partagent le priphrique.

Supprimer un priphrique SSD


Vous pouvez supprimer un priphrique marqu comme SSD si ncessaire.
Cette rubrique rpertorie les commandes dont vous avez besoin pour supprimer un priphrique SSD. Pour
plus d'informations sur ces commandes, consultez la documentation Initiation aux interfaces de ligne de
commande vSphere et Concepts et exemples de l'interface de ligne de commande vSphere.
Procdure
1

Identifiez le priphrique que vous voulez supprimer.


esxcli storage nmp device list

La commande donne l'information suivante.


naa.6006016015301d00167ce6e2ddb3de11
Device Display Name: DGC Fibre Channel Disk (naa.6006016015301d00167ce6e2ddb3de11)
Type baie stockage : VMW_SATP_CX
Config. du priphrique de type de baie de stockage : {navireg ipfilter}
Rgle de slection de chemin : VMW_PSP_MRU
Config. du priphrique pour la rgle de slection de chemin : Current Path=vmhba4:C0:T0:L25
Chemins actifs : vmhba4:C0:T0:L25

VMware, Inc.

Noter le SATP associ au priphrique.

179

Stockage vSphere

Supprimer la rgle de rclamation qui tait utilise pour marquer le priphrique.


esxcli storage nmp satp rule remove -s SATP --device device_name

Par exemple,
esxcli storage nmp satp rule remove -s VMW_SATP_CX --device naa.
6006016042fa19010a12d9b16d6ade11

Supprimer le priphrique.
esxcli storage core claiming unclaim --type device --device naa.
6006016042fa19010a12d9b16d6ade11

Rclamer le priphrique en excutant les commandes suivantes :


esxcli storage core claimrule load
esxcli storage core claimrule run

Vrifier le statut du priphrique en excutant la commande suivante.


esxcli storage core device list -d device_name

Le rsultat de la commande indique si le disque est supprim.


Is SSD: false

Supprimer un priphrique SSD dtect automatiquement


Vous pouvez marquer un priphrique SSD dtect automatiquement comme priphrique non SSD.
Procdure
1

Identifiez le priphrique que vous voulez supprimer.


esxcli storage nmp device list

La commande donne l'information suivante.


naa.6006016015301d00167ce6e2ddb3de11
Device Display Name: DGC Fibre Channel Disk (naa.6006016015301d00167ce6e2ddb3de11)
Type baie stockage : VMW_SATP_CX
Config. du priphrique de type de baie de stockage : {navireg ipfilter}
Rgle de slection de chemin : VMW_PSP_MRU
Config. du priphrique pour la rgle de slection de chemin : Current Path=vmhba4:C0:T0:L25
Chemins actifs : vmhba4:C0:T0:L25

Noter le SATP associ au priphrique.

Ajouter une rgle de rclamation avec l'option disable_ssd.


esxcli storage nmp satp rule add -s SATP --device device_name --option disable_ssd

Par exemple,
esxcli storage nmp satp rule add -s VMW_SATP_CX --device naa.
6006016042fa19010a12d9b16d6ade11 --option disable_ssd

Supprimer le priphrique.
esxcli storage core claiming unclaim --type device --device naa.
6006016042fa19010a12d9b16d6ade11

Rclamer le priphrique en excutant les commandes suivantes :


esxcli storage core claimrule load
esxcli storage core claimrule run

180

VMware, Inc.

Chapitre 18 Activation des disques l'tat solide

Vrifier le statut du priphrique en excutant la commande suivante.


esxcli storage core device list -d device_name

Le rsultat de la commande indique si le disque est supprim.


Is SSD: false

Marquer les priphriques comme local


ESXi vous permet de marquer des priphriques comme local. C'est utile dans les cas o ESXi ne peut pas
dterminer si certains contrleurs SAS sont locaux ou distance.
Pour plus d'informations sur les commandes rpertories dans cette rubrique, consultez la documentation
Initiation aux interfaces de ligne de commande vSphere et Concepts et exemples de l'interface de ligne de commande
vSphere.
Prrequis
Assurez-vous que le priphrique n'est pas partag et qu'il est rclam par VMW_SATP_LOCAL.
Procdure
1

Identifiez le priphrique marquer et son SATP.


esxcli storage nmp device list

La commande donne l'information suivante.


naa.6006016015301d00167ce6e2ddb3de11
Device Display Name: DGC Fibre Channel Disk (naa.6006016015301d00167ce6e2ddb3de11)
Storage Array Type: VMW_SATP_CX
Storage Array Type Device Config: {navireg ipfilter}
Path Selection Policy: VMW_PSP_MRU
Path Selection Policy Device Config: Current Path=vmhba4:C0:T0:L25
Working Paths: vmhba4:C0:T0:L25

Noter le SATP associ au priphrique.

Ajouter une rgle de rclamation de PSA.


esxcli storage nmp satp rule add -s SATP --device device_name option="enable_local"

Par exemple,
esxcli storage nmp satp rule add -s VMW_SATP_LOCAL --device naa.
6006016042fa19010a12d9b16d6ade11 option="enable_local"

Supprimer le priphrique.
esxcli storage core claiming unclaim --type device --device naa.
6006016042fa19010a12d9b16d6ade11

Rclamer le priphrique en excutant les commandes suivantes.


esxcli storage core claimrule load
esxcli storage core claimrule run

Vrifiez le statut en excutant la commande suivante.


esxcli storage core device list -d device_name

Le rsultat de la commande indique si le disque est distance ou local.

VMware, Inc.

181

Stockage vSphere

Contrler les priphriques SSD


Vous pouvez contrler certains paramtres SSD critiques (y compris l'indicateur d'usure de mdia, la
temprature et le compte de secteurs rallous) depuis un hte ESXi.
Utilisez la commande esxcli pour contrler les priphriques SSD.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Excutez la commande suivante pour afficher les statistiques SSD :


esxcli server=server_name storage core device smart get -d=SSD device_ID

Identifier les priphriques SSD


Vous pouvez identifier les priphriques SSD dans votre rseau de stockage.
Prrequis
Avant d'identifier un priphrique SSD, assurez-vous que le priphrique est marqu en tant que SSD.
Procdure
1

Rpertoriez les priphriques.


esxcli storage core device list

Le rsultat de la commande inclut les informations suivantes sur le priphrique rpertori.


Is SSD: true

Vrifiez si la valeur de l'indicateur Is SSD est true.

Identification d'un priphrique SSD virtuel


ESXi permet aux systmes d'exploitation d'auto-dtecter les VMDK rsidant sur les banques de donnes
SSD comme priphriques SSD.
Pour vrifier si cette fonctionnalit est active, les systmes d'exploitation invits peuvent utiliser des
commandes de requte standards telles que SCSI VPD Page (B1h) pour les priphriques SCSI et ATA
IDENTIFY DEVICE (Word 217) pour les priphriques IDE.
Pour les clones relis, les captures natives et les disques delta, les commandes de requtes signalent le statut
SSD virtuel du disque de base.
Les systmes d'exploitation peuvent auto-dtecter un VMDK comme SSD dans les conditions suivantes :

182

La dtection de SSD virtuels est prise en charge sur des htes ESXi 5.x et Virtual Hardware version 8 ou
ultrieure.

La dtection des SSD virtuels est prise en charge uniquement sur VMFS5 ou une version ultrieure.

VMware, Inc.

Chapitre 18 Activation des disques l'tat solide

Si les VMDK se trouvent sur des banques de donnes VMFS partages avec des extensions de
priphrique SSD, le priphrique doit tre marqu comme SSD sur tous les htes.

Pour qu'un VMDK soit dtect comme SSD virtuel, toutes les extensions physiques sous-jacentes
doivent tre SSD.

Meilleures pratiques pour les dispositifs SSD


Suivez ces meilleures pratiques lorsque vous utilisez des dispositifs SSD dans l'environnement vSphere.
n

Assurez-vous d'utiliser la dernire version du microprogramme avec des dispositifs SSD. Vrifiez
frquemment les mises jour avec vos fournisseurs de stockage.

Surveillez attentivement le degr d'activit avec lequel vous utilisez le dispositif SSD et calculez sa
dure de vie estime. L'esprance de vie dpend du degr d'activit avec lequel vous continuez
utiliser le dispositif SSD.

Dure de vie SSD estime


Lorsque vous travaillez avec des SSD, surveillez le degr d'activit avec lequel vous les utilisez et calculez
leur dure de vie estime.
En rgle gnrale, les fournisseurs de stockage donnent des estimations fiables pour la dure de vie d'un
SSD dans les conditions idales. Par exemple, un fournisseur peut garantir une dure de vie de 5 ans au
rythme de 20 Go d'criture par jour. Cependant, l'esprance de vie plus raliste du SSD dpendra du
nombre d'critures par jour que votre hte gnre rellement. Suivez ces tapes pour calculer la dure de vie
du SSD.
Procdure
1

Obtenez le nombre d'critures sur le SSD en excutant la commande

esxcli storage core device stats get -d=device_ID.

L'lment d'oprations d'criture dans la sortie montre le nombre. Vous pouvez faire la moyenne de ce
nombre sur une priode de temps.
2

Estimez la dure de vie de votre SSD en utilisant la formule suivante :


vendor provided number of writes per day fois vendor provided life span divis by actual average number of
writes per day
Par exemple, si votre fournisseur garantit une dure de vie de 5 ans au rythme de 20 Go d'criture par
jour et que la quantit relle d'criture par jour est de 30 Go, la dure de vie de votre SSD sera d'environ
3,3 ans.

Permutation vers le cache de l'hte


Vous pouvez crer des banques de donnes VMFS sur des disques SSD (solid state drive), puis utiliser ces
banques de donnes pour allouer de l'espace au cache de l'hte. L'hte rserve un certain espace pour la
permutation vers le cache de l'hte.
Le cache de l'hte est constitu de fichiers sur un disque faible latence qu'ESXi utilise en tant que cache de
rcriture pour les fichiers d'change de machine virtuelle. Le cache est partag par toutes les machines
virtuelles excutes sur l'hte. L'change de pages de machine virtuelle de niveau hte utilise au mieux
l'espace SSD potentiellement limit.
L'utilisation de la permutation vers le cache de l'hte n'est pas identique celle du placement de fichiers
d'change ordinaires sur des banques de donnes SSD. Mme si vous activez la permutation vers le cache de
l'hte, l'hte doit toujours crer des fichiers d'change ordinaires. Cependant, lorsque vous utilisez la
permutation vers le cache de l'hte, la vitesse du stockage o l'hte place les fichiers d'change ordinaires est
moins importante.

VMware, Inc.

183

Stockage vSphere

La page Configuration du cache de l'hte vous permet d'afficher la quantit d'espace d'une banque de
donnes qu'un hte peut utiliser pour permuter vers le cache de l'hte. Seules les banques de donnes SSD
figurent dans la liste des banques de donnes dans la page Configuration du cache de l'hte.
Si vous avez une licence Virtual Flash, vous pouvez utiliser une ressource Virtual Flash pour configurer le
cache sur l'hte. Pour plus d'informations, consultez Chapitre 21, propos du cache de lecture Flash de
VMware vSphere , page 223.

Configurer le cache de l'hte dans Client Web vSphere


Vous pouvez modifier le pourcentage d'espace allou au cache de l'hte ou dsactiver la capacit de l'hte
basculer vers le cache.
Utilisez cette procdure si la version de l'hte ESXi est 5.1 ou antrieure, ou si vous ne possdez pas de
licence Virtual Flash. Pour configurer un cache d'hte sur un hte ESXi 5.5 qui possde une licence Flash
virtuelle, utilisez cette dernire. Pour plus d'informations, consultez Chapitre 21, propos du cache de
lecture Flash de VMware vSphere , page 223.
Prrequis
Vous devez possder une banque de donnes SSD dans votre inventaire.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] .

Sous l'onglet Stockage, cliquez sur [Configuration du cache de l'hte] .

Slectionnez la banque de donnes dans la liste puis cliquez sur l'icne [Allouer de l'espace au cache de
l'hte] .

Slectionnez la taille d'allocation du cache de l'hte sur l'unit.

Pour dsactiver la capacit de l'hte basculer vers le cache en fonction de chaque banque de donnes,
dslectionnez la case [Allouer de l'espace au cache de l'hte] .

Cliquez sur [OK] .

Empcher le formatage du SSD lors du partitionnement automatique


Lorsque vous installez ESXi ou que vous utilisez Auto Deploy pour provisionner les htes, vous pouvez
activer l'option de dmarrage avec partitionnement automatique afin de crer des partitions sur l'hte. Il
existe plusieurs possibilits pour viter que le partitionnement automatique ne formate des disques SSD
locaux en VMFS.
Problme
Par dfaut, le partitionnement automatique dploie les systmes de fichiers VMFS sur tous les disques de
stockage locaux inutiliss sur l'hte, y compris les disques SSD.
Cependant, si un disque SSD est format avec VMFS, il devient indisponible pour des fonctions telles que
Flash Read Cache et le rseau SAN virtuel. Ces dernires requirent un disque SSD non format et ne
permettent pas le partage du disque avec un autre systme de fichiers.
Solution
Pour utiliser le partitionnement automatique tout en vous assurant que les disques SSD locaux ne sont pas
partitionns, utilisez les options de dmarrage suivantes lors de la premire installation d'ESXi ou du
premier dmarrage de l'hte ESXi :
n

184

autoPartition=TRUE

VMware, Inc.

Chapitre 18 Activation des disques l'tat solide

skipPartitioningSsds=TRUE

Si vous utilisez Auto Deploy, dfinissez ces paramtres sur un hte de rfrence.
1

Dans vSphere Web Client, slectionnez l'hte utiliser en tant qu'hte de rfrence et cliquez sur
[Grer] .

Cliquez sur [Paramtres] .

Cliquez sur [Systme] pour ouvrir les options systme, puis cliquez sur [Paramtres systme avancs] .

Faites dfiler jusqu' VMkernel.Boot.autoPartition et dfinissez la valeur sur True.

Faites dfiler jusqu' VMkernel.Boot.skipPartitioningSsds et dfinissez la valeur sur True.

Redmarrez l'hte.

Si des disques SSD que vous prvoyez d'utiliser avec Flash Read Cache et le rseau SAN virtuel disposent
dj de banques de donnes VMFS, supprimez ces dernires.

Impossible de dtecter les SSD locaux


Si vous recherchez les SSD locaux lors de la cration d'une ressource Flash Read Cache, il se peut que l'hte
ESXi ne renvoie pas la liste complte des SSD locaux.
Problme
Il se peut qu'ESXi ne parvienne pas dtecter automatiquement les SSD ni les reconnatre comme disques
locaux.
Cause
ESXi ne reconnat pas certains priphriques comme des SSD lorsque leurs fournisseurs ne prennent pas en
charge la dtection automatique des SSD. Dans d'autres cas, certains SSD SAS non-SATA peuvent ne pas
tre dtects en tant que disques locaux. Lorsque des disques ne sont pas reconnus comme des SSD locaux,
ils sont exclus de la liste des SSD disponibles pour des fonctions telles que le cache de lecture Flash qui n ne
requierent que des SSD locaux.
Solution
n

Si ESXi ne reconnat pas automatiquement ses disques en tant que disques SSD, marquez-les comme
disques SSD. Reportez-vous la section Marquer les priphriques comme SSD , page 178.

Si ESXi ne dtecte pas les disques SSD comme tant locaux, dfinissez-les manuellement comme
disques locaux. Reportez-vous la section Marquer les priphriques comme local , page 181.

VMware, Inc.

185

Stockage vSphere

186

VMware, Inc.

Utilisation du rseau SAN virtuel

19

Le rseau SAN virtuel est une couche distribue de logiciel qui s'excute nativement en tant que partie de
l'hyperviseur ESXi. Le rseau SAN virtuel cumule des disques locaux ou des disques de stockage
connexion directe d'un hte cluster et cre un pool de stockage unique partag sur tous les htes du cluster.
Tout en prenant en charge les fonctions de VMware qui ncessitent un stockage partag, telles que HA,
vMotion et DRS, le rseau SAN virtuel limine la ncessit d'un stockage externe partag et simplifie la
configuration de stockage ainsi que les activits de provisionnement de la machine virtuelle.
AVERTISSEMENT Dans cette version de vSphere 5.5, le rseau SAN virtuel est intgr en tant que fonction
exprimentale. Vous pouvez tester le rseau SAN virtuel, bien que VMware ne prvoie pas de l'utiliser dans
un environnement de production. VMware ne peut s'engager ni rsoudre des problmes, ni proposer des
solutions, ni fournir des correctifs pour le rseau SAN virtuel. En revanche, si vous rencontrez des
problmes lis au rseau SAN virtuel, VMware recevra avec beaucoup d'intrt tous les commentaires que
vous souhaiterez partager. Veuillez envoyer une demande de support par le biais des mthodes d'accs
normales.
Ce chapitre aborde les rubriques suivantes :
n

propos du rseau SAN virtuel , page 187

Activation du rseau SAN virtuel , page 194

Gestion des groupes de disques , page 198

Surveillance du rseau SAN virtuel , page 200

Gestion du rseau SAN virtuel , page 202

Rseau SAN virtuel et gestion du stockage base sur des stratgies , page 203

Dpannage du rseau SAN virtuel , page 207

propos du rseau SAN virtuel


Le rseau SAN virtuel virtualise les ressources de stockage physique local des htes ESXi et les transforme
en pools de stockage pouvant tre fractionns et attribus des machines virtuelles et des applications selon
leur adquation aux conditions de service.
Vous pouvez activer le rseau SAN virtuel lorsque vous crez des clusters d'htes ou l'activer sur des
clusters existants. Lorsqu'il est activ, le rseau SAN virtuel agrge tous les disques de stockage locaux
disponibles sur les htes en une banque de donnes unique partage par tous les htes. Vous pouvez
ensuite dvelopper la banque de donnes en ajoutant des priphriques de stockage ou des htes au cluster.

VMware, Inc.

187

Stockage vSphere

Les htes qui se trouvent dans le cluster de rseau SAN virtuel ne doivent pas ncessairement tre
identiques. Mme les htes qui ne disposent pas de disques locaux peuvent participer et excuter leurs
machines virtuelles sur la banque de donnes de rseau SAN virtuel, comme, par exemple, l'hte 2 dans
l'illustration.
Si un hte met disposition son stockage local dans la banque de donnes de rseau SAN virtuel, il doit
fournir au moins un disque HDD, galement nomm disque de donnes, et au moins un disque SSD. Les
disques sur l'hte contributeur forment un groupe de disques, qui inclut un disque SSD et au moins un ou
plusieurs disques de donnes. Le groupe de disques utilise le disque SSD pour lire le contenu du cache et
crire les donnes mises en mmoire tampon, tandis que les disques de donnes sont ddis un stockage
permanent. Vous pouvez disposer de plusieurs groupes de disques par hte. Par exemple, dans
l'illustration, l'hte 1 contient un groupe de disques, tandis que l'hte 3 en comporte deux.
VM

VM

VM

Hte 1

VM

Hte 2

VM

VM

VM

Hte 3

Banque de donnes Virtual SAN

Grpe de disques 1

Grpe de disques 2

Grpe de disques 3

Disques
SSD
Disques
de donnes

Rseau SAN virtuel et stratgies de stockage de machine virtuelle


Lorsqu'il est activ, le rseau SAN virtuel applique les stratgies de stockage de la machine virtuelle. Vous
utilisez des stratgies de stockage pour dfinir les besoins en stockage d'une machine virtuelle, par exemple
les performances et la disponibilit, sous la forme d'un profil. Les exigences des stratgies sont envoyes la
couche du rseau SAN virtuel lors de la cration du disque virtuel. Le rseau SAN virtuel agence le disque
virtuel dans la banque de donnes de rseau SAN virtuel pour rpondre aux conditions spcifies.
Le rseau SAN virtuel surveille et cre des rapports sur la conformit la stratgie tout au long du cycle de
vie de la machine virtuelle. Si la stratgie devient non conforme la suite de la dfaillance d'un hte, d'un
disque ou d'un rseau, ou la suite de changements de la charge de travail, le rseau SAN virtuel prend les
mesures correctives qui s'imposent. Il reconfigure les donnes des machines virtuelles concernes et
optimise l'utilisation des ressources dans le cluster. Tous les processus de reconfiguration s'excutent avec
un impact minimal sur la charge de travail normale.
Pour obtenir des informations sur l'interaction entre le rseau SAN virtuel et les profils de stockage de
machine virtuelle, reportez-vous Rseau SAN virtuel et gestion du stockage base sur des stratgies ,
page 203.
Pour obtenir des informations gnrales sur les stratgies de stockage, reportez-vous Chapitre 20,
propos des rgles de stockage de machine virtuelle , page 211.

188

VMware, Inc.

Chapitre 19 Utilisation du rseau SAN virtuel

Rseau SAN virtuel et stockage orient objets


Le rseau SAN virtuel stocke et gre les donnes sous la forme de conteneurs de donnes flexibles nomms
objets. Un objet est un volume logique dont les donnes et mtadonnes sont distribues et accessibles dans
tout le cluster.
Lorsque vous provisionnez une machine virtuelle sur une banque de donnes de rseau SAN virtuel, le
rseau SAN virtuel cre un objet pour chaque disque virtuel. Il cre galement un objet conteneur qui stocke
tous les fichiers de mtadonnes de la machine virtuelle. Le rseau SAN virtuel peut stocker et grer
plusieurs objets dans un cluster unique.
Le rseau SAN virtuel provisionne et gre chaque objet de manire individuelle en crant une configuration
RAID sur le rseau pour chaque objet. Lorsqu'il cre un objet pour un disque virtuel et qu'il dtermine le
mode de distribution de l'objet dans le cluster, le rseau SAN virtuel tient compte des paramtres suivants :
n

Configuration requise pour le disque virtuel spcifie par l'administrateur sous la forme d'une stratgie
de stockage de machine virtuelle.

Ressources de cluster et leur utilisation au moment du provisionnement.

Par exemple, le rseau SAN virtuel dtermine le nombre de rplicas crer en fonction de la stratgie de
disponibilit. En revanche, la stratgie de performances dtermine le nombre de disques SSD allous la
mise en cache de chaque rplica et le nombre de bandes crer pour chacun d'eux.
Dans la mesure o le cluster de rseau SAN virtuel et les charges de travail voluent dans le temps, le rseau
SAN virtuel surveille la conformit du disque virtuel avec ses stratgies et effectue les ajustements
ncessaires pour remettre l'objet en conformit ou pour optimiser l'utilisation des ressources du cluster. Le
rseau SAN virtuel limite activement le stockage et le dbit du rseau utiliss pour la reconfiguration afin de
minimiser l'impact de celle-ci sur l'excution d'une charge de travail normale.

Caractristiques du rseau SAN virtuel


Cette rubrique rcapitule les caractristiques applicables au rseau SAN virtuel, ainsi que ses clusters et
banques de donnes.
Lorsque vous utilisez le rseau SAN virtuel, tenez compte des aspects suivants :
n

Le rseau SAN virtuel est directement mis en uvre dans l'hyperviseur ESXi.

Le rseau SAN virtuel prend en charge des fonctions VMware qui ncessitent un stockage partag,
telles que HA, vMotion et DRS. Par exemple, si un hte devient surcharg, DRS peut migrer des
machines virtuelles vers d'autres htes du cluster.

Le rseau SAN virtuel s'intgre aux fonctions de gestion de donnes de vSphere traditionnellement
utilises avec un stockage VMFS et NFS. Ces fonctions incluent des snapshots, des clones lis, vSphere
Replication et des API vSphere pour Data Protection.

Associ des stratgies de stockage de machine virtuelle, le rseau SAN virtuel prend en charge une
approche de stockage axe sur la machine virtuelle.

Limitations du rseau SAN virtuel


n

Le rseau SAN virtuel ne prend pas en charge plusieurs clusters de rseau SAN virtuel par hte.

Le rseau SAN virtuel ne prend pas en charge les machines virtuelles disposant de disques virtuels de
grande capacit ou les disques d'une capacit suprieure 2 To.

Vous ne pouvez pas utiliser un stockage partag avec le rseau SAN virtuel.

Le rseau SAN virtuel prend uniquement en charge le stockage SATA et SAS. Vous ne pouvez pas
utiliser un stockage raccord au moyen d'une connexion USB, Fibre Channel ou iSCSI.

VMware, Inc.

189

Stockage vSphere

Le rseau SAN virtuel ne prend pas en charge les fonctions suivantes : Fault Tolerance, vSphere DPM et
Storage I/O Control.

Le rseau SAN virtuel ne prend pas en charge les snapshots natifs et les disques SE Sparse.

Le rseau SAN virtuel ne prend pas en charge les rservations SCSI.

Caractristiques d'un cluster de rseau SAN virtuel


n

Les clusters de rseau SAN virtuel peuvent inclure des htes comportant des disques de stockage ou
qui en sont dpourvus. L'exigence minimale est de trois htes comportant des disques de stockage.

Si un hte met disposition des priphriques de stockage, il doit disposer d'au moins un disque SSD et
un disque HDD.

Seuls les priphriques locaux ou directement raccords peuvent participer un cluster de rseau SAN
virtuel. Le rseau SAN virtuel n'utilise pas d'autre stockage, tel que SAN ou NAS, raccord au cluster.

Le rseau SAN virtuel utilise des disques entiers, y compris des disques SSD et des disques de donnes,
et ne partage pas de disques avec d'autres fonctions.

Vous pouvez avoir plusieurs clusters de rseau SAN virtuel pour chaque instance de vCenter Server.

Caractristiques d'une banque de donnes de rseau SAN virtuel


n

Le rseau SAN virtuel cre une banque de donnes de rseau SAN virtuel unique accessible par tous les
htes dans le cluster, qu'ils disposent ou non de disques. Tous les htes peuvent galement monter
n'importe quelle autre banque de donnes, VMFS ou NFS.

Si vous avez plusieurs clusters de rseau SAN virtuel pour chaque vCenter Server, chaque cluster
fournit une banque de donnes de rseau SAN virtuel. Vous pouvez utiliser Storage vMotion pour
dplacer des machines virtuelles entre des banques de donnes de rseau SAN virtuel.

Seuls les disques HDD contribuent l'augmentation de la capacit de la banque de donnes. La capacit
des disques SSD n'est pas prise en compte comme partie intgrante de la banque de donnes.

En mode automatique, une banque de donnes de rseau SAN virtuel augmente de manire
dynamique mesure que vous ajoutez des htes un cluster de rseau SAN virtuel, ou des disques
un membre du cluster.

propos des banques de donnes de rseau SAN virtuel


Lorsque vous activez le rseau SAN virtuel sur un cluster, une banque de donnes de rseau SAN virtuel
unique est cre. Elle apparat comme un autre type de banque de donnes dans la liste des banques de
donnes en complment de VMFS et de NFS.
Une banque de donnes de rseau SAN virtuel utilise plusieurs composants de stockage, ou groupes de
disques, rpartis entre les htes ESXi dans le cluster.
Une seule banque de donnes de rseau SAN virtuel fournit diffrents niveaux de qualit de service (QoS)
pour chaque machine virtuelle ou chaque disque virtuel.
Dans vCenter Server, les caractristiques de stockage de la banque de donnes de rseau SAN virtuel
s'affichent sous la forme d'un ensemble de capacits. Vous pouvez rfrencer ces capacits lors de la cration
d'une stratgie de stockage pour machines virtuelles. Lors du dploiement ultrieur des machines virtuelles,
le rseau SAN virtuel utilise cette stratgie pour placer les machines virtuelles de manire optimale en
fonction des exigences relatives aux machines virtuelles.
Reportez-vous la section Chapitre 20, propos des rgles de stockage de machine virtuelle , page 211.

190

VMware, Inc.

Chapitre 19 Utilisation du rseau SAN virtuel

Conditions requises pour le rseau SAN virtuel


Avant d'activer le rseau SAN virtuel, vrifiez que votre environnement rpond toutes les exigences.
Votre environnement doit rpondre des exigences spcifiques en matire d'hte et de stockage. Pour plus
d'informations sur les exigences en matire de mise en rseau, reportez-vous Conditions requises et
meilleures pratiques pour la mise en rseau du rseau SAN virtuel , page 191.

Conditions requises pour les htes


Un minimum de trois htes contribuant aux disques locaux, au moins un disque SSD et un disque HDD
sont ncessaires.
Installez ESXi 5.5 sur chaque hte. Vous pouvez ajouter des htes au cluster de rseau SAN virtuel lors de la
configuration initiale du cluster, ou les ajouter ultrieurement.
Les htes doivent tre grs par vCenter Server 5.5. Tous les htes ne doivent pas ncessairement disposer
d'un stockage local. Mmoire requise pour ESXi : au moins 4 Go de RAM sur chaque hte.

Conditions requises pour le stockage


Le rseau SAN virtuel prend en charge un nombre limit de priphriques de stockage, qui sont rpertoris
dans le Guide de compatibilit vSphere. Votre environnement doit rpondre aux exigences suivantes.
n

Au moins un disque SSD (solid-state drive) SAS ou SATA. Assurez-vous que le cache de lecture Flash
n'utilise pas de disques SSD. Ne formatez pas les disques SSD avec VMFS ou avec un autre systme de
fichiers.

Au moins un disque HDD (disque dur) SAS ou SATA. Sur chaque hte, les disques SSD et les disques
HDD sont combins en groupes de disques avec un seul disque SSD et jusqu' six disques HDD par
groupe de disques. Le taux d'utilisation des capacits d'un disque SSD par rapport aux disques HDD
varie gnralement en fonction des conditions d'utilisation et des charges de travail, mais la meilleure
pratique consiste utiliser un rapport de 1:10 de la capacit d'un disque SSD par rapport celle des
disques HDD dans chaque groupe de disques. Pour plus d'informations sur les groupes de disques,
reportez-vous Gestion des groupes de disques , page 198.

Contrleur SAS, HBA SATA ou RAID configur en mode non-RAID.

Rseau SAN virtuel et Journalisation permanente


Si vous installez ESXi sur des priphriques USB ou SD, puis allouez tout le stockage local au rseau SAN
virtuel, vous ne disposerez d'aucun disque local ni banque de donnes locale pour la journalisation
permanente. Configurez un service Dump Collector et un service Syslog Collector pour diriger les vidages
de mmoire et les journaux systmes d'ESXi vers un serveur sur le rseau et non sur un disque local. Pour
plus d'informations, reportez-vous la documentation Installation et configuration de vSphere.

Conditions requises et meilleures pratiques pour la mise en rseau du rseau


SAN virtuel
Le rseau SAN virtuel requiert des interfaces rseau correctement configures.
Les htes de votre cluster de rseaux SAN virtuels doivent faire partie d'un rseau SAN virtuel et se trouver
sur le mme sous-rseau. Au moins une interface de rseau SAN virtuel doit tre configure sur chaque
hte. Ceci est valable pour tous les htes du cluster, qu'ils contribuent au stockage ou non.
REMARQUE Le rseau SAN virtuel ne prend pas en charge IPv6.
Suivez ces directives :
n

VMware, Inc.

Le rseau SAN virtuel requiert un rseau priv 1 Go. Le mieux est d'utiliser un rseau 10 Go.

191

Stockage vSphere

Sur chaque hte, ddiez au moins une carte rseau Ethernet 1 Go physique au rseau SAN virtuel. Vous
pouvez galement provisionner une carte rseau physique supplmentaire comme carte rseau de
basculement.

Vous pouvez utiliser des commutateurs standard vSphere sur chaque hte ou bien configurer votre
environnement avec un vSphere Distributed Switch.

Pour chaque carte rseau physique utilise pour le rseau SAN virtuel, configurez un groupe de ports
VMkernel en veillant activer la proprit de port VSAN.

Utilisez la mme tiquette de rseau SAN virtuel pour chaque groupe de ports et assurez-vous que les
tiquettes sont cohrentes sur tous les htes.

Utilisez des trames Jumbo pour de meilleures performances.

Vous pouvez activer la multidiffusion sur le rseau physique. Vous pouvez modifier les adresses de
multidiffusion par dfaut si votre environnement de rseau le requiert ou bien si vous excutez
plusieurs clusters de rseaux SAN virtuelssur le mme rseau de couche 2.

Pour plus d'informations, consultez la documentation Mise en rseau vSphere.

Configurer la mise en rseau du rseau SAN virtuel


Pour pouvoir utiliser le rseau SAN virtuel, vous devez correctement configurer les interfaces rseau des
htes ESXi inclus dans le cluster de rseau SAN virtuel. Les htes utilisent le rseau SAN virtuel pour
communiquer entre eux.
Pour chaque hte faisant partie du cluster de rseau SAN virtuel, crez un adaptateur rseau VMkernel
utiliser comme interface de rseau SAN virtuel.
Procdure
1

Dans Client Web vSphere, accdez l'hte.

Cliquez sur longlet [Grer] , puis cliquez sur [Mise en rseau] .

Slectionnez [Adaptateurs VMkernel] et cliquez sur l'icne [Ajouter la mise en rseau d'un hte] .

Dans la page Slectionner un type de connexion, slectionnez [Adaptateur rseau VMkernel] et cliquez
sur [Suivant] .

Configurez un priphrique cible.

Dans la page Proprits port, slectionnez [Trafic de rseau SAN virtuel] .

Terminez la configuration de l'adaptateur VMkernel.

Vrifiez que l'tat de l'adaptateur VMkernel, dans la colonne Rseau SAN virtuel, est Activ.

Le rseau SAN virtuel est activ pour la mise en rseau.


Suivant
Vous pouvez dsormais activer le rseau SAN virtuel dans le cluster d'htes.

192

VMware, Inc.

Chapitre 19 Utilisation du rseau SAN virtuel

Utilisation du rseau SAN virtuel et de vSphere HA


Vous pouvez activer vSphere HA et le rseau SAN virtuel sur le mme cluster. Comme pour les banques de
donnes traditionnelles, vSphere HA fournit le mme niveau de protection pour les machines virtuelles qui
rsident dans des banques de donnes de rseau SAN virtuel. Cependant, des considrations spcifiques
s'appliquent lors d'une interaction entre vSphere HA et le rseau SAN virtuel.

Conditions requises pour les htes ESXI


Pour utiliser le rseau SAN virtuel avec un cluster vSphere HA, les conditions suivantes doivent tre
remplies :
n

Tous les htes ESXi du cluster doivent tre de la version 5.5 ou ultrieure.

Le cluster doit avoir au moins trois htes ESXi.

Diffrences de mise en rseau


Le rseau SAN virtuel dispose de son propre rseau. Lorsque le rseau SAN virtuel et vSphere HA sont
activs sur le mme cluster, le trafic entre agents HA circule sur ce rseau de stockage et non pas sur le
rseau de gestion. vSphere HA utilise le rseau de gestion uniquement lorsque le rseau SAN virtuel est
dsactiv. vCenter Server choisit le rseau appropri lorsque vSphere HA est configur sur un hte.
REMARQUE Le rseau SAN virtuel ne peut tre activ que si vSphere HA est dsactiv.
Le tableau suivant montre les diffrences de mise en rseau de vSphere HA en fonction de l'utilisation ou
non du rseau SAN virtuel.
Tableau 191. Diffrences de mise en rseau de vSphere HA
Rseau SAN virtuel activ

Rseau SAN virtuel dsactiv

Rseau utilis par vSphere HA

Rseau de stockage du rseau SAN


virtuel

Rseau de gestion

Banques de donnes de signaux de


pulsation

Toutes les banques de donnes


monte sur plusieurs htes, sauf les
banques de donnes de rseau SAN
virtuel.

Toutes les banques de donnes


montes sur plusieurs htes.

Hte dclar comme isol

Adresses d'isolation ne rpondant pas


aux commandes ping et rseau de
stockage du rseau SAN virtuel
inaccessible.

Adresses d'isolation ne rpondant pas


aux commandes ping et rseau de
gestion inaccessible.

Si vous modifiez la configuration du rseau SAN virtuel, les agents vSphere HA ne choisissent pas
automatiquement les nouveaux paramtres rseau. Pour modifier le rseau SAN virtuel, vous devez
effectuer la procdure suivante dans Client Web vSphere :
1

Dsactivez la surveillance de l'hte pour le cluster vSphere HA.

Modifiez le rseau SAN virtuel.

Cliquez avec le bouton droit sur chacun des htes du cluster et slectionnez [Reconfigurer HA] .

Ractivez la surveillance de l'hte pour le cluster vSphere HA.

VMware, Inc.

193

Stockage vSphere

Paramtres de rservation de capacit


Lorsque vous rservez de la capacit pour votre cluster vSphere HA l'aide d'une stratgie de contrle
d'admission, ce paramtre doit tre cohrent avec le paramtre de rseau SAN virtuel correspondant qui
permet d'assurer l'accessibilit des donnes en cas de panne. Plus prcisment, la valeur du paramtre
dfinissant le nombre de pannes tolr dans l'ensemble des rgles de rseau SAN virtuel ne doit pas tre
infrieure la capacit rserve par le paramtre de contrle d'admission de vSphere HA.
Par exemple, si l'ensemble de rgles de rseau SAN virtuel n'autorise que deux pannes, la stratgie du
contrle d'admission de vSphere HA doit rserver une capacit quivalente seulement une ou deux
pannes d'hte. Si vous utilisez la stratgie du pourcentage de ressources de cluster rserves sur un cluster
disposant de huit htes, vous ne devez pas rserver plus de 25 % des ressources du cluster. Si vous utilisez
la stratgie des pannes d'htes tolres par le cluster sur ce mme cluster, la valeur du paramtre ne doit pas
dpasser deux htes. Si vSphere HA rserve une capacit infrieure, l'activit du basculement peut tre
imprvisible ; si, au contraire, il rserve une capacit trop leve, la contrainte impose la mise sous
tension des machines virtuelles et aux migrations vMotion entre clusters est excessive.

Comportement du rseau SAN virtuel et de vSphere dans une situation de panne


impliquant plusieurs htes
Suite une panne de cluster de rseau SAN virtuel avec une perte de quorum de basculement pour un objet
de machine virtuelle, vSphere HA risque de ne pas pouvoir redmarrer la machine virtuelle mme lorsque
le quorum du cluster a t restaur. vSphere HA garantit le redmarrage uniquement lorsqu'il dispose d'un
quorum de cluster et peut accder la copie la plus rcente de l'objet de machine virtuelle. La copie la plus
rcente correspond la dernire copie crite.
Imaginons par exemple qu'une machine virtuelle du rseau SAN virtuel est provisionne pour tolrer une
panne d'hte. La machine virtuelle s'excute sur un cluster de rseau SAN virtuel qui inclut trois htes, H1,
H2 et H3. Les trois htes tombent en panne dans une squence o H3 est le dernier hte tomber en panne.
Aprs la rcupration de H1 et de H2, le cluster dispose d'un quorum (une panne d'hte tolre). Malgr
cela, vSphere HA ne peut pas redmarrer la machine virtuelle car le dernier hte ayant subi une panne (H3)
contient la copie la plus rcente de l'objet de machine virtuelle et est toujours inaccessible.
Dans cet exemple, soit les trois htes doivent rcuprer en mme temps, soit le quorum deux htes doit
inclure H3. Si aucune de ces conditions n'est satisfaite, HA tente de redmarrer la machine virtuelle lorsque
l'hte H3 revient en ligne.

Activation du rseau SAN virtuel


Pour utiliser le rseau SAN virtuel, vous devez crer un cluster d'htes et y activer le rseau SAN virtuel.
Un cluster de rseau SAN virtuel peut inclure des htes avec disques de stockage et d'autres sans disque de
stockage. Suivez ces directives lors de la cration d'un cluster de rseau SAN virtuel.
n

Un cluster de rseau SAN virtuel doit comporter au moins trois htes ESXi.

Afin que le cluster de rseau SAN virtuel puisse tolrer les pannes de disques et d'htes, au moins trois
des htes connects au cluster de rseau SAN virtuel doivent disposer de disques de stockage.

Seuls les htes ESXi 5.5 peuvent se connecter au cluster de rseau SAN virtuel.

Pour pouvoir accder la banque de donnes de rseau SAN virtuel, un hte ESXi doit tre membre du
cluster de rseau SAN virtuel.

Une fois le rseau SAN virtuel activ, le fournisseur de stockage du rseau SAN virtuel est
automatiquement enregistr dans vCenter Server et la banque de donnes de rseau SAN virtuel est cre.
Pour plus d'informations sur les fournisseurs de stockage, reportez-vous Chapitre 26, Utilisation de
fournisseurs de stockage , page 277.

194

VMware, Inc.

Chapitre 19 Utilisation du rseau SAN virtuel

Crer un cluster de rseau SAN virtuel


Lorsque vous crez un cluster, vous pouvez activer le rseau SAN virtuel.
Procdure
1

Cliquez avec le bouton droit sur un centre de donnes dans Client Web vSphere et slectionnez
[Nouveau cluster] .

Attribuez un nom au cluster dans la zone de texte [Nom] .


Ce nom apparat dans le navigateur Client Web vSphere.

Cochez la case [Activer] du rseau SAN virtuel.

Slectionnez le mode de rclamation des disques de stockage, puis cliquez sur [OK] .

Option

Description

Automatique

Rclame tous les disques vides sur les htes inclus pour le rseau SAN
virtuel. En mode automatique, le rseau SAN virtuel ne rclame que les
disques locaux sur les htes ESXi du cluster. Vous pouvez ajouter
manuellement des disques distants non partags.

Manuel

Requiert une rclamation manuelle des disques sur les htes inclus. Les
nouveaux disques de l'hte ne sont pas ajouts au rseau SAN virtuel. En
mode manuel, vous avez le choix entre deux mthodes pour organiser les
disques en groupes de disques : semi-automatique et manuelle.
REMARQUE Lorsque vous utilisez ce mode, une banque de donnes de
rseau SAN virtuel est cre avec une taille initiale de 0 octet. La banque
de donnes est inutilisable tant que vous n'avez pas rclam des disques
manuellement.

Ajoutez des htes au cluster de rseau SAN virtuel.


Les clusters de rseau SAN virtuel peuvent inclure des htes avec disques et d'autres sans disque.

Le cluster apparat dans l'inventaire.


Suivant
Vrifiez que la banque de donnes de rseau SAN virtuel a t cre. Reportez-vous la section Afficher la
banque de donnes de rseau SAN virtuel , page 197.
Vrifiez que le fournisseur de stockage du rseau SAN virtuel est enregistr. Reportez-vous la section
Afficher les fournisseurs de stockage du rseau SAN virtuel , page 205.
Si vous utilisez le rseau SAN virtuel en mode manuel, rclamez des disques ou crez des groupes de
disques. Reportez-vous la section Gestion des groupes de disques , page 198.

Activer le rseau SAN virtuel sur des clusters existants


Vous pouvez modifier les proprits du cluster pour activer le rseau SAN virtuel sur un cluster existant.
Prrequis
Vrifiez que votre environnement rpond la configuration requise. Reportez-vous la section Conditions
requises pour le rseau SAN virtuel , page 191.
Procdure
1

Accdez au cluster hte dans le navigateur Client Web vSphere.

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

VMware, Inc.

195

Stockage vSphere

Sous Rseau SAN virtuel, slectionnez [Gnral] et cliquez sur [Modifier] pour modifier les paramtres
de rseau SAN virtuel.

Slectionnez le mode de rclamation des disques de stockage.

Option

Description

Automatique

Rclame tous les disques vides sur les htes inclus pour le rseau SAN
virtuel. En mode automatique, le rseau SAN virtuel ne rclame que les
disques locaux sur les htes ESXi du cluster. Vous pouvez ajouter
manuellement des disques distants non partags.

Manuel

Requiert une rclamation manuelle des disques sur les htes inclus. Les
nouveaux disques de l'hte ne sont pas ajouts au rseau SAN virtuel. En
mode manuel, vous avez le choix entre deux mthodes pour organiser les
disques en groupes de disques : semi-automatique et manuelle.
REMARQUE Lorsque vous utilisez ce mode, une banque de donnes de
rseau SAN virtuel est cre avec une taille initiale de 0 octet. La banque
de donnes est inutilisable tant que vous n'avez pas rclam des disques
manuellement.

Cliquez sur [OK] .

L'activation de rseau SAN virtuel cre une banque de donnes de rseau SAN virtuel et enregistre le
fournisseur de stockage du rseau SAN virtuel. Le fournisseur de stockage Virtual SAN communique
vCenter Server les capacits de stockage de la banque de donnes.
Suivant
Vrifiez que la banque de donnes de rseau SAN virtuel a t cre. Reportez-vous la section Afficher la
banque de donnes de rseau SAN virtuel , page 197.
Vrifiez que le fournisseur de stockage du rseau SAN virtuel est enregistr. Reportez-vous la section
Afficher les fournisseurs de stockage du rseau SAN virtuel , page 205.
Si vous utilisez le rseau SAN virtuel en mode manuel, rclamez des disques ou crez des groupes de
disques. Reportez-vous la section Gestion des groupes de disques , page 198.

Attribuer une cl de licence un cluster de rseau SAN virtuel


Une fois que vous avez obtenu une cl de licence approprie, attribuez-la votre cluster de rseau SAN
virtuel. Vous pouvez galement utiliser une cl de licence de rseau SAN virtuel existante si elle est dj
disponible dans l'inventaire du systme vCenter Server.
Lorsque vous activez le rseau SAN virtuel d'un cluster, vous pouvez l'utiliser en mode d'valuation pour
explorer ses fonctions. La priode d'valuation commence au moment de l'activation du rseau SAN virtuel
et expire 60 jours plus tard. Pour continuer utiliser le rseau SAN virtuel, assurez-vous d'en acqurir une
licence avant l'expiration de la priode d'valuation.
Prrequis
n

Privilge ncessaire : Global.Licences

Si vous envisagez d'affecter une cl de licence existante, vrifiez qu'elle a t charge dans le systme
vCenter Server.

Procdure

196

Accdez au cluster hte dans le navigateur Client Web vSphere.

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

Sous Configuration, slectionnez [Attribution de licence de rseau SAN virtuel] et cliquez sur
[Attribuer une cl de licence] .

VMware, Inc.

Chapitre 19 Utilisation du rseau SAN virtuel

Slectionner une option d'attribution de licence.


Option

Description

Attribuer une cl de licence


existante

Slectionnez la cl de licence attribuer et cliquez sur [OK] .

Attribuer une nouvelle cl de


licence

a
b

Saisissez la cl de licence, puis entrez un libell facultatif pour la cl.


Cliquez sur [Dcoder] .

Dcodez la cl de licence pour vrifier qu'elle est au format appropri,


et qu'elle fournit une licence au rseau SAN virtuel.
Cliquez sur [OK] .

La cl de licence est attribue au cluster de rseau SAN virtuel.

Afficher la banque de donnes de rseau SAN virtuel


Une fois que le rseau SAN virtuel est activ, une banque de donnes unique est cre. Vous pouvez vrifier
la capacit de la banque de donnes de rseau SAN virtuel.
Prrequis
Vous devez activer le rseau SAN virtuel et configurer des groupes de disques.
Procdure
1

Accdez aux banques de donnes dans le navigateur de Client Web vSphere.

Slectionnez la banque de donnes de rseau SAN virtuel.

Cliquez sur longlet [Grer] , puis cliquez sur [Paramtres] .

Vrifiez la capacit de la banque de donnes de rseau SAN virtuel.


La taille de la banque de donnes de rseau SAN virtuel dpend du nombre de disques HDD par hte
ESXi, ainsi que du nombre d'htes ESXi dans le cluster. Par exemple, si vous avez sept HDD de 2 To
chacun et que le cluster inclut huit htes, la capacit de stockage sera approximativement de 7 x 2 To x 8
= 112 To. Une partie de la capacit est alloue aux mtadonnes.

Suivant
Utilisez les capacits de stockage de la banque de donnes de rseau SAN virtuel pour crer une stratgie de
stockage pour les machines virtuelles. Pour plus d'informations, consultez Chapitre 20, propos des
rgles de stockage de machine virtuelle , page 211.

Dsactiver le rseau SAN virtuel


Vous pouvez dsactiver le rseau SAN virtuel d'un cluster d'htes.
Lorsque vous dsactivez le cluster de rseau SAN virtuel, toutes les machines virtuelles situes sur la
banque de donnes de rseau SAN virtuel partage deviennent inaccessibles. Si vous envisagez d'utiliser la
machine virtuelle alors que le rseau SAN virtuel est dsactiv, migrez les machines virtuelles de la banque
de donnes avant la dsactivation.
Procdure
1

Accdez au cluster hte dans le navigateur Client Web vSphere.

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

Sous Rseau SAN virtuel, slectionnez [Gnral] , puis cliquez sur [Modifier] .

Dsactivez la case cocher [Activer le rseau SAN virtuel] .

VMware, Inc.

197

Stockage vSphere

Gestion des groupes de disques


Sur chaque hte ESXi qui met disposition ses disques locaux dans un cluster de rseau SAN virtuel, les
disques sont organiss en groupes de disques. Un groupe de disques est une unit principale de stockage
sur un hte. Chaque groupe de disques inclut un disque SSD et un ou plusieurs disques HDD.
Le rseau SAN virtuel utilise l'agrgation de groupes de disques pour sauvegarder une banque de donnes
qui est cre lorsque vous activez le rseau SAN virtuel.
Lorsque vous disposez de plusieurs disques SSD et HDD sur un hte, vous pouvez avoir jusqu' six groupes
de disques par hte, chaque groupe de disques contenant jusqu' six disques HDD. Dans le groupe de
disques, le disque SSD sert principalement de cache de lecture / tampon d'criture, tandis que les disques
durs sont utiliss pour le stockage permanent long terme. Gnralement, un rapport SSD / HDD plus
lev, la fois en termes de taille et de quantit, amliore les performances.
Selon le mode que vous slectionnez lors de l'activation du rseau SAN virtuel sur un cluster, vous pouvez
utiliser diffrents modes d'organisation des disques en groupes.
Mode automatique

Le rseau SAN virtuel rclame tous les disques disponibles et utilisables, et


les organise en groupes par dfaut comportant un disque SSD et un ou
plusieurs disques HDD. Si vous ajoutez d'autres disques des htes ou
ajoutez de nouveaux htes au cluster de rseau SAN virtuel, tous les disques
applicables sont rclams par le rseau SAN virtuel. En mode automatique,
le rseau SAN virtuel ne rclame que les disques locaux sur les htes ESXi du
cluster. Vous pouvez ajouter manuellement tout disque non partag distant.

Mode manuel

Vous devez spcifier des htes et des disques sur les htes utiliser pour la
banque de donnes de rseau SAN virtuel. Vous disposez de deux mthodes
d'organisation des disques en groupes de disques, une mthode semiautomatique, une autre manuelle.
Lorsque vous utilisez la mthode semi-automatique, le rseau SAN virtuel
organise les disques que vous spcifiez en groupes de disques par dfaut.
Une autre option consiste crer manuellement des groupes de disques
dfinis par l'utilisateur et de slectionner des disques pour chaque groupe.
Lorsque vous crez manuellement un groupe de disques, le paramtre le
plus important est le rapport de capacit entre disques SSD et HDD. Bien que
les rapports varient en fonction des conditions d'utilisation et des charges de
travail, il est recommand de maintenir un rapport de 1:10 entre la capacit
du disque SSD et celle des disques HDD. Par exemple, si la taille de votre
disque SSD est de 400 Go, la capacit regroupe des disques HDD doit tre
de 4 To.

Les disques de rseau SAN virtuel ne peuvent pas tre utiliss par d'autres fonctions, telles que RDM,
VMFS, partition de diagnostic, etc.

Utiliser la mthode semi-automatique pour rclamer des disques pour le rseau


SAN virtuel
Lorsque le rseau SAN virtuel est activ en mode manuel pour le cluster hte, vous devez slectionner les
disques SSD et HDD qui doivent tre rclams par le rseau SAN virtuel. Une fois les disques slectionns,
le rseau SAN virtuel les classe en groupes de disques par dfaut. Il s'agit l d'une mthode de cration de
groupes de disques semi-automatique.
Procdure
1

198

Accdez au cluster de rseau SAN virtuel dans le navigateur Client Web vSphere.

VMware, Inc.

Chapitre 19 Utilisation du rseau SAN virtuel

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

Sous Rseau SAN virtuel, cliquez sur [Gestion de disques] .

Cliquez sur l'icne [Demander des disques] .

Slectionnez les disques utiliser avec le rseau SAN virtuel.


Sur chaque hte, vous devez slectionner au moins un SSD et un ou plusieurs HDD. Si vous
slectionnez plusieurs SSD, le nombre de HDD doit tre gal ou suprieur au nombre de SSD.

Le rseau SAN virtuel rclame les disques que vous slectionnez et les classe en groupes de disques par
dfaut qui soutiennent la banque de donnes de rseau SAN virtuel.

Utiliser la mthode manuelle pour rclamer des disques pour le rseau SAN
virtuel
Lorsque le rseau SAN virtuel est activ en mode manuel pour le cluster hte, vous pouvez utiliser la
mthode manuelle pour combiner des disques SSD spcifiques avec des disques HDD spcifiques, puis
crer des groupes de disques dfinis par l'utilisateur sur un hte particulier.
Cette mthode s'oppose la rclamation semi-automatique de disques pour le rseau SAN virtuel, o vous
pouvez slectionner plusieurs disques utilisables par le rseau SAN virtuel, sans les organiser en groupes.
Une fois que vous avez slectionn les disques, le rseau SAN virtuel cre automatiquement des groupes de
disques par dfaut. Par opposition, lorsque vous crez manuellement un groupe de disques, vous pouvez
tre plus spcifique et organiser les disques slectionns en groupe de disques. Vous slectionnez d'abord
un disque SSD, puis ajoutez jusqu' six disques HDD de votre choix pour former un groupe de disques. Le
rseau SAN virtuel prend en charge jusqu' six groupes de disques par hte. Les groupes de disques que
vous crez appartiennent l'hte spcifique o rsident les disques, et vous ne pouvez pas raffecter les
groupes un autre hte.
Lorsque vous crez un groupe de disques, le paramtre le plus important est le rapport de capacit entre
disques SSD et HDD. Bien que les rapports varient en fonction des conditions d'utilisation et des charges de
travail, il est recommand d'utiliser un rapport de 1:10 entre la capacit du disque SSD et celle des disques
HDD.
Procdure
1

Accdez au cluster de rseau SAN virtuel dans le navigateur de Client Web vSphere.

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

Sous Rseau SAN virtuel, cliquez sur [Gestion de disques] .

Cliquez sur l'icne [Crer un groupe de disques] .

Slectionnez un disque SSD, puis slectionnez un ou plusieurs disques non-SSD.


Pour chaque groupe de disques, vous pouvez slectionner un seul disque SSD et jusqu' six disques
non-SSD.

Cliquez sur [OK] .

Le nouveau groupe de disques apparat dans la liste.

Ajouter un disque au groupe de disques


Lorsque vous utilisez le rseau SAN virtuel en mode manuel, vous pouvez ajouter des disques locaux aux
groupes de disques existants.
Procdure
1

VMware, Inc.

Accdez au cluster de rseaux SAN virtuels dans le navigateur Client Web vSphere.

199

Stockage vSphere

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

Sous Rseau SAN virtuel, cliquez sur [Gestion de disques] .

Slectionnez le groupe de disques ,, puis cliquez sur l'icne [Ajouter un disque au groupe de disques
slectionn] .

Slectionnez le disque ajouter, puis cliquez sur [OK] .

Le disque apparat dans la liste des disques faisant partie du groupe.

Supprimer des disques du rseau SAN virtuel


Vous pouvez supprimer l'intgralit d'un groupe de disques ou des disques slectionns dans le groupe.
Vous ne pouvez supprimer des disques ou des groupes de disques que lorsque le rseau SAN virtuel est en
mode manuel. Pour le mode de rclamation de disques automatique, l'action de suppression n'est pas prise
en charge.
REMARQUE La suppression d'un seul disque SSD ou de tous les disques non SSD du groupe de disques
supprime l'intgralit du groupe de disques.
Prrequis
tant donn que la suppression des disques peut perturber la banque de donnes de rseau SAN virtuel et
les machines virtuelles sur la banque de donnes, assurez-vous qu'aucune machine virtuelle n'utilise les
disques ou le groupe de disques que vous supprimez. Pour ce faire, placez l'hte du rseau SAN virtuel en
mode maintenance.
Procdure
1

Accdez au cluster de rseau SAN virtuel dans le navigateur Client Web vSphere.

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

Sous Rseau SAN virtuel, cliquez sur [Gestion de disques] .

Supprimez un groupe de disques ou les disques slectionns.


Option

Description

Supprimer le groupe de disques

Dans Groupes de disques, slectionnez le groupe de disques


supprimer, puis cliquez sur l'icne [Supprimer le groupe de disques] .

Supprimer le disque slectionn

Sous Groupes de disques, slectionnez le groupe de disques qui


contient le disque supprimer.
Sous Disques, slectionnez le groupe de disques supprimer, puis
cliquez sur l'icne [Supprimer les disques slectionns] .

Tous les disques SSD que vous supprimez du rseau SAN virtuel sont disponibles pour des fonctions telles
que Flash Read Cache.

Surveillance du rseau SAN virtuel


Le rseau SAN virtuel prend en charge de nombreuses fonctionnalits de surveillance. Vous pouvez
surveiller votre environnement de rseau SAN virtuel depuis Client Web vSphere.
Vous pouvez surveiller diffrents objets dans votre configuration du rseau SAN virtuel. Vous pouvez
surveiller les htes qui participent un cluster de rseaux SAN virtuels de la mme manire que les hte
grs par vCenter Server. Vous pouvez galement surveiller la banque de donnes de rseau SAN virtuel.
Reportez-vous la section Surveillance et performances vSphere.

200

VMware, Inc.

Chapitre 19 Utilisation du rseau SAN virtuel

Surveiller le cluster de rseaux SAN virtuels


Vous pouvez surveiller le cluster de rseaux SAN virtuels et tous les objets qui sont associs au cluster.
Procdure
1

Accdez au cluster de rseaux SAN virtuels dans le navigateur Client Web vSphere.

Slectionnez l'onglet [Surveiller] , puis cliquez sur [Rseau SAN virtuel] .

Slectionnez [Disques physiques] pour vrifier tous les htes et disques de stockage qui appartiennent
au cluster.
Des informations sur les disques de stockage apparaissent, par exemple la capacit, la capacit utilise,
etc.

Slectionnez un disque non-SSD et cliquez sur [Disques virtuels] pour voir les machines virtuelles qui
utilisent le disque.
Vous pouvez vrifier tous les objets de machine virtuelle et dterminer s'ils sont conformes aux rgles
de stockage qui leur sont attribues.

Surveiller les disques qui intgrent des banques de donnes de rseau SAN
virtuel
Vrifiez le statut des disques qui sauvegardent la banque de donnes de rseau SAN virtuel. Vous pouvez
vrifier si les disques rencontrent des problmes.
Procdure
1

Accdez aux banques de donnes dans le navigateur de Client Web vSphere.

Slectionnez la banque de donnes de rseau SAN virtuel.

Cliquez sur longlet [Grer] , puis cliquez sur [Paramtres] .

Cliquez sur [Sauvegarde d'un priphrique] .

Slectionnez le groupe de disques et vrifiez les disques locaux rpertoris dans le tableau Disques.

Si la colonne Problme pour les disques n'est pas visible, procdez comme suit :
a

Cliquez avec le bouton droit sur l'en-tte de colonne et slectionnez [Afficher/cacher colonnes] .

Slectionnez [Problme] pour afficher la colonne.

La colonne Problme vous alerte si les disques deviennent inligibles. Si les disques ne prsentent
aucun problme, la colonne n'affiche aucune valeur.

VMware, Inc.

201

Stockage vSphere

Gestion du rseau SAN virtuel


Aprs avoir configur votre cluster de rseau SAN virtuel, vous pouvez utiliser Client Web vSphere pour
ajouter des htes et des disques, en supprimer et grer les ventuels problmes.

Extension d'un cluster de rseau SAN virtuel


Vous pouvez dvelopper un cluster de rseau SAN virtuel existant en ajoutant des htes ou des disques aux
htes.
Utilisez l'une des mthodes suivantes pour dvelopper votre cluster de rseau SAN virtuel.
n

Ajoutez de nouveaux htes ESXi au cluster ou dplacez des htes d'inventaire existants dans le cluster
sans perturber les oprations en cours. Les nouveaux membres du cluster ajoutent de la capacit de
stockage et de calcul. Si vous utilisez le rseau SAN virtuelen mode automatique, les disques de
stockage sur le nouveau membre du cluster seront automatiquement agrgs dans le groupe de disques
et rclams par la banque de donnes de rseau SAN virtuel. Si le rseau SAN virtuel est en mode
manuel, vous devez crer manuellement des groupes de disques partir des disques de stockage sur
l'hte rcemment ajout. Reportez-vous Utiliser la mthode manuelle pour rclamer des disques
pour le rseau SAN virtuel , page 199.

Ajoutez de nouveaux disques de stockage aux htes ESXi qui sont des membres du cluster. Si vous
utilisez le rseau SAN virtuel en mode automatique, le nouveau disque que vous ajoutez rejoint un
groupe de disques existant. Si le rseau SAN virtuel est en mode manuel, vous devez ajouter
manuellement le disque au groupe de disques sur l'hte. Reportez-vous la section Ajouter un disque
au groupe de disques , page 199.

Ajouter un hte au cluster de rseaux SAN virtuels


Vous pouvez ajouter un hte n ESXi un cluster de rseaux SAN virtuels en cours d'excution sans
interrompre les oprations en cours. Les ressources de l'hte sont alors associes ce cluster.
Procdure
1

Accdez au cluster de rseaux SAN virtuels dans le navigateur Client Web vSphere.

Cliquez avec le bouton droit de la souris sur le cluster et slectionnez [Ajouter hte] .

Entrez le nom de l'hte, le nom d'utilisateur et le mot de passe, et cliquez sur [Suivant] .

Lisez les informations rcapitulatives et cliquez sur [Suivant] .

Attribuez une cl de licence existante ou une nouvelle cl puis cliquez sur [Suivant] .

(Facultatif) Activez le mode de verrouillage pour empcher les utilisateurs distants de se connecter
directement l'hte.
Vous pouvez configurer cette option par la suite en modifiant le profil de scurit dans les paramtres
de l'hte.

Slectionnez l'action entreprendre avec les machines virtuelles et les pools de ressources de l'hte.
n

[Mettre les machines virtuelles de cet hte dans le pool de ressources racine du cluster]
vCenter Server supprime tous les pools de ressources existants de l'hte. Les machines virtuelles
dans la hirarchie de l'hte sont attaches la racine. Comme les allocations de partage sont lies
un pool de ressources, il peut tre ncessaire de modifier manuellement les partages d'une machine
virtuelle, ce qui dtruit la hirarchie du pool de ressources.

202

[Crer un pool de ressources pour les machines virtuelles et les pools de ressources de cet hte]

VMware, Inc.

Chapitre 19 Utilisation du rseau SAN virtuel

vCenter Server cre un pool de ressources de niveau suprieur qui devient un enfant direct du
cluster et ajoute tous les enfants de l'hte ce nouveau pool de ressources. Vous pouvez taper un
nom pour ce nouveau pool de ressources suprieur. Par dfaut, il s'agit de [Greff de
<host_name>] .
8

Vrifiez les paramtres et cliquez sur [Terminer] .

L'hte est ajout au cluster.

Placer un membre du cluster de rseau SAN virtuel en mode maintenance


Avant de pouvoir arrter, redmarrer ou dconnecter un hte faisant partie d'un cluster de rseau SAN
virtuel, vous devez le placer en mode de maintenance. C'est au moment de placer un hte en mode de
maintenance que vous pouvez choisir un mcanisme d'vacuation spcifique.
Prrequis
Vous devez vrifier que votre environnement dispose des capacits requises par l'option slectionne.
Procdure
1

Cliquez avec le bouton droit de la souris sur l'hte et slectionnez [Saisir mode maintenance] .

Slectionnez un des modes d'vacuation et cliquez sur [OK] .


Option

Description

Assurer l'accessibilit

Il s'agit de l'option par dfaut. Lorsque vous mettez l'hte hors tension ou
que vous le supprimez du cluster, le rseau SAN virtuel veille ce que
toutes les machines virtuelles accessibles sur cet hte le restent. En gnral,
seule l'vacuation partielle des donnes est requise.
Slectionnez cette option si vous retirez l'hte du cluster de manire
provisoire (par exemple, pour installer des mises niveau) et que vous
prvoyez de l'intgrer de nouveau au cluster. Cette option n'est pas
approprie si vous supprimez dfinitivement l'hte du cluster.

vacuation intgrale des donnes

Le rseau SAN virtuel vacue toutes les donnes vers d'autres htes du
cluster. Cette option est celle qui entrane le plus gros transfert de donnes,
qui est la plus longue et qui monopolise le plus de ressources.
Slectionnez-la si vous prvoyez de supprimer l'hte dfinitivement.
REMARQUE L'hte ne passe pas en mode de maintenance si un objet de
machine virtuelle disposant de donnes sur l'hte en question est
inaccessible et ne peut pas tre intgralement vacu.

Aucune vacuation de donnes

Le rseau SAN virtuel n'vacue aucune donnes de l'hte. Si vous mettez


l'hte hors tension ou que vous le supprimez du cluster, certaines
machines virtuelles peuvent devenir inaccessibles.

Rseau SAN virtuel et gestion du stockage base sur des stratgies


Lorsque vous utilisez le rseau SAN virtuel, vous pouvez dfinir les besoins en stockage d'une machine
virtuelle, par exemple les performances et la disponibilit, sous la forme d'un profil de stratgie. Les
exigences de la stratgie sont ensuite envoyes la couche du rseau SAN virtuel lors de la cration d'une
machine virtuelle. Le disque virtuel est distribu dans la banque de donnes de rseau SAN virtuel pour
rpondre aux exigences.
Lorsque vous activez le rseau SAN virtuel sur un cluster hte, une banque de donnes de rseau SAN
virtuel unique est cre. En outre, l'activation du rseau SAN virtuel configure et enregistre le fournisseur
de stockage du rseau SAN virtuel qui fait appel la spcification VASA pour communiquer un ensemble
de capacits de banque de donnes vCenter Server.

VMware, Inc.

203

Stockage vSphere

Une capacit de stockage est gnralement reprsente par une paire cl-valeur, o la cl est une proprit
spcifique que la banque de donnes peut offrir et la valeur est une mesure, ou une plage, que la banque de
donnes garantit pour un objet provisionn, par exemple un objet de mtadonnes de machine virtuelle ou
un disque virtuel.
Lorsque vous connaissez les besoins en stockage de vos machines virtuelles, vous pouvez crer une stratgie
de stockage faisant rfrence aux capacits que la banque de donnes annonce. Vous pouvez crer plusieurs
stratgies pour capturer diffrents types ou diffrentes classes d'exigences.
Vous pouvez appliquer ces stratgies de stockage lorsque vous crez ou modifiez des machines virtuelles.
REMARQUE Si vous n'appliquez pas de stratgie de stockage une machine virtuelle, celle-ci utilisera la
stratgie de rseau SAN virtuel par dfaut qui dfinit un nombre de pannes tolrer et une bande de disque
par objet unique.
Tableau 192. Attributs d'une stratgie de stockage

204

Capacit

Description

Nombre de pannes tolres

Dfinit le nombre de pannes d'hte, de disque ou de rseau


qu'un objet de machine virtuelle peut tolrer. Pour n
pannes tolres, n+1 copies de l'objet de machine virtuelle
sont cres et 2n+1 htes disposant d'un stockage sont
requis.
La valeur par dfaut est 1. La valeur maximale est 3.

Nombre de bandes de disque par objet

Nombre de disques HDD sur lesquels chaque rplique


d'un objet de machine virtuelle est agrge par bandes. Une
valeur suprieure 1 peut donner de meilleures
performances, mais peut aussi engendrer une plus grande
sollicitation des ressources systme.
La valeur par dfaut est 1. La valeur maximale est 12.

Rservation d'espace de l'objet

Pourcentage de la taille logique de l'objet devant tre


rserv, ou provisionn de faon statique, pendant la
cration de la machine virtuelle. Le reste de l'objet de
stockage bnficie d'un provisionnement dynamique. Cette
valeur s'applique uniquement lorsque vous choisissez le
provisionnement dynamique pour un disque virtuel. Si
votre disque est provisionn de faon statique, 100 % est
rserv automatiquement.
La valeur par dfaut est 0 %. La valeur maximale est 100 %.

VMware, Inc.

Chapitre 19 Utilisation du rseau SAN virtuel

Tableau 192. Attributs d'une stratgie de stockage (suite)


Capacit

Description

Rservation du cache de lecture flash

Capacit du disque SSD rserve au cache de lecture pour


l'objet de machine virtuelle. Elle est exprime en
pourcentage de la taille logique de l'objet. Elle doit tre
utilise uniquement pour rsoudre les problmes de
performances de lecture. La capacit de mmoire flash
rserve ne peut pas tre utilise par d'autres objets. La
mmoire flash non rserve est partage quitablement
entre tous les objets.
La valeur par dfaut est 0 %. La valeur maximale est 100 %.
REMARQUE Par dfaut, le rseau SAN virtuel alloue
dynamiquement un cache de lecture aux objets de stockage
la demande. Cette solution garantit une utilisation souple
et optimale des ressources. Par consquent, vous n'avez
gnralement pas modifier la valeur par dfaut 0 de ce
paramtre.
Soyez prudent si vous devez augmenter la valeur pour
rsoudre un problme de performances. Une rservation
de cache surprovisionne sur plusieurs machines virtuelles
peut entraner un gaspillage d'espace SSD dans des
rservations excessives et la non-disponibilit de cet espace
pour traiter les charges de travail ponctuelles. Cela peut
entraner une dgradation des performances.

Forcer le provisionnement

Si l'option est dfinie sur [Oui] , l'objet sera provisionn


mme si stratgie spcifie dans la stratgie de stockage ne
peut pas tre satisfaite par la banque de donnes. Utilisez
ce paramtre dans les scnarios d'amorage ou lors d'une
coupure lorsque le provisionnement standard n'est plus
possible.
La valeur par dfaut [Non] est acceptable pour la plupart
des environnements de production. Le rseau SAN virtuel
tente de provisionner une machine virtuelle mme lorsqu'il
est impossible de satisfaire toutes les exigences.

Afficher les fournisseurs de stockage du rseau SAN virtuel


Le rseau SAN virtuel configure et enregistre automatiquement un fournisseur de stockage pour chaque
hte dans le cluster de rseau SAN virtuel.
Les fournisseurs de stockage du rseau SAN virtuel font appel la spcification VASA pour signaler un
ensemble de capacits de banque de donnes vCenter Server. Ils communiquent galement avec la couche
du rseau SAN virtuel pour indiquer les besoins en stockage des machines virtuelles. Pour plus
d'informations sur les fournisseurs de stockage, reportez-vous Chapitre 26, Utilisation de fournisseurs de
stockage , page 277.
Le rseau SAN virtuel enregistre un fournisseur de stockage distinct pour chaque hte dans le cluster de
rseau SAN virtuel, en utilisant l'URL suivante :
http://host_ip:8080/version.xml
o host_ip est l'adresse IP relle de l'hte.
Vrifiez que les fournisseurs de stockage sont enregistrs.
Procdure
1

Accdez au vCenter Server dans le navigateur de Client Web vSphere.

Cliquez sur l'onglet [Grer] , puis cliquez sur [Fournisseurs de stockage] .

Les fournisseurs de stockage du rseau SAN virtuel figurent dans la liste.

VMware, Inc.

205

Stockage vSphere

Suivant
Si vous supprimez un fournisseur de stockage du rseau SAN virtuel ou en annulez l'enregistrement des
fins de dpannage, vous pouvez l'enregistrer manuellement. Reportez-vous la section Enregistrement
des fournisseurs de stockage , page 279.

Dfinir un profil de stockage pour le rseau SAN virtuel


Vous crez un profil de stratgie lorsque vous devez dfinir les besoins en stockage et un type de service de
stockage pour une machine virtuelle. Dans ce profil, vous rfrencez les capacits de stockage que la banque
de donnes de rseau SAN virtuel indique.
Prrequis
Vrifiez que le fournisseur de stockage du rseau SAN virtuel est disponible. Reportez-vous la section
Afficher les fournisseurs de stockage du rseau SAN virtuel , page 205.
Vrifiez que les stratgies de stockage sont actives. Reportez-vous la section Activer des stratgies de
stockage de la machine virtuelle , page 215.
Procdure
1

Dans la page d'accueil de vSphere Web Client, cliquez sur [Rgles et profils] > [Stratgie de stockage
VM] .

Cliquez sur l'icne Crer une stratgie de stockage VM.

Slectionnez l'instance de vCenter Server.

Entrez un nom et une description pour la stratgie de stockage.

Dans l'cran Ensemble de rgles 1, dfinissez le premier ensemble de rgles.


a

Slectionnez VSAN dans la zone droulante Rgles bases sur des capacits fournisseur
spcifiques.
La page se dveloppe pour afficher les capacits indiques par la banque de donnes de rseau
SAN virtuel.

Ajoutez une capacit et indiquez sa valeur.


Assurez-vous que les valeurs que vous fournissez sont comprises dans la plage de valeurs
annonce par le profil de capacit de la banque de donnes de rseau SAN virtuel.

(Facultatif) Ajoutez des capacits bases sur des balises.

(Facultatif) Ajoutez un autre ensemble de rgles.

Consultez la liste des banques de donnes qui correspondent cette stratgie, puis cliquez sur
[Terminer] .
Pour tre admissible, une banque de donnes ne doit pas ncessairement tre conforme tous les
ensembles de rgles qui constituent la stratgie. Elle doit tre conforme au moins un ensemble de
rgles et l'intgralit des rgles de cet ensemble. Assurez-vous que la banque de donnes de rseau
SAN virtuel rpond aux exigences dfinies dans la stratgie de stockage et apparat dans la liste de
banques de donnes compatibles.

La nouvelle stratgie est ajoute la liste.

206

VMware, Inc.

Chapitre 19 Utilisation du rseau SAN virtuel

Suivant
Appliquez cette stratgie une machine virtuelle et ses disques virtuels. Le rseau SAN virtuel place les
objets de la machine virtuelle conformment aux exigences spcifies dans la stratgie. Pour plus
d'informations sur l'utilisation des stratgies, reportez-vous Chapitre 20, propos des rgles de stockage
de machine virtuelle , page 211.

Dpannage du rseau SAN virtuel


En cas de problme lors de l'utilisation du rseau SAN virtuel, vous pouvez utiliser les rubriques de
dpannage. Elles vous aident comprendre le problme et vous apportent une solution, s'il en existe une.

Utilisation des commandes esxcli avec le rseau SAN virtuel


Utilisez les commandes esxcli pour obtenir des informations sur le rseau SAN virtuel et dpanner votre
environnement de rseau SAN virtuel.
Voici les commandes disponibles :
Commande

Description

esxcli vsan network list

Permet de vrifier quels sont les adaptateurs VMkernel utiliss pour la communication avec le
rseau SAN virtuel.

esxcli vsan storage list

Permet d'obtenir la liste des disques de stockage rclams par le rseau SAN virtuel.

esxcli vsan cluster get

Permet d'obtenir des informations sur le cluster de rseau SAN virtuel.

Les SSD locaux ne sont pas disponibles pour une utilisation avec le rseau
SAN virtuel
Lorsqu'un disque SSD local est utilis en tant que ressource Flash Read Cache ou format avec VMFS, il n'est
plus disponible dans le rseau SAN virtuel.
Problme
Un disque SSD local n'apparat pas dans la liste des disques rclams par le rseau SAN virtuel.
Cause
Cela se produit si vous formatez un disque SSD local avec VMFS ou que vous l'utilisez en tant que ressource
Flash Read Cache. Flash Read Cache et le rseau SAN virtuel ne peuvent pas consommer des disques SSD
simultanment et configurent ces derniers de faon diffrente. Ils ne peuvent pas partager le mme disque
SSD. Le rseau SAN virtuel ne peut partager un disque SSD avec aucun autre systme de fichiers incluant
VMFS.
Solution
Si le rseau SAN virtuel doit rclamer un disque SSD, assurez-vous que ce disque n'est ni format avec
VMFS ni utilis dans Flash Read Cache.
n

vitez de formater le disque SSD avec VMFS pendant l'installation d'ESXi ou avec Auto Deploy. Pour
plus d'informations, consultez Empcher le formatage du SSD lors du partitionnement automatique ,
page 184.

Si le disque SSD que vous prvoyez d'utiliser avec le rseau SAN virtuel a dj t format avec VMFS,
supprimez la banque de donnes VMFS. Reportez-vous la section Supprimer des banques de
donnes VMFS dans Client Web vSphere , page 158.

VMware, Inc.

207

Stockage vSphere

Si le disque SSD est utilis en tant que ressource Flash Read Cache, supprimez la ressource Flash Read
Cache en question. Une fois la ressource Flash Read Cache supprime et le disque SSD effac, ce dernier
est alors disponible pour le rseau SAN virtuel. Reportez-vous la section Supprimer une ressource
de Flash virtuel , page 227.

En outre, il est possible qu'un disque SSD local ne soit pas disponible car ESXi ne le reconnat pas. Pour plus
d'informations, consultez Impossible de dtecter les SSD locaux , page 185

La configuration du rseau SAN virtuel sur un hte ESXi peut chouer


Dans certaines circonstances, la configuration du rseau SAN virtuel peut chouer sur un hte particulier.
Problme
La configuration du rseau SAN virtuel choue sur un hte ESXi rejoignant un cluster de rseaux SAN
virtuels.
Cause
Si un hte ne remplit pas les conditions matrielles requises ou rencontre d'autres problmes, il est possible
que la configuration du rseau SAN virtuel choue sur cet hte. Par exemple, cela peut se produire si l'hte
dispose d'une mmoire insuffisante.
Solution
1

Placez l'hte qui pose problme en mode de maintenance.

Retirez l'hte du cluster de rseaux SAN virtuels.

Corrigez le problme qui empche la configuration du rseau SAN virtuel sur l'hte.

Quittez le mode de maintenance

Rintgrez l'hte dans le cluster de rseaux SAN virtuels.

Les objets de machines virtuelles non conformes ne deviennent pas conformes


immdiatement
Lorsque vous utilisez le bouton [Vrifier la conformit] , un objet de machine virtuelle ne change pas son
tat de Non conforme Conforme mme si des ressources de rseau SAN virtuel sont devenues disponibles
et rpondent au profil de la machine virtuelle.
Problme
Lorsque vous utilisez une option de provisionnement forc, vous pouvez provisionner un objet de machine
virtuelle mme lorsque la stratgie spcifie dans le profil de la machine virtuelle est impossible satisfaire
avec les ressources actuellement disponibles dans le cluster de rseau SAN virtuel. L'objet est cr, mais
demeure dans l'tat non conforme.
Le rseau SAN virtuel doit normalement rtablir la conformit de l'objet ds que les ressources de stockage
dans le cluster deviennent disponibles, par exemple lorsque vous ajoutez un hte. Cependant, l'tat de
l'objet ne change pas Conforme immdiatement aprs l'ajout de ressources.
Cause
Cela se produit car le rseau SAN virtuel rgule le rythme de la reconfiguration pour viter de surcharger le
systme. Le temps requis pour obtenir la conformit varie selon le nombre d'objets dans le cluster, la charge
d'E/S sur le cluster et la taille de l'objet concern. Dans la plupart des cas, la conformit est obtenue dans un
dlai raisonnable.

208

VMware, Inc.

Chapitre 19 Utilisation du rseau SAN virtuel

Problmes de configuration du cluster de rseau SAN virtuel


Aprs avoir modifi la configuration du rseau SAN virtuel, vCenter Server effectue des contrles de
validation pour la configuration du rseau SAN virtuel. Les contrles de validation sont galement effectus
en tant que partie d'un processus de synchronisation de l'hte. Si vCenter Server dtecte des problmes de
configuration, il affiche des messages d'erreur.
Problme
Un certain nombre de messages d'erreur indiquent que vCenter Server a dtect un problme de
configuration du rseau SAN virtuel.
Solution
Utilisez les mthodes suivantes pour corriger les problmes de configuration du rseau SAN virtuel.
Tableau 193. Erreurs de configuration du rseau SAN virtuel et solutions
Erreur de configuration du rseau SAN virtuel

Solution

L'hte sur lequel le service VSAN est activ n'est pas dans
le cluster vCenter

Ajoutez l'hte au cluster de rseau SAN virtuel.


1 Cliquez avec le bouton droit de la souris sur l'hte et
slectionnez [Dplacer vers] .
2 Slectionnez le cluster de rseau SAN virtuel, puis
cliquez sur [OK] .

L'hte est dans un cluster VSAN, mais n'a pas le service


VSAN activ

Vrifiez si le rseau SAN virtuel est correctement configur


et activ sur l'hte. Reportez-vous la section Conditions
requises et meilleures pratiques pour la mise en rseau du
rseau SAN virtuel , page 191.

Le rseau VSAN n'est pas configur

Configurez le rseau SAN virtuel. Reportez-vous la


section Conditions requises et meilleures pratiques pour
la mise en rseau du rseau SAN virtuel , page 191.

L'hte ne peut communiquer avec aucun des autres nuds


du cluster pour lequel VSAN est activ

Peut provenir de l'isolement rseau. Reportez-vous la


section Conditions requises et meilleures pratiques pour
la mise en rseau du rseau SAN virtuel , page 191.

Un autre hte participant au service VSAN a t dtect


comme n'tant pas membre du cluster vCenter de cet hte.

Assurez-vous que la configuration du cluster de rseau


SAN virtuel est correcte et que tous les htes du rseau
SAN virtuel se trouvent dans le mme sous-rseau.
Reportez-vous la section Conditions requises et
meilleures pratiques pour la mise en rseau du rseau SAN
virtuel , page 191.

VMware, Inc.

209

Stockage vSphere

210

VMware, Inc.

propos des rgles de stockage de


machine virtuelle

20

Utilisez des rgles de stockage de machine virtuelle, anciennement nommes profils de stockage de machine
virtuelle, pour vous assurer que les machines virtuelles sont places dans un stockage qui garantisse un
niveau spcifique de capacit, de performance, de disponibilit, de redondance, etc.
Lorsque vous dfinissez une rgle de stockage, vous spcifiez les besoins en stockage des applications
excuter sur des machines virtuelles. Aprs l'application de cette rgle de stockage une machine virtuelle,
cette dernire est place dans une banque de donnes spcifique pouvant rpondre aux besoins en stockage.
Vous grez l'emplacement de stockage l'aide de rgles de stockage.
1

Si vous utilisez des rgles de stockage avec des fournisseurs de stockage, vrifiez qu'un fournisseur de
stockage appropri est enregistr.
Reportez-vous la section Chapitre 26, Utilisation de fournisseurs de stockage , page 277.

Appliquez des balises de capacit de stockage aux banques de donnes. Reportez-vous la section
Affecter des balises des banques de donnes , page 212.

Activez des rgles de stockage pour un hte ou un cluster. Reportez-vous la section Activer des
stratgies de stockage de la machine virtuelle , page 215.

Crez des rgles de stockage en dfinissant des exigences pour les applications s'excutant sur une
machine virtuelle. Reportez-vous la section Dfinir une stratgie de stockage pour une machine
virtuelle , page 215.

Associez une rgle de stockage aux fichiers de la machine virtuelle ou aux disques virtuels. Reportezvous la section Appliquer une rgle de stockage une machine virtuelle , page 217.

Vrifiez que les machines virtuelles et les disques virtuels utilisent des banques de donnes conformes
la rgle de stockage attribue. Reportez-vous la section Vrifier la conformit de stockage d'une
machine virtuelle , page 219.

Ce chapitre aborde les rubriques suivantes :


n

Prsentation des capacits de stockage , page 211

Description des rgles de stockage des machines virtuelles , page 213

Prsentation des capacits de stockage


Lorsque vous dfinissez les besoins en stockage des machines virtuelles et des disques virtuels, vous faites
rfrence des capacits de stockage spcifiques d'un fournisseur ou dfinies par l'utilisateur dans une
stratgie de stockage.

VMware, Inc.

211

Stockage vSphere

Capacits de stockage spcifiques au fournisseur


Les systmes de stockage qui font appel la spcification vStorage APIs for Storage Awareness, galement
nomme VASA, sont reprsents par des fournisseurs de stockage. Les fournisseurs de stockage
communiquent vCenter Server des informations sur des priphriques de stockage spcifiques, et
prsentent les caractristiques des priphriques et des banques de donnes dployes sur les priphriques
en tant que capacits de stockage. Ces capacits de stockage sont dfinies par le systme et sont spcifiques
au fournisseur.
Un systme de stockage peut annoncer plusieurs capacits. Les capacits sont regroupes dans un ou
plusieurs profils de capacit. Les capacits dfinissent la qualit de service que le systme de stockage peut
offrir. Elles garantissent que le systme de stockage peut fournir un ensemble spcifique de caractristiques
en matire de capacit, de performances, de disponibilit, de redondance, etc.
Les capacits spcifiques du fournisseur sont affiches dans le systme SPBM (Storage Policy-Based
Management). Lorsque vous crez une stratgie de stockage pour votre machine virtuelle, vous faites
rfrence ces capacits de stockage spcifiques du fournisseur, afin que votre machine virtuelle soit place
sur la banque de donnes avec ces capacits.
Pour plus d'informations sur les fournisseurs de stockage, reportez-vous Chapitre 26, Utilisation de
fournisseurs de stockage , page 277.

Capacits de stockage bases sur des balises


Vous pouvez utiliser des balises pour crer des capacits de stockage dfinies par l'utilisateur et appliquer
ces balises des banques de donnes. Vous pouvez appliquer plusieurs balises une banque de donnes.
Gnralement, les capacits bases sur des balises sont destines :
n

coder les informations relatives la rgle qui ne sont pas annonces dans la spcification VASA
(vStorage APIs for Storage Awareness), telles que l'emplacement gographique ou le groupe
administratif ;

associer une dfinition extensive du niveau de stockage une banque de donnes qui n'est pas
reprsente par un fournisseur de stockage.

Toutes les balises appliques des banques de donnes s'affichent dans le systme SPBM (Storage PolicyBased Management). Comme pour les capacits spcifiques du fournisseur, vous pouvez utiliser les balises
lorsque vous crez des stratgies de stockage.

Affecter des balises des banques de donnes


Lorsque votre banque de donnes n'est pas reprsente par un fournisseur de stockage et n'affiche pas ses
capacits dans le systme SPBM (Storage Profile-Based Management), utilisez des balises pour coder les
informations concernant la banque de donnes. Vous pouvez alors faire rfrence ces balises lors de la
dfinition d'une stratgie de stockage pour une machine virtuelle.
Vous pouvez appliquer une banque de donnes une nouvelle balise qui contient des informations de
stockage. Pour obtenir des informations sur les balises, leurs catgories et dcouvrir comment grer les
balises, reportez-vous la documentation Gestion de vCenter Server et des htes.
Procdure

212

Accdez un centre de donnes dans l'inventaire de Client Web vSphere.

Cliquez sur l'onglet [Grer] puis sur [Balises] .

Cliquez sur l'icne [Nouvelle balise] .

Dans le menu droulant [vCenter Server] , slectionnez l'instance de vCenter Server sur laquelle vous
souhaitez crer la balise.

VMware, Inc.

Chapitre 20 propos des rgles de stockage de machine virtuelle

Tapez un nom et une description pour la balise.


Par exemple, vous pouvez spcifier une dfinition large du niveau de stockage ou indiquer une
proprit qui n'est pas communique par un fournisseur de stockage, telle que l'emplacement
gographique ou le groupe administratif.
Proprit de balise

Exemple

Nom

Fault tolerance.

Description

Stockage d'une capacit de plus de 2 To et tolrante aux pannes.

Dans le menu droulant [Catgorie] , slectionnez une catgorie existante ou crez-en une.

Cliquez sur [OK] .

La nouvelle balise est attribue la banque de donnes.


Suivant
Vous pouvez rfrencer la balise lors de l'ajout de rgles bases sur des balises la stratgie de stockage. La
banque de donnes apparat dans la liste de ressources de stockage compatibles pour les machines virtuelles
qui utilisent la stratgie.

Description des rgles de stockage des machines virtuelles


Les rgles de stockage que vous dfinissez pour les machines virtuelles capturent les caractristiques de
stockage requises par les fichiers de base de machine virtuelle et des disques virtuels pour excuter des
applications dans la machine virtuelle.
Lorsque vous crez une rgle de stockage, vous pouvez indiquer les capacits de stockage annonces par un
systme de stockage. Vous pouvez galement indiquer les balises de banque de donnes dfinies par
l'utilisateur.
Bien que les rgles et les capacits de stockage aient une smantique similaire, elles dcrivent ce que les
utilisateurs exigent de leurs machines virtuelles, tandis que les capacits de stockage se rfrent ce que le
systme peut offrir.
Vous pouvez crer plusieurs rgles de stockage pour dfinir diffrents types et catgories de besoins en
stockage.
Chaque rgle de stockage n'est pas qu'un simple ensemble de contraintes qui s'appliquent simultanment.
Une rgle unique peut inclure d'autres ensembles de sous-rgles ou ensembles de rgles, qui reprsentent
des besoins en stockage tout aussi acceptables.
Les fichiers de base de machine virtuelle (.vmx, .vmsd, .nvram, .log, etc.) et les disques virtuels (.vmdk)
peuvent avoir des rgles de stockage distinctes, comme indiqu dans le tableau suivant.
Tableau 201. Exemple de rgle de stockage d'une machine virtuelle
Exemples de fichiers de
machine virtuelle

Exemple de rgle de
stockage

Exemple de banque de donnes conforme au


profil de stockage

Rgle de stockage 2

banque de donnes02, banque de donnes05,


banque de donnes10

windows_2008r2_test.vmx
windows_2008r2_test.vmxf
windows_2008r2_test.log
windows_2008r2_test.nvram
windows_2008r2_test.vmem
windows_2008r2_test.vmsd

VMware, Inc.

213

Stockage vSphere

Tableau 201. Exemple de rgle de stockage d'une machine virtuelle (suite)


Exemples de fichiers de
machine virtuelle

Exemple de rgle de
stockage

Exemple de banque de donnes conforme au


profil de stockage

windows_2008r2_test.vmdk

Rgle de stockage 3

datastore05

windows_2008r2_test_1.vmdk

Rgle de stockage 5

datastore10

Lorsque vous crez, clonez ou migrez une machine virtuelle, vous pouvez appliquer la rgle de stockage la
machine virtuelle. Vous pouvez ensuite placer la machine virtuelle sur l'une des banques de donnes dont
les fonctionnalits sont compatibles avec les exigences de la rgle.
Si vous slectionnez une banque de donnes qui ne correspond pas la rgle, la rgle indique que les
machines virtuelles utilisent un stockage non conforme.

propos des groupes de rgles


Une rgle de stockage est constitue d'un ou de plusieurs ensembles de rgles qui dcrivent les exigences en
matire de ressources de stockage des machines virtuelles.
Lorsque vous dfinissez une rgle de stockage pour vos machines virtuelles, vous pouvez ajouter un ou
plusieurs ensembles de rgles, galement appels sous-profils ou sous-rgles. Un ensemble de rgles se
compose d'un ou de plusieurs paramtres ou contraintes. Chaque paramtre dcrit, sous forme de rgle, un
critre de quantit ou de qualit spcifique auquel une ressource de stockage doit satisfaire. Un ensemble de
rgles ne peut inclure des rgles que d'un seul fournisseur de stockage.
Pour crer une rgle, au moins un ensemble de rgles est obligatoire, mais vous pouvez en utiliser
davantage si vous le souhaitez. L'utilisation de plusieurs ensembles de rgles permet une rgle de dfinir
des paramtres de slection alternatifs, provenant gnralement de plusieurs fournisseurs de stockage.
La relation entre les diffrents ensembles de rgles au sein d'une rgle est rgie par l'oprateur boolen OR,
tandis que la relation entre les rgles d'un mme ensemble de rgles est rgie par l'oprateur AND. Par
consquent, la satisfaction de toutes les rgles de n'importe quel ensemble de rgles suffit pour tre
conforme l'intgralit de la rgle. Chaque ensemble de rgles reprsente un ensemble tout aussi acceptable
de contraintes.
Stratgie de stockage de machine virtuelle

Ens. rgles 1

Ens. rgles 2

Ens. rgles 3

rgle 1_1

rgle 2_1

rgle 3_1

et
rgle 1_2

214

ou

et
rgle 2_2

ou

et
rgle 3_2

et

et

rgle 1_3

rgle 3_3

VMware, Inc.

Chapitre 20 propos des rgles de stockage de machine virtuelle

Activer des stratgies de stockage de la machine virtuelle


Pour pouvoir utiliser des stratgies de stockage pour machines virtuelles, vous devez les activer sur un hte
ou dans un cluster.
Prrequis
Vous devez vrifier que les htes du cluster sur lesquels vous souhaitez activer les stratgies, qu'il s'agisse
d'un seul hte ou de la totalit des htes, disposent de la licence des stratgies de stockage.
Procdure
1

Dans la page d'accueil de vSphere Web Client, cliquez sur [Rgles et profils] > [Rgles de stockage
VM] .

Cliquez sur l'icne [Activer les stratgies de stockage VM] (

Slectionnez l'instance de vCenter Server.

).

Tous les clusters et htes disponibles pour le serveur slectionn apparaissent. L'tat de la licence du
serveur apparat et vous pouvez consulter si des stratgies de stockage sont actives ou pas.
4

Pour activer les stratgies de stockage, slectionnez un hte ou un cluster dont l'tat est Dsactiv ou
Inconnu et cliquez sur [Activer] .

L'tat de l'hte ou du cluster devient Activ.


Suivant
Vous pouvez appliquer des stratgies de stockage aux machines virtuelles qui s'excutent sur l'hte ou dans
le cluster activ.

Dfinir une stratgie de stockage pour une machine virtuelle


Lorsque vous dfinissez des stratgies de stockage pour machines virtuelles, vous devez indiquer les
besoins en stockage des objets des machines virtuelles, tels que les fichiers de base et les disques virtuels.
Chaque stratgie de stockage peut faire rfrence des capacits de stockage annonces par un systme de
stockage ou des balises de banque de donnes dfinies par l'utilisateur.
Prrequis
Si vous prvoyez d'inclure des capacits de stockage dfinies par le systme dans la stratgie de stockage,
vous devez veiller enregistrer un fournisseur de stockage appropri. Reportez-vous la section Chapitre
26, Utilisation de fournisseurs de stockage , page 277.
Procdure
1

Dans la page d'accueil de vSphere Web Client, cliquez sur [Rgles et profils] > [Rgles de stockage
VM] .

Cliquez sur l'icne [Crer une stratgie de stockage VM] .

Slectionnez l'instance de vCenter Server.

Entrez un nom et une description pour la stratgie de stockage.

VMware, Inc.

215

Stockage vSphere

Dans l'cran Ensemble de rgles 1, dfinissez le premier ensemble de rgles.


a

Slectionnez un fournisseur de stockage dans la zone droulante Rgles bases sur des capacits
fournisseur spcifiques.
La page se dveloppe et affiche les capacits de stockage dfinies par le systme.

Ajoutez une capacit et indiquez sa valeur.


Veillez ce que les valeurs que vous indiquez correspondent la plage de valeurs annonces par le
profil de capacit du systme de stockage.

(Facultatif) Ajoutez des capacits dfinies par l'utilisateur. Reportez-vous la section Ajouter des
rgles bases sur des balises , page 216.

(Facultatif) Ajoutez un autre ensemble de rgles.

Passez en revue la liste des banques de donnes conformes cette stratgie.


Pour tre admissible, une banque de donnes ne doit pas ncessairement tre conforme tous les
ensembles de rgles qui constituent la stratgie. Elle doit tre conforme au moins un ensemble de
rgles et l'intgralit des rgles de cet ensemble.

Confirmez l'exactitude des informations de la stratgie, puis cliquez sur [Terminer] .

La nouvelle stratgie de stockage apparat dans la liste des stratgies de stockage disponibles.
Suivant
Appliquez la stratgie au fichier de base d'une machine virtuelle et ses disques virtuels.

Ajouter des rgles bases sur des balises


Lorsque vous dfinissez ou modifiez une rgle de stockage pour des machines virtuelles, vous pouvez crer
une rgle faisant rfrence des balises que vous utilisez pour des banques de donnes particulires. Les
banques de donnes deviennent compatibles avec ce type de rgle de stockage.
Lorsque vous utilisez des balises dans les rgles, procdez comme suit :
n

Si l'ensemble de rgles contient d'autres rgles, la banque de donnes associe la balise attribue doit
rpondre toutes les rgles dans l'ensemble de rgles.

Si vous ajoutez plusieurs balises de la mme catgorie dans la mme rgle, les balises sont cres en tant
que contraintes alternatives. Une seule de ces balises, quelle qu'elle soit doit tre satisfaite.

Si vous ajoutez les balises dans des rgles distinctes comprises dans le mme ensemble de rgles, toutes
les balises doivent tre satisfaites.

Prrequis
Crez des balises de stockage et appliquez-les des banques de donnes. Reportez-vous la section
Affecter des balises des banques de donnes , page 212.
Procdure
1

Dans la page Ensemble de rgles, cliquez sur le bouton [Ajouter une rgle base sur des balises] .

Slectionnez une catgorie dans le menu droulant [Catgories] .

Slectionnez une ou plusieurs balises dans la liste de balises.

Les banques de donnes qui utilisent les balises que vous slectionnez deviennent compatibles avec la rgle
de stockage.

216

VMware, Inc.

Chapitre 20 propos des rgles de stockage de machine virtuelle

Modifier une rgle de stockage


Vous pouvez modifier les besoins en stockage des machines et disques virtuels en modifiant les rgles de
stockage.
Procdure
1

Dans la page d'accueil de vSphere Web Client, cliquez sur [Rgles et profils] > [Rgles de stockage
VM] .

Slectionnez une rgle de stockage, puis cliquez sur l'icne [Modifier une rgle de stockage VM] ( ).

Modifiez la rgle et cliquez sur [OK] .

Si la rgle de stockage est utilise par une machine virtuelle, appliquez de nouveau la rgle la machine
virtuelle.
Option

Description

Plus tard manuellement

Si vous choisissez cette option, l'tat de conformit de l'ensemble des


disques virtuels et des objets de base des machines virtuelles associs la
rgle de stockage passe Prim. Pour mettre jour la configuration et
l'tat de conformit, appliquez de nouveau manuellement la rgle de
stockage toutes les entits associes. Reportez-vous la section
Rappliquer une rgle de stockage de machine virtuelle , page 220.

Maintenant

Pour mettre jour la machine virtuelle et l'tat de conformit


immdiatement aprs avoir modifi la rgle de stockage.

La rgle de stockage est modifie.

Supprimer une rgle de stockage de machine virtuelle


Vous pouvez supprimer une rgle de stockage si vous ne l'utilisez avec aucune machine virtuelle ou aucun
disque virtuel.
Procdure
1

Dans la page d'accueil de vSphere Web Client, cliquez sur [Rgles et profils] > [Rgles de stockage
VM] .

Dans la vue Rgles de stockage VM, slectionnez une rgle que vous souhaitez supprimer, puis cliquez
sur l'icne [Supprimer une rgle de stockage VM] ( ).

Cliquez sur [Yes] .

La rgle est supprime de l'inventaire.

Appliquer une rgle de stockage une machine virtuelle


Vous pouvez appliquer une rgle de stockage une machine virtuelle pour spcifier les besoins en stockage
des applications qui s'excutent sur la machine virtuelle.
Vous pouvez appliquer une rgle une machine virtuelle hors tension ou sous tension.
Procdure
1

Dans Client Web vSphere, accdez la machine virtuelle.

Cliquez sur l'onglet [Grer] , puis sur [Rgles de stockage VM] .

Cliquez sur [Grer les rgles de stockage VM] .

VMware, Inc.

217

Stockage vSphere

Appliquez la rgle de stockage aux fichiers de configuration de la machine virtuelle en slectionnant la


rgle dans le menu droulant [Rgle de stockage VM principale] .
REMARQUE Les fichiers de configuration de machine virtuelle incluent .vmx, .vmsd, .nvram, etc.

Appliquez la rgle de stockage aux disques virtuels.


n

Cliquez sur [Appliquer sur les disques] pour appliquer la mme rgle principale tous les disques
virtuels.

Sous Rgles de stockage VM des disques virtuels, slectionnez un disque virtuel et appliquez une
rgle dans le menu droulant [Rgle de stockage VM] . Cette option associe chaque disque virtuel
une rgle spcifie. Utilisez cette option si vous stockez vos disques virtuels sparment des
fichiers de configuration de la machine virtuelle.

Cliquez sur [OK] .

La rgle de stockage est attribue la machine virtuelle et ses disques.

Contrler la conformit du stockage des machines virtuelles


Lorsque vous associez une rgle des objets de machines virtuelles et que vous slectionnez les banques de
donnes sur lesquelles les machines virtuelles et les disques virtuels s'excutent, vous pouvez vrifier si ces
machines virtuelles et ces disques virtuels utilisent des banques de donnes conformes la rgle.
Si vous vrifiez la conformit d'une machine virtuelle dont les rgles de stockage de machine virtuelle de
l'hte ou du cluster sont dsactives, le rsultat de la vrification sera Non conforme , car la fonction est
dsactive.
Prrequis
Pour effectuer une vrification de la conformit d'une rgle de stockage, associez la rgle au moins une
machine virtuelle ou un disque virtuel.
Procdure
1

Dans la page d'accueil de vSphere Web Client, cliquez sur [Rgles et profils] > [Rgles de stockage
VM] .

Double-cliquez sur une rgle de stockage.

Cliquez sur l'onglet [Surveiller] , puis sur [VM et disques virtuels] .

Cliquez sur [Dclencher la vrification de la conformit de la rgle de stockage VM] .


L'tat de conformit de stockage des machines virtuelles et de leurs rgles s'affiche dans la colonne
Statut de conformit.
tat de
conformit

218

Description

Conforme

La banque de donnes qu'utilise la machine virtuelle ou le disque virtuel dispose des capacits
de stockage imposes par la rgle.

Non conforme

La banque de donnes qu'utilise la machine virtuelle ou le disque virtuel ne dispose pas des
capacits de stockage imposes par la rgle. Vous pouvez migrer les fichiers de la machine
virtuelle et ses disques virtuels vers des banques de donnes conformes.

Prim

Cet tat indique que la rgle a t modifie, mais que les nouvelles exigences n'ont pas t
communiques la banque de donnes dans laquelle se trouvent les objets de la machine
virtuelle. Pour communiquer les modifications, rappliquez- la rgle aux objets dont l'tat est
Prim.

Non applicable

Cette rgle de stockage fait rfrence aux capacits de banque de donnes qui ne sont pas prises
en charge par la banque de donnes dans laquelle se trouve la machine virtuelle.

VMware, Inc.

Chapitre 20 propos des rgles de stockage de machine virtuelle

Suivant
Si l'tat est Non conforme, vous pouvez migrer les fichiers ou les disques virtuels vers une banque de
donnes conforme. Reportez-vous la section Rechercher une ressource de stockage compatible pour une
machine virtuelle non conforme , page 220.
Si l'tat est Prim, appliquez de nouveau la rgle aux objets. Reportez-vous la section Rappliquer une
rgle de stockage de machine virtuelle , page 220.

Vrifier la conformit de stockage d'une machine virtuelle


Vous pouvez vrifier si une machine virtuelle utilise une banque de donnes compatible.
Prrequis
Assurez-vous que la machine virtuelle dispose d'une rgle de stockage qui lui est associe.
Procdure
1

Dans Client Web vSphere, accdez la machine virtuelle.

Dans le menu contextuel, slectionnez [Toutes les actions vCenter] > [Rgles de stockage VM] >
[Vrifier la conformit de la rgle de stockage VM] .
Le systme vrifie la conformit.

Cliquez sur l'onglet [Rsum] de la machine virtuelle.

Affichez l'tat de conformit dans le volet Rgles de stockage VM.


tat de
conformit

Description

Conforme

La banque de donnes qu'utilise la machine virtuelle ou le disque virtuel dispose des capacits
de stockage imposes par la rgle.

Non conforme

La banque de donnes qu'utilise la machine virtuelle ou le disque virtuel ne dispose pas des
capacits de stockage imposes par la rgle. Vous pouvez migrer les fichiers de la machine
virtuelle et ses disques virtuels vers des banques de donnes conformes.

Prim

Cet tat indique que la rgle a t modifie, mais que les nouvelles exigences n'ont pas t
communiques la banque de donnes dans laquelle se trouvent les objets de la machine
virtuelle. Pour communiquer les modifications, rappliquez- la rgle aux objets dont l'tat est
Prim.

Non applicable

Cette rgle de stockage fait rfrence aux capacits de banque de donnes qui ne sont pas prises
en charge par la banque de donnes dans laquelle se trouve la machine virtuelle.

Suivant
Si l'tat est Non conforme, vous pouvez migrer les fichiers ou les disques virtuels vers une banque de
donnes conforme. Reportez-vous la section Rechercher une ressource de stockage compatible pour une
machine virtuelle non conforme , page 220.
Si l'tat est Prim, appliquez de nouveau la rgle aux objets. Reportez-vous la section Rappliquer une
rgle de stockage de machine virtuelle , page 220.

VMware, Inc.

219

Stockage vSphere

Rechercher une ressource de stockage compatible pour une machine virtuelle


non conforme
Dterminez la banque de donnes compatible avec la stratgie de stockage associe votre machine
virtuelle.
Il peut arriver que l'tat de la stratgie de stockage applique une machine virtuelle soit non conforme. Cet
tat indique que la machine virtuelle ou ses disques utilisent des banques de donnes qui sont incompatibles
avec la stratgie. Vous pouvez migrer les fichiers de la machine virtuelle et ses disques virtuels vers des
banques de donnes compatibles.
Utilisez cette procdure pour dterminer les banques de donnes conformes la stratgie.
Prrequis
Vrifiez que le champ [Conformit de la rgle de stockage VM] , dans l'onglet [Rsum] de la machine
virtuelle, affiche l'tat Non conforme.
Procdure
1

Dans Client Web vSphere, accdez la machine virtuelle.

Cliquez sur l'onglet [Rsum] .


Le champ Conformit de la rgle de stockage VM, dans le volet Rgles de stockage VM, affiche l'tat
Non conforme.

Cliquez sur le lien de la stratgie dans le champ [Rgles de stockage VM] .

Cliquez sur l'onglet [Surveiller] , puis sur [VM et disques virtuels] pour dterminer les fichiers de
machine virtuelle non conformes

Cliquez sur [Ressources correspondantes] .


La liste des banques de donnes conformes la stratgie s'affiche.

Suivant
Vous pouvez migrer la machine virtuelle ou ses disques vers l'une des banques de donnes de la liste.

Rappliquer une rgle de stockage de machine virtuelle


Aprs avoir modifi une rgle de stockage dj associe un objet de machine virtuelle, vous devez
rappliquer la rgle. En rappliquant la rgle, vous communiquez les nouveaux besoins en stockage la
banque de donnes dans laquelle se trouve l'objet de machine virtuelle.
Prrequis
L'tat de conformit d'une machine virtuelle est Prim. L'tat indique que la rgle a t modifie, mais que
les nouvelles exigences n'ont pas t communiques la banque de donnes.
Procdure

220

Dans Client Web vSphere, accdez la machine virtuelle.

Cliquez sur l'onglet [Grer] , puis sur [Rgles de stockage VM] .

Vrifiez que l'tat de conformit indique Prim.

Cliquez sur l'icne [Appliquer de nouveau la rgle de stockage VM] .

VMware, Inc.

Chapitre 20 propos des rgles de stockage de machine virtuelle

L'tat de conformit passe Conforme. Si l'tat passe Non conforme, vous pouvez migrer les fichiers ou
les disques virtuels vers une banque de donnes compatible. Pour trouver une banque de donnes
compatible, consultez la section Rechercher une ressource de stockage compatible pour une machine
virtuelle non conforme , page 220.

VMware, Inc.

221

Stockage vSphere

222

VMware, Inc.

propos du cache de lecture Flash


de VMware vSphere

21

Flash Read Cache vous permet d'acclrer les performances des machines virtuelles grce l'utilisation
des priphriques Flash rsidant sur les htes en tant que cache.
Vous pouvez rserver un cache de lecture Flash pour n'importe quel disque virtuel individuel. Le cache de
lecture Flash est cr uniquement lors de la mise sous tension d'une machine virtuelle. Il est ignor
lorsqu'une machine virtuelle est interrompue ou hors tension. Lorsque vous migrez une machine virtuelle,
vous avez la possibilit de migrer le cache. Par dfaut, le cache est migr si le module Flash virtuel de l'hte
source est compatible avec celui de l'hte de destination. Si vous ne migrez pas le cache, celui-ci est rutilis
sur l'hte de destination. Vous pouvez modifier la taille du cache lorsqu'une machine virtuelle est sous
tension. Dans ce cas, le cache existant est ignor et un nouveau cache criture immdiate est cr, ce qui
entrane une priode d'chauffement du cache. L'avantage de la cration d'un nouveau cache est que sa
taille peut mieux correspondre aux donnes actives de l'application.
Le cache de lecture Flash prend en charge la mise en cache de donnes d'criture immdiate ou de lecture. Il
ne prend pas en charge la mise en cache de donnes d'criture diffre ou d'criture. Les lectures de donnes
sont effectues partir du cache, s'il est prsent. Les critures de donnes sont envoyes au stockage de
sauvegarde, tel que SAN ou NAS. Toutes les donnes lues partir du stockage de sauvegarde ou crites
dans celui-ci sont stockes sans rserve dans le cache.
REMARQUE Toutes les charges de travail ne bnficient pas d'un cache de lecture Flash. Le gain de
performance dpend du schma de votre charge de travail et de la taille de l'ensemble de travail. Les
charges de travail impliquant de nombreuses oprations de lecture et qui comportent des ensembles de
travail adapts au cache peuvent bnficier d'une configuration de cache de lecture Flash. Lorsque vous
configurez le cache de lecture Flash pour vos charges de travail impliquant de nombreuses oprations de
lecture, des ressources d'E/S supplmentaires deviennent disponibles sur votre stockage partag, ce qui peut
entraner une amlioration des performances pour d'autres charges de travail, mme si elles ne sont pas
configures pour utiliser le cache de lecture Flash.
Ce chapitre aborde les rubriques suivantes :
n

Prise en charge du cache de lecture Flash par DRS , page 224

Prise en charge du cache de lecture Flash par vSphere High Availability , page 224

Utilisation d'une ressource de Flash virtuel pour configurer un cache d'change , page 224

Limites de volume de Virtual Flash , page 224

Configurer une ressource Virtual Flash , page 225

Configurer plusieurs ressources de Flash virtuel , page 225

Configurer le cache d'change d'hte avec des ressources Virtual Flash , page 226

Configurer Flash Read Cache pour une machine virtuelle , page 226

VMware, Inc.

223

Stockage vSphere

Supprimer une ressource de Flash virtuel , page 227

Migration de machines virtuelles avec Flash Read Cache , page 227

Les disques SSD locaux ne sont pas disponibles pour tre utiliss avec Virtual Flash , page 228

Utilisation des commandes esxcli avec Virtual Flash , page 228

Prise en charge du cache de lecture Flash par DRS


DRS prend en charge Virtual Flash en tant que ressource.
DRS gre les machines virtuelles avec des rservations de cache de lecture Flash. Chaque fois que DRS
s'excute, il affiche la capacit Virtual Flash disponible signale par l'hte ESXi. Chaque hte prend en
charge une ressource Virtual Flash. DRS slectionne un hte disposant d'une capacit Virtual Flash
disponible suffisante pour dmarrer une machine virtuelle. DRS traite les machines virtuelles sous tension
disposant d'un cache de lecture Flash comme ayant une affinit logicielle avec leur hte actuel et les dplace
seulement lorsque cela s'avre obligatoire ou si c'est ncessaire pour corriger une surutilisation de l'hte.

Prise en charge du cache de lecture Flash par vSphere High


Availability
Le cache de lecture Flash est pris en charge par High Availability (HA).
Lorsque vSphere HA redmarre une machine virtuelle configure avec le cache de lecture Flash, la machine
virtuelle est redmarre sur un hte dans le cluster dans lequel les rservations de cache de lecture Flash, de
CPU, de mmoire et de mmoire supplmentaire sont effectues. vSphere HA ne redmarre pas une
machine virtuelle si le Flash non rserv est insuffisant pour rpondre la rservation Virtual Flash. Vous
devez manuellement reconfigurer une machine virtuelle pour rduire ou supprimer le cache de lecture
Flash, si l'hte cible ne dispose pas de ressources Virtual Flash suffisantes.

Utilisation d'une ressource de Flash virtuel pour configurer un cache


d'change
Vous pouvez utiliser une ressource Virtual Flash sur un hte ESXi pour configurer un cache d'change.
L'allocation du cache d'change de l'hte est prleve sur une partie de la ressource Virtual Flash.
Vous pouvez virtualiser des priphriques Flash sur un hte pour utiliser une ressource de Flash virtuel sur
cet hte, quel que soit le type de priphrique Flash. Le Flash virtuel n'impose pas que chaque hte dans le
cluster dispose d'une ressource Flash, mais seuls les htes disposant de priphriques Flash peuvent inclure
des priphriques de cache configurs. Vous pouvez utiliser Virtual Flash avec des solutions VMware
existantes, telles que vMotion, DRS et HA.
Vous pouvez configurer vSphere pour activer l'change des htes ESXi sur disque SSD (Solid-State Disk). En
mode d'utilisation de mmoire leve, l'change des htes est utilis pour rclamer de la mmoire aux
machines virtuelles. vSphere slectionne de manire alatoire les pages physiques des machines virtuelles
changer, compresse la mmoire des pages des machines virtuelles cibles par ESXi pour tre changes et
vous permet de configurer un cache d'change sur le disque SSD.

Limites de volume de Virtual Flash


Les limites de volume Virtual Flash suivantes sont prises en charge.
Tableau 211. Limites de volume de Virtual Flash

224

Ressource

Limite

volumes Virtual Flash par hte

1 (local seulement)

SSD par volume Virtual Flash

8 ou moins

VMware, Inc.

Chapitre 21 propos du cache de lecture Flash de VMware vSphere

Tableau 211. Limites de volume de Virtual Flash (suite)


Ressource

Limite

Taille du disque SSD

4 To ou moins

taille de Virtual Flash

32 To ou moins

Configurer une ressource Virtual Flash


Vous pouvez configurer une ressource Virtual Flash ou ajouter de la capacit une ressource Virtual Flash
existante.
Pour configurer une ressource Virtual Flash, vous utilisez un SSD connect votre hte. Pour augmenter la
capacit de votre ressource Virtual Flash, vous pouvez ajouter un maximum de huit disques SSD
supplmentaires. Un disque SSD individuel doit tre exclusivement allou une ressource Virtual Flash et
ne peut pas tre partag avec un autre service vSphere, par exemple le rseau SAN virtuel.
Procdure
1

Dans Client Web vSphere, accdez l'hte.

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

Sous Virtual Flash, slectionnez [Gestion des ressources Virtual Flash] et cliquez sur [Ajouter de la
capacit] .

Dans la liste des disques SSD disponibles, slectionnez un ou plusieurs disques SSD utiliser pour la
ressource Virtual Flash et cliquez sur [OK] .

La ressource Virtual Flash est cre. La zone Sauvegarde d'un priphrique rpertorie tous les disques SSD
que vous utilisez pour la ressource Virtual Flash.
Suivant
Vous pouvez utiliser la ressource Virtual Flash pour la configuration du cache sur l'hte et la configuration
du cache de lecture Flash sur des disques virtuels. Vous pouvez augmenter la capacit en ajoutant d'autres
disques SSD la ressource de Virtual Flash.

Configurer plusieurs ressources de Flash virtuel


Vous pouvez configurer plusieurs ressources Virtual Flash l'aide d'une configuration de lot.
Configurez simultanment plusieurs ressources de Flash virtuel ou augmentez la capacit de ressource de
Flash virtuel sur les htes dj configurs avec une ressource de Flash virtuel.
Prrequis
Vrifiez que les htes sont configurs avec ESXi 5.5 ou une version ultrieure et disposent de disques SSD
ligibles afin que les htes puissent apparatre dans la liste Ajouter de la capacit Virtual Flash.
Procdure
1

Dans Client Web vSphere, accdez l'hte.

Cliquez avec le bouton droit sur l'hte et slectionnez [Toutes les actions vCenter] > [Ajouter de la
capacit Virtual Flash] .

Slectionnez un ou plusieurs disques SSD.


Les disques SSD slectionns sont formats afin que la ressource de Flash virtuel puisse les utiliser.
Toutes les donnes sur les disques sont effaces.

VMware, Inc.

Cliquez sur [OK] .

225

Stockage vSphere

Plusieurs ressources Virtual Flash sont cres.

Configurer le cache d'change d'hte avec des ressources Virtual


Flash
Vous pouvez rserver un certain nombre de ressources Virtual Flash pour permuter vers le cache de l'hte.
Pour plus d'informations, reportez-vous Permutation vers le cache de l'hte , page 183.
Prrequis
Configurez une ressource Virtual Flash.
Procdure
1

Dans Client Web vSphere, accdez l'hte.

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

Sous Virtual Flash, slectionnez [Configuration du cache d'change d'hte de Virtual Flash] et cliquez
sur [Modifier] .

Cochez la case [Activer le cache d'change d'hte de Virtual Flash] .

Spcifiez le nombre de ressources Virtual Flash rserver pour permuter vers le cache de l'hte.

Cliquez sur [OK] .

Configurer Flash Read Cache pour une machine virtuelle


Vous pouvez configurer le cache de lecture Flash pour une machine virtuelle compatible disposant d'
ESXi 5.5 ou version ultrieure.
L'activation du cache de lecture Flash vous permet de spcifier la taille de bloc et la rservation de la taille
du cache.
La taille de bloc correspond au nombre minimal d'octets contigus pouvant tre stocks dans le cache. Cette
taille de bloc peut tre suprieure la taille de bloc de disque nominale de 512 octets, comprise entre 4 Ko et
1 024 Ko. Si un systme d'exploitation invit crit un bloc de disque de 512 octets, les octets de la taille de
bloc du cache englobant seront mis en cache. Il ne faut pas confondre taille de bloc du cache et taille de bloc
du disque.
La rservation est la taille de rservation des blocs du cache. Le nombre minimal de blocs du cache est de
256. Si la taille de bloc du cache est de 1 Mo, la taille minimale du cache est de 256 Mo. Si la taille de bloc du
cache est de 4 Ko, la taille minimale du cache est de 1 Mo.
Pour obtenir plus d'informations sur les instructions de dimensionnement, recherchez le livre blanc
concernant les performances du cache de lecture Flash de vSphere dans VMware vSphere 5.5 sur le site Web de
VMware.
Prrequis
Vrifiez que la machine virtuelle est compatible avec ESXi 5.5 ou version ultrieure.
Procdure

226

Pour retrouver une machine virtuelle, slectionnez un centre de donnes, un dossier, un cluster, un
pool de ressources, un hte ou un vApp.

Cliquez sur l'onglet [Objets associs] puis cliquez sur [Machines virtuelles.]

Cliquez avec le bouton droit sur la machine virtuelle et slectionnez [Modifier les paramtres] .

Sous l'onglet [Matriel virtuel,] dveloppez [le disque dur] pour afficher les options du disque.

VMware, Inc.

Chapitre 21 propos du cache de lecture Flash de VMware vSphere

Pour activer le cache de lecture Flash pour la machine virtuelle, entrez une valeur dans la zone de texte
[Virtual Flash Read Cache] .

Cliquez sur [Avanc] pour spcifier les paramtres suivants.

Option

Description

Rservation

Slectionnez une rservation de taille de cache.

Taille du bloc

Slectionnez une taille de bloc.

Cliquez sur [OK] .

Supprimer une ressource de Flash virtuel


Vous devrez ventuellement supprimer une ressource de Flash virtuel sur un disque SSD local pour utiliser
le priphrique pour une autre ressource, par exemple le rseau SAN virtuel.
Vous ne pouvez pas supprimer une ressource de Flash virtuel si elle est configure avec un cache d'change
des htes ou si l'hte dispose de machines virtuelles configures avec un cache de lecture Flash et qui sont
sous tension.
Procdure
1

Dans Client Web vSphere, accdez l'hte sur lequel Virtual Flash est configur.

Cliquez sur l'onglet [Grer] puis sur [Paramtres] .

Sous Virtual Flash, slectionnez [Gestion des ressources Virtual Flash] et cliquez sur [Supprimer
tout] .
Une fois que vous avez supprim la ressource de Flash virtuel et effac le contenu du disque SSD, ce
dernier est disponible pour d'autres oprations.

Migration de machines virtuelles avec Flash Read Cache


Vous pouvez migrer des machines virtuelles avec Flash Read Cache.
Procdure
1

Cliquez avec le bouton droit de la souris sur la machine virtuelle et slectionnez [Migrer]

Slectionnez [Changer l'hte] .

Slectionnez l'hte de destination.

Sous [Slectionner les paramtres de Flash Read Cache] , slectionnez [Toujours migrer Flash Read
Cache] .

VMware, Inc.

Paramtres de
migration du cache de
lecture Flash

Description

Automatique

La migration du cache de lecture Flash est effectue, si cela est possible.

Migrer

La migration s'effectue uniquement si le cache de lecture Flash peut tre migr vers la
destination. Cette option est utile lorsque la taille du cache est peu volumineuse ou trs
semblable celle des donnes actives de l'application.

Ignorer

Le cache de lecture Flash est ignor et n'est pas migr. Cette option est utile lorsque la
taille du cache est volumineuse ou suprieure celle des donnes actives de
l'application.

Cliquez sur Terminer.

227

Stockage vSphere

Les disques SSD locaux ne sont pas disponibles pour tre utiliss
avec Virtual Flash
Lorsqu'un disque SSD local est utilis dans le rseau SAN virtuel ou format avec VMFS, il n'est plus
disponible dans Virtual Flash.
Problme
Un disque SSD local ne figure pas dans la liste des disques utiliss par Virtual Flash.
Cause
Ce problme se produit lorsque vous formatez un disque SSD local avec VMFS ou que vous l'utilisez pour le
rseau SAN virtuel. Virtual Flash et le rseau SAN virtuel ne peuvent pas consommer des disques SSD
simultanment et configurent ces derniers de faon diffrente. Virtual Flash et le rseau SAN virtuel ne
peuvent pas partager le mme disque SSD. Virtual Flash ne peut pas partager le disque SSD avec d'autres
systmes de fichiers, notamment VMFS.
Solution
Utilisez uniquement des disques SSD formats pour Virtual Flash.
n

vitez de formater le disque SSD avec VMFS pendant l'installation d'ESXi ou avec Auto Deploy.
Reportez-vous la section Empcher le formatage du SSD lors du partitionnement automatique ,
page 184.

Si le disque SSD que vous envisagez d'utiliser avec Virtual Flash est format avec VMFS, supprimez la
banque de donnes VMFS. Reportez-vous la section Supprimer des banques de donnes VMFS dans
Client Web vSphere , page 158.

Pour utiliser le disque SSD comme ressource Virtual Flash, ne rclamez pas ce disque pour le rseau
SAN virtuel. Si le disque SSD est rclam par le rseau SAN virtuel, supprimez le groupe de disques
qui l'utilise. Le disque SSD est libr par le rseau SAN virtuel et devient disponible dans la liste des
disques utiliser avec le Virtual Flash. Reportez-vous la section Supprimer des disques du rseau
SAN virtuel , page 200.

Il est possible qu'un disque SSD local ne soit pas disponible car ESXi ne le reconnat pas. Reportez-vous la
section Impossible de dtecter les SSD locaux , page 185

Utilisation des commandes esxcli avec Virtual Flash


Utilisez les commandes esxcli pour obtenir des informations sur Virtual Flash et dpanner votre
environnement.
Les commandes suivantes sont disponibles.
Commande

Options

esxcli storage vflash

Description
Oprations de gestion de Virtual Flash sur le systme.

cache

Oprations de gestion du cache de lecture Flash.

module

Oprations de gestion du module Virtual Flash.

priphrique

Oprations de gestion de priphriques SSD Virtual Flash.

get

Obtenir des informations sur le module Virtual Flash.

liste

Rpertorier les modules Virtual Flash.

esxcli storage vflash


module

esxcli storage vflash cache

228

VMware, Inc.

Chapitre 21 propos du cache de lecture Flash de VMware vSphere

Commande

Options

Description

get

Obtenir des informations sur un cache de lecture Flash


individuel.

liste

Rpertorier les caches de lecture Flash individuels.

get

Obtenir des statistiques sur le cache de lecture Flash.

rinitialiser

Rinitialiser les statistiques du cache de lecture Flash.

esxcli storage vflash cache


stats

esxcli storage vflash


device list

Rpertorie tous les priphriques SSD pour Virtual Flash.


-e|--eligible [true | false]

Rpertorie les priphriques SSD compatibles et incompatibles


avec Virtual Flash.

-u|--used [true | false]

Rpertorie les priphriques SSD utiliss et non utiliss avec


Virtual Flash.

L'exemple suivant prsente les informations obtenues lors de l'utilisation de la commande [vflash device
list] .
~ # esxcli storage vflash device list
Name
Size Is Local
-------------------- ------ -------naa.5001e82002600000 190782
true
naa.5001e82002611111 190782
false
naa.5001e82002622222 190782
false
naa.5001e82002633333 190782
true

VMware, Inc.

Is Used in vFlash
----------------true
false
false
false

Eligibility
---------------------------N/A
Detected as a remote SAS SSD
Detected as a remote SAS SSD
Yes, this is a blank disk.

229

Stockage vSphere

230

VMware, Inc.

VMkernel et Stockage

22

Le VMkernel est un systme d'exploitation hautes performances qui s'excute directement sur l'hte ESXi.
VMkernel gre la plupart des ressources physiques sur le matriel, y compris la mmoire, les processeurs
physiques, le stockage et les contrleurs de rseau.
Pour grer le stockage, VMkernel comporte un sous-systme de stockage qui prend en charge plusieurs
HBA (Host Bus Adapters) y compris SCSI parallle, SAS, Fibre Channel, FCoE et iSCSI. Ces HBA permettent
de connecter une grande diversit de baies de stockage actives-actives, actives-passives et ALUA qui sont
certifies pour une utilisation avec le VMkernel. Consultez le vSphere Compatibility Guide pour obtenir la liste
des HBA pris en charge et des baies de stockage.
Le systme de fichiers principal que VMkernel utilise est le VMFS (Virtual Machine File System) de
VMware. VMFS est un systme de fichiers cluster conu et optimis pour prendre en charge des fichiers
volumineux tels que les disques virtuels et les fichiers d'change. Le VMkernel prend galement en charge le
stockage des disques virtuels sur les systmes de fichiers NFS.
Le chemin E/S de stockage permet aux machines virtuelles d'accder aux priphriques de stockage par
l'mulation de priphriques. Cette mulation de priphriques permet une machine virtuelle d'accder
aux fichiers sur un systme de fichiers VMFS ou NFS comme s'ils taient des priphriques SCSI. Le
VMkernel offre des fonctions de virtualisation de stockage telles que la planification des requtes E/S depuis
de multiples machines virtuelles et le gestion multivoie.
En outre, VMkernel offre plusieurs API de stockage qui permettent aux partenaires de stockage d'intgrer et
d'optimiser leurs produits pour vSphere.
Le graphique suivant illustre les bases du noyau VMkernel, avec une attention particulire la pile de
stockage. Les modules de stockage rsident entre le planificateur E/S du priphrique logique et les couches
du planificateur E/S de l'adaptateur.

VMware, Inc.

231

Stockage vSphere

Figure 221. VMkernel et Stockage


machine virtuelle

machine virtuelle
SE invit

SE invit

mulation SCSI HBA

mulation SCSI HBA

VMkernel
disque
brut

RDM de mode
compatibilit
physique

mulation de commande SCSI


RDM de mode
virtuel

VMDK
rgulier

snapshot

commutateur de systme de fichiers

configuration

NFS

VMFS

priphriques de traitement par blocs


disque

LVM

planificateur E/S du priphrique logique


API de stockage
statistiques
analyse

API de stockage pour intgration de baie


Stockage API pour gestion des chemins multiples
(architecture de stockage enfichable)

planificateur E/S de l'adaptateur

mulation Linux

pilote FC

pilote FCoE

pilote
pilote iSCSI
iSCSI

Pilote
pilote iSCSI
SCSI

pilote de
pilote iSCSI
blocs

pilote
piloteiSCSI
IDE

API de stockage
Les API de stockage reprsentent une famille d'API utilise par des fournisseurs tiers de matriels, de
logiciels et de stockage pour dvelopper des composants qui amliorent plusieurs fonctionnalits et
solutions de vSphere.
Cette publication dcrit les ensembles suivants d'API de stockage et explique comment ils participent
votre environnement de stockage. Pour plus d'informations sur les autres API de cette famille, y compris les
API de stockage - API de protection des donnes et de stockage - Gestionnaire de rcupration de site,
consultez le site Web de VMware.
n

232

API de stockage - Gestion multivoie, connu galement sous le nom de PSA (Pluggable Storage
Architecture). PSA est un ensemble d'API de VMkernel qui permet aux partenaires de stockage
d'activer leurs baies et de certifier qu'elles sont asynchrones aux planifications de sortie ESXi, tout en
fournissant des comportements d'quilibre de charge et gestion multivoie amliorant les performances
qui sont optimises pour chaque baie. Pour plus d'informations, voir Gestion des chemins multiples ,
page 240.

VMware, Inc.

Chapitre 22 VMkernel et Stockage

VMware, Inc.

Les API de stockage - Intgration de baie, connue autrefois sous le nom de VAAI, incluent les API
suivantes :
n

API d'acclration matrielle. Permet aux baies de s'intgrer vSphere pour dcharger de manire
transparente certaines oprations de stockage la baie. Cette intgration rduit considrablement
la surcharge de l'UC sur l'hte. Reportez-vous la section Chapitre 24, Acclration matrielle du
stockage , page 257.

API provisionnement dynamique de la baie. Permet de surveiller l'utilisation de l'espace sur les
baies de stockage provisionnement dynamique pour empcher des conditions de manque
d'espace et pour effectuer une rclamation d'espace. Reportez-vous la section Allocation
dynamique des baies et banques de donnes VMFS , page 273.

API de stockage - Storage Awareness. Ces API bases sur serveur de vCenter permettent aux baies de
stockage d'informer le vCenter Server de leurs configurations, de leurs capacits, ainsi que du bon
fonctionnement du stockage et des vnements. Reportez-vous la section Chapitre 26, Utilisation de
fournisseurs de stockage , page 277.

233

Stockage vSphere

234

VMware, Inc.

Prsentation de la gestion gestion


multivoie et du basculement

23

Pour assurer une connexion constante entre un hte et son stockage, ESXiprend en charge le chemins
multiples. Le chemins multiples est une technique permettant d'utiliser plusieurs chemins d'accs physique
pour transfrer des donnes entre l'hte et un priphrique de stockage externe.
En cas de dfaillance d'un lment sur le rseau SAN, tel qu'un adaptateur, un commutateur ou un cble,
ESXi peut basculer vers un autre chemin d'accs physique, qui n'utilise pas le composant dfaillant. Ce
processus de basculement du chemin afin d'viter des composants dfaillants est connu sous le nom de
basculement de chemin.
En plus du basculement de chemin, le chemins multiples permet d'quilibrer les charges. L'quilibrage de
charge est le procd qui consiste distribuer les charges E/S sur diffrents chemins d'accs physiques.
L'quilibrage de charge rduit, voire supprime, les goulots d'tranglement potentiels.
REMARQUE Les E/S d'une machine virtuelle peuvent tre retards de soixante secondes maximum lors du
basculement de chemin. Ces dlais permettent au SAN de stabiliser sa configuration aprs les modifications
de topologie. En gnral, les dlais d'E/S peuvent s'avrer plus longs sur les baies actives/passives et plus
courts sur les baies actives/actives.
Ce chapitre aborde les rubriques suivantes :
n

Basculement avec Fibre Channel , page 236

Basculement bas sur hte avec iSCSI , page 236

Basculement base de baie avec iSCSI , page 238

Basculement de chemin et machines virtuelles , page 239

Gestion des chemins multiples , page 240

Module de gestion multivoie de VMware , page 241

Analyse et rclamation des chemins , page 243

Gestion des chemins de stockage et des plug-ins gestion multivoie , page 247

VMware, Inc.

235

Stockage vSphere

Basculement avec Fibre Channel


Afin de prendre en charger le gestion multivoie, de faon classique votre hte dispose de deux ou plusieurs
HBA disponibles. Cette configuration complte la configuration gestion multivoie SAN, qui fournit
gnralement un ou plusieurs commutateurs dans la production SAN et un ou plusieurs processeurs de
stockage sur la baie de stockage elle-mme.
Dans l'illustration suivante, les chemins multiples physiques connectent chaque serveur au priphrique de
stockage. Par exemple, si HBA1 ou le lien entre HBA1 et le commutateur FC tombe en panne, HBA2 reprend
la fonction et fournit la connexion entre le serveur et le commutateur. Le processus de reprise par un HBA
pour un autre est appel basculement HBA.
Figure 231. Gestion multivoie et basculement avec Fibre Channel
Hte 2

Hte 1

HBA2

HBA1

commutateur

HBA3

HBA4

commutateur

SP1

SP2

baie de stockage

De mme, si SP1 tombe en panne ou que les liens entre SP1 et les commutateurs sont briss, SP2 reprend la
fonction et fournit la connexion entre le commutateur et le priphrique de stockage. Ce processus est
appel basculement SP. VMware ESXi prend en charge les basculements HBA et SP, grce ses capacits de
gestion multivoie.

Basculement bas sur hte avec iSCSI


Lors de la configuration de votre hte ESXi pour la gestion de chemins multiples et le basculement, vous
pouvez utiliser de multiples HBA iSCSI ou de multiples cartes NIC en fonction du type d'adaptateurs iSCSI
sur votre hte.
Pour plus d'informations sur diffrents types d'adaptateurs iSCSI, consultez Initiateurs iSCSI , page 71.
Lorsque vous utilisez la gestion de chemins multiples, certaines considrations spcifiques s'appliquent.

236

ESXi ne prend pas en charge la gestion de chemins multiples lorsque vous combinez des adaptateurs de
matriel indpendant des adaptateurs logiciels ou de matriel dpendant dans le mme hte.

La gestion des chemins multiples entre les adaptateurs logiciels et dpendants dans le mme hte est
prise en charge.

VMware, Inc.

Chapitre 23 Prsentation de la gestion gestion multivoie et du basculement

Vous pouvez mlanger les adaptateurs dpendants et indpendants, sur diffrents htes.

L'illustration suivante montre les configurations chemins multiples possibles avec diffrents types
d'initiateurs iSCSI.
Figure 232. Basculement de chemin bas sur hte
iSCSI
matriel

iSCSI
logiciel

hte 1

hte 2
carte
logiciel

HBA2

HBA1

NIC2

NIC1

rseau IP

SP

Stockage iSCSI

Basculement avec iSCSI matriel


Avec le iSCSI matriel, l'hte a gnralement plusieurs adaptateurs iSCSI matriels disponibles partir
desquels le systme de stockage est accessible l'aide d'un ou plusieurs commutateurs. La configuration
peut galement inclure un adaptateur et deux processeurs de stockage afin que l'adaptateur utilise un
chemin diffrent pour atteindre le systme de stockage.
Sur l'illustration du basculement de chemin bas sur hte, Host1 possde deux adaptateurs iSCSI matriels,
HBA1 et HBA2, qui fournissent deux chemins physiques vers le systme de stockage. Les plug-ins de
chemins multiples sur votre hte, qu'il s'agisse d'un NMP VMkernel ou de MPP tiers, ont accs aux chemins
par dfaut et peuvent surveiller la sant de chaque chemin physique. Si, par exemple, le HBA1 ou la liaison
entre le HBA1 et le rseau choue, les plug-ins de chemins multiples peuvent basculer le chemin sur le
HBA2.

Basculement avec iSCSI logiciel


Avec le iSCSI logiciel, comme indiqu sur Hte 2 du basculement de chemin bas sur hte, vous pouvez
utiliser plusieurs cartes NIC qui fournissent des fonctions de basculement et d'quilibrage de charge pour
les connexions iSCSI entre votre hte et les systmes de stockage.
Pour cette configuration, tant donn que les plug-in de chemins multiples n'ont pas un accs direct aux
adaptateurs rseau physiques de votre hte, vous devez tout d'abord connecter chaque carte rseau
physique un port VMkernel distinct. Vous associez ensuite tous les ports VMkernel l'initiateur iSCSI
logiciel l'aide d'une technique de liaison de port. En consquence, chaque port VMkernel connect un
adaptateur d'interface rseau spare devient un chemin diffrent que la pile de stockage iSCSI et ses plugins de chemins multiples prenant en charge le stockage peuvent utiliser.
Pour plus d'informations sur la configuration de chemins multiples pour l'iSCSI logiciel, consultez
Paramtrage du rseau iSCSI , page 85.

VMware, Inc.

237

Stockage vSphere

Basculement base de baie avec iSCSI


Certains systmes de stockage iSCSI grent l'utilisation des chemins de leurs ports de manire automatique
et transparente vers ESXi.
Lorsque vous utilisez l'un de ces systmes de stockage, votre hte ne voit pas plusieurs ports sur le stockage
et ne peut pas choisir le port de stockage auquel se connecter. Ces systmes disposent d'une seule adresse de
port virtuel que votre hte utilise au dpart pour communiquer. Pendant cette communication initiale, le
systme de stockage peut rediriger l'hte pour qu'il communique avec un autre port sur le systme de
stockage. Les initiateurs iSCSI dans l'hte obissent cette demande de reconnexion et se connectent un
autre port sur le systme. Le systme de stockage utilise cette technique pour rpartir la charge sur les
diffrents ports disponibles.
Si l'hte ESXi perd sa connexion l'un de ces ports, il tente automatiquement de se reconnecter au port
virtuel du systme de stockage et doit tre redirig vers un port utilisable actif. Cette reconnexion et
redirection se produit rapidement et n'interrompt gnralement pas l'excution des machines virtuelles. Ces
systmes de stockage peuvent galement demander que les initiateurs iSCSI se reconnectent au systme
pour modifier le port de stockage auquel ils sont connects. Cela permet une utilisation plus efficace des
diffrents ports.
L'illustration Redirection de port montre un exemple de redirection de port. L'hte tente de se connecter au
port virtuel 10.0.0.1. Le systme de stockage redirige cette demande vers 10.0.0.2. L'hte se connecte
10.0.0.2 et utilise ce port pour la communication E/S.
REMARQUE Le systme de stockage ne redirige pas toujours les connexions. Le port 10.0.0.1 peut galement
tre utilis pour le trafic.
Figure 233. Redirection de port
"Se connecter au stockage 10.0.0.1"
Hte 1

10.0.0.1
"Se reconnecter 10.0.0.2"
10.0.0.2
stockage

Trafic de stockage iSCSI


Hte 2

10.0.0.1
10.0.0.2
stockage

Si le port du systme de stockage qui agit en tant que port virtuel devient indisponible, le systme de
stockage rattribue l'adresse du port virtuel un autre port du systme. L'illustration Rattribution de port
montre un exemple de ce type de rattribution de port. Dans ce cas, le port virtuel 10.0.0.1 devient
indisponible et le systme de stockage rattribue l'adresse IP du port virtuel un autre port. Le second port
rpond aux deux adresses.

238

VMware, Inc.

Chapitre 23 Prsentation de la gestion gestion multivoie et du basculement

Figure 234. Rattribution de port


10.0.0.1
10.0.0.2
stockage

10.0.0.1
10.0.0.1
10.0.0.2
stockage

Avec cette forme de basculement bas sur baie, vous pouvez avoir plusieurs chemins d'accs au stockage
uniquement si vous utilisez plusieurs ports sur l'hte ESXi. Ces chemins sont actifs-actifs. Pour plus
d'informations, consultez Gestion des sessions iSCSI , page 101.

Basculement de chemin et machines virtuelles


Les basculements de chemin se produisent lorsque le chemin actif vers un LUN est remplac par un autre
chemin, habituellement cause d'une panne d'un composant SAN sur le chemin en cours.
En cas de dfaillance d'un chemin, l'E/S de stockage peut s'interrompre pendant 30 60 secondes jusqu' ce
que votre hte dtermine que ce lien est indisponible et ralise le basculement. Si vous essayez d'afficher
l'hte, ses priphriques de stockage ou ses adaptateurs, le fonctionnement peut apparatre fig. Les
machines virtuelles avec leurs disques installs sur le stockage SAN peuvent apparatre comme ne
rpondant plus. Lorsque le basculement est termin, l'E/S reprend normalement et les machines virtuelles
continuent fonctionner.
Toutefois, lorsque des basculements prennent beaucoup de temps, une machine virtuelle Windows pourrait
interrompre l'E/S et finir par tomber en panne. Pour viter la panne, dfinissez le dlai du disque pour la
machine virtuelle Windows au moins 60 secondes.

Dfinir le dlai d'expiration du SE invit Windows


Augmentez la valeur standard de dlai d'expiration de disque pour viter des interruptions du systme
d'exploitation Windows invit pendant le basculement d'un chemin.
Cette procdure explique comment changer le dlai d'expiration en utilisant le registre de Windows.
Prrequis
Sauvegarde du registre Windows.
Procdure
1

Slectionnez [Dmarrer] > [Excuter] .

Tapez regedit.exe, et cliquez sur [OK] .

Dans la vue hirarchique du volet de gauche, faites un double clic d'abord sur
[HKEY_LOCAL_MACHINE] > [System] > [CurrentControlSet] > [Services] > [Disk] .

Faites un double clic sur [TimeOutValue] .

VMware, Inc.

239

Stockage vSphere

Dfinissez la valeur sur 0x3c (hexadcimal) ou 60 (dcimal) et cliquez sur [OK] .


Aprs avoir effectu cette modification, Windows attend au moins 60 secondes pour que les oprations
de disque puissent se terminer avant de gnrer des erreurs.

Redmarrez le SE invit pour appliquer la modification.

Gestion des chemins multiples


Pour grer la gestion des chemins multiples, l'ESXi utilise un ensemble d'API de stockage, appel galement
PSA (Pluggable Storage Architecture). Le PSA est une structure modulaire ouverte qui coordonne les
oprations simultanes de plusieurs plug-ins gestion multivoie (MPP). Le PSA permet aux programmateurs
de logiciels tiers de concevoir leurs propres techniques d'quilibrage et mcanismes de basculement pour
une baie de stockage particulire et d'insrer leur code directement dans le chemin E/S de stockage ESXi.
Les rubriques abordant la gestion des chemins emploient les acronymes suivants.
Tableau 231. Acronymes relatifs la gestion des chemins
Acronyme

Dfinition

PSA

Architecture de stockage enfichable

NMP

Native Multipathing Plug-In. Module de gestion multivoie


VMware gnrique.

PSP

Path Selection Plug-In, galement appel rgle de slection


de chemin. Gre la slection de chemin d'un priphrique
donn.

SATP

Storage Array Type Plug-In, galement appel rgle de


type de baie de stockage. Gre le basculement de chemin
d'une baie de stockage donne.

Le plug-in gestion multivoie VMkernel que l'ESXi fournit par dfaut est le NMP (Native Multipathing PlugIn) VMware . Le NMP est un module extensible qui gre les sous plug-ins. Il existe deux types de sous plugins NMP : Storage Array Type Plug-Ins (SATP) et Path Selection Plug-Ins (PSP). SATP et PSP peuvent tre
intgrs et fournis par VMware ou par un tiers.
Si davantage de fonctionnalits de gestion multivoie sont ncessaires, un tiers peut galement fournir un
MPP excuter en complment ou en remplacement du NMP par dfaut.
Lors de la coordination du VMware NMP et de tous les MPP tiers installs, la PSA effectue les tches
suivantes :
n

Chargement et dchargement des plug-ins gestion multivoie.

Dissimulation des informations dtailles sur la machine virtuelle un plug-in particulier.

Routage des demandes d'E/S pour un priphrique logique spcifique vers le MPP qui gre ce
priphrique.

Traitement des files d'attente d'E/S vers les priphriques logiques.

Mise en place du partage de la bande passante du priphrique logique entre les machines virtuelles.

Traitement des files d'attente d'E/S vers les HBA de stockage physiques.

Traitement de la dtection et de la suppression des chemins physiques.

Mise disposition des statistiques d'E/S du priphrique logique et du chemin physique.

Comme l'illustration de l'Architecture de stockage enfichable le montre, de multiples MPP tiers peuvent
s'excuter paralllement au NMP VMware. Lorsqu'ils sont installs, les MPP tiers remplacent le
comportement du NMP et prennent le contrle total du basculement de chemin et des oprations
d'quilibrage de charge pour les priphriques de stockage spcifis.

240

VMware, Inc.

Chapitre 23 Prsentation de la gestion gestion multivoie et du basculement

Figure 235. Architecture de stockage enfichable


VMkernel
architecture de stockage enfichable

MPP
tiers

MPP
tiers

VMware NMP
VMware SATP

VMware PSP

VMware SATP

VMware PSP

VMware SATP
SATP tiers

PSP tiers

Les modules de gestion multivoie effectuent les oprations suivantes :


n

Gestion des rclamations et des non rclamations de chemins physiques.

Gestion de la cration, de l'enregistrement et de l'annulation d'enregistrement des priphriques


logiques.

Association des chemins physiques avec les priphriques logiques.

Prise en charge de la dtection et de la correction des pannes de chemin.

Traitement des demandes d'E/S vers les priphriques logiques :

Slection d'un chemin physique optimal pour la demande.

Excution, selon le priphrique de stockage, d'actions spcifiques ncessaires au traitement des


dfaillances de chemins et des nouvelles tentatives de commande d'E/S.

Prise en charge des tches de gestion, telles que la rinitialisation des priphriques logiques.

Module de gestion multivoie de VMware


Par dfaut, ESXi offre un module gestion multivoie extensible appel le NMP (Native Multipathing Plug-In).
De manire gnrale, le VMware NMP prend en charge toutes les baies de stockage rpertories sur la liste
de compatibilit matrielle (HCL) de stockage de VMware et fournit un algorithme de slection de chemin
par dfaut reposant sur le type de baie. Le NMP associe une srie de chemins physiques un priphrique
de stockage spcifique ou une LUN. Les dtails spcifiques du traitement du basculement de chemin pour
une baie de stockage spcifique sont dlgus au Storage Array Type Plugin (SATP). Les dtails spcifiques
de dtermination du chemin physique utilis pour mettre une demande d'E/S un priphrique de
stockage sont traits par un Path Selection Plugin (PSP). Les SATP et les PSP sont des sous plug-ins dans le
module NMP.
Avec ESXi, le SATP appropri la baie que vous utilisez sera install automatiquement. Il n'est pas
ncessaire d'obtenir ou de tlcharger de SATP.

SATP de VMware
Les Storage Array Type Plug-Ins (SATP) s'excutent avec VMware NMP et sont responsables des oprations
spcifiques aux baies.
ESXi offre un SATP pour chaque type de baie pris en charge par VMware. Il fournit galement les SATP par
dfaut qui prennent en charge les baies de stockage non-spcifiques actives/actives et ALUA et le SATP local
pour les priphriques directement relis. Chaque SATP contient des caractristiques spciales d'une
certaine classe de baies de stockage et effectue les oprations spcifiques la baie ncessaires pour dtecter
l'tat du chemin et pour activer un chemin inactif. Par consquent, le module NMP peut fonctionner avec de
nombreuses baies de stockage sans avoir connatre les informations dtailles du priphrique de
stockage.

VMware, Inc.

241

Stockage vSphere

Ds que le NMP dtermine le SATP utiliser pour un priphrique de stockage spcifique et qu'il associe le
SATP aux chemins physiques de ce priphrique de stockage, le SATP met en uvre les tches suivantes :
n

Surveillance du bon fonctionnement de chaque chemin physique.

Rapports sur les modifications d'tat de chaque chemin physique.

Excution d'actions spcifiques la baie ncessaires pour le basculement du stockage. Par exemple,
pour les priphriques actifs-passifs, il peut activer les chemins passifs.

PSP de VMware
Les PSP (Path Selection Plug-Ins) sont des sous plug-ins du NMP de VMware et sont chargs de choisir un
chemin physique pour les requtes E/S.
VMware NMP affecte un PSP par dfaut pour chaque priphrique logique selon le SATP associ aux
chemins physiques de ce priphrique. Vous pouvez remplacer le PSP par dfaut. Pour plus d'informations,
consultez Analyse et rclamation des chemins , page 243.
Par dfaut, le VMware NMP prend en charge les PSP suivants :
VMW_PSP_MRU

L'hte slectionne le chemin qui est utilis le plus rcemment. Quand le


chemin d'accs devient non disponible, l'hte slectionne un autre chemin
d'accs. L'hte ne retourne pas au chemin d'accs d'origine quand ce chemin
d'accs devient de nouveau disponible. Il n'y a aucun paramtre de chemin
d'accs prfr avec la rgle MRU. MRU est la rgle par dfaut pour la
plupart des priphriques de stockage actifs-passifs.
Le fonction de classement VMW_PSP_MRU vous permet d'attribuer des
rangs des chemins individuels. Pour dfinir les rangs des chemins
individuels, utilisez la commande esxcli storage nmp psp generic
pathconfig set. Pour de plus amples dtails, consultez l'article de la base de
connaissances VMware http://kb.vmware.com/kb/2003468.
La rgle est affiche dans le client comme rgle de slection de chemin
d'accs la plus rcente (VMware).

VMW_PSP_FIXED

L'hte utilise le chemin favori dsign s'il a t configur. Sinon, il utilise le


premier chemin oprationnel dtect au moment du dmarrage du systme.
Si vous voulez que l'hte utilise un chemin favori particulier, spcifiez-le
manuellement. Fixe est la rgle par dfaut pour les baies actives/actives.
REMARQUE Si l'hte utilise un chemin privilgi par dfaut et que l'tat du
chemin devient mort, un nouveau chemin est alors choisi comme privilgi.
Toutefois, si vous avez explicitement dsign le chemin privilgi, il restera
privilgi mme quand il devient inaccessible.
Affiche dans le client comme rgle de slection de chemin d'accs fixe
(VMware).

VMW_PSP_RR

L'hte utilise un algorithme de slection automatique de chemin d'accs qui


effectue une permutation circulaire sur tous les chemins d'accs actifs lors de
la connexion des baies actives/passives ou sur tous les chemins d'accs
disponibles lors de la connexion des baies actives/actives. RR est la valeur
par dfaut pour plusieurs baies et peut tre utilise avec les baies activesactives et actives-passives pour mettre en uvre l'quilibrage de charge sur
les chemins pour diffrents LUN.
Affiche dans le client comme rgle de slection de chemin d'accs Round
Robin (VMware).

242

VMware, Inc.

Chapitre 23 Prsentation de la gestion gestion multivoie et du basculement

Flux d'E/S de VMware NMP


Lorsqu'une machine virtuelle envoie une demande d'E/S un priphrique de stockage gr par le NMP, le
processus suivant a lieu :
1

Le NMP appelle le PSP assign ce priphrique de stockage.

Le PSP slectionne le chemin physique appropri sur lequel il peut envoyer l'E/S.

Le NMP envoie la requte d'E/S sur le chemin slectionn par le PSP.

Si l'opration d'E/S russie, le NMP signale qu'elle est termine.

Si l'opration d'E/S choue, le NMP appelle le SATP appropri.

Le SATP interprte les erreurs de commande d'E/S et, si ncessaire, active les chemins inactifs.

Le PSP est appel et slectionne un nouveau chemin sur lequel il peut envoyer l'E/S.

Analyse et rclamation des chemins


Lorsque vous dmarrez votre hte ESXi ou ranalysez votre adaptateur de stockage, l'hte dcouvre tous les
chemins physiques vers les priphriques de stockage disponibles sur l'hte. En se basant sur un ensemble
de rgles de rclamation, l'hte dtermine le plug-in gestion multivoie (MPP) qui doit rclamer les chemins
vers un priphrique particulier et devenir responsable de la gestion de cette prise en charge gestion
multivoie pour ce priphrique.
Par dfaut, l'hte effectue une valuation priodique des chemins toutes les 5 minutes, faisant rclamer par
le PPP appropri tous les chemins non rclams.
Les rgles de rclamation sont numrotes. Pour chaque chemin physique, l'hte parcourt les rgles de
rclamation en commenant par le plus petit nombre. Les attributs du chemin physique sont compars la
spcification de chemin dans la rgle de rclamation. S'il trouve une correspondance, l'hte assigne le MPP
spcifi dans la rgle de rclamation pour l'administration du chemin physique. Ce processus continue
jusqu' ce que tous les chemins physiques soient rclams par les MPP correspondants, soit des plug-ins
gestion multivoie tiers, soit le plug-in gestion multivoie natif (NMP).
Pour les chemins administrs par le module NMP, un second ensemble de rgles s'applique. Ces rgles
dterminent quel Storage Array Type Plug-In (SATP) doit tre utilis pour grer les chemins pour un type
spcifique de baie et quel Path Selection Plug-In (PSP) doit tre utilis pour chaque priphrique de
stockage.
Utilisez Client Web vSphere pour afficher le SATP et le PSP que l'hte utilise pour un priphrique de
stockage spcifique et le statut de tous les chemins disponibles pour ce priphrique de stockage. Au besoin,
vous pouvez modifier le PSP VMware par dfaut en utilisant le client. Pour modifier le SATP par dfaut,
vous devez diter les rgles de rclamation dans vSphere CLI.
Vous pourrez trouver des informations sur la modification des rgles de rclamation dans Gestion des
chemins de stockage et des plug-ins gestion multivoie , page 247.
Pour plus d'informations sur les commandes disponibles pour grer PSA, consultez Initiation aux interfaces
de ligne de commande vSphere.
Pour une liste complte des baies de stockage et des SATP et PSP correspondants, consultez la section
Rfrence du modle de baie SAN du vSphere Compatibility Guide.

VMware, Inc.

243

Stockage vSphere

Affichage des informations sur les chemins


Vous pouvez examiner la rgle de type de baie de stockage (SATP) et la rgle de slection de chemin (PSP)
que l'hteESXi utilise pour un priphrique de stockage spcifique, ainsi que l'tat de tous les chemins
disponibles pour ce priphrique de stockage. Vous pouvez accder aux informations sur les chemins la
fois depuis les vues Banques de donnes et Priphriques. Pour les banques de donnes, vous consultez les
chemins connects au priphrique hbergeant la banque de donnes.
Les informations relatives au chemin incluent la SATP affecte la gestion du priphrique, la PSP, une liste
de chemins et l'tat de chaque chemin. Les informations de statut du chemin suivantes peuvent s'afficher :
Active

Les chemins disponibles pour E/S avec un LUN. Un ou plusieurs chemins


actifs en cours d'utilisation pour le transfert de donnes sont marqus
comme Actifs (E/S).

Veille

Le chemin peut tre rapidement oprationnel et utilis pour l'E/S si les


chemins actifs tombent en panne.

Dsactiv

Le chemin est dsactiv et aucune donne ne peut tre transfre.

Mort

Le logiciel ne peut joindre le disque par ce chemin.

Si vous utilisez la politique de chemin [Fixe] , vous pouvez voir quel est le chemin prfr. Le chemin
prfr est marqu par une astrisque (*) dans la colonne Prfr.
Vous pouvez galement afficher le nom du chemin pour chaque chemin. Le nom inclut des paramtres qui
dcrivent le chemin : ID de l'adaptateur, ID de la cible, et ID du priphrique. En gnral, le nom du chemin
a un format similaire au format suivant :
fc.adapterID-fc.targetID-naa.deviceID

REMARQUE Lorsque vous utilisez l'diteur de profils d'hte pour diter les chemins, vous devez spcifier les
trois paramtres qui dcrivent un chemin ; ID de l'adaptateur, ID de la cible et ID du priphrique.

Afficher les chemins d'accs aux banques de donnes dans


Client Web vSphere
Examiner les chemins de connexion aux priphriques de stockage soutennant vos banques de donnes.
Prrequis
Accdez aux banques de donnes dans le navigateur de Client Web vSphere. Reportez-vous Afficher les
informations des banques de donnes dans Client Web vSphere , page 20.
Procdure

244

Slectionner la banque de donnes.

Cliquez sur longlet [Grer] , puis cliquez sur [Paramtres] .

Cliquez sur [Connectivit et gestion multivoie] .

Si la banque de donnes est partage, slectionnez un hte pour afficher les dtails de la gestion
multivoie de ses priphriques.

Dans Dtails de gestion multivoie, passez en revue les rgles de gestion multivoie et les chemins d'accs
au priphrique de stockage soutenant votre banque de donnes.

VMware, Inc.

Chapitre 23 Prsentation de la gestion gestion multivoie et du basculement

Afficher les chemins d'accs aux priphriques de stockage dans


Client Web vSphere
Vous pouvez afficher les rgles multivoie qu'utilise l'hte pour un priphrique de stockage spcifique, ainsi
que l'tat de tous les chemins disponibles pour ce priphrique de stockage.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Priphriques de stockage] .

Slectionnez le priphrique de stockage dont vous voulez afficher les chemins d'accs.

Cliquez sur l'onglet [Proprits] et consultez les informations dtailles sous Rgles multivoie.

Cliquez sur l'onglet [Chemins] pour consulter tous les chemins d'accs disponibles pour ce
priphrique de stockage.

Dfinition d'une rgle de slection de chemin


Pour chaque priphrique de stockage, l'hte ESXi dfinit la rgle de slection du chemin bas sur les rgles
de rclamation.
Par dfaut, VMware prend en charge les rgles de slection de chemin d'accs suivantes. Si un PSP tiers est
install sur votre hte, sa rgle figure aussi dans la liste.
Fixe (VMware)

L'hte utilise le chemin favori dsign s'il a t configur. Sinon, il utilise le


premier chemin oprationnel dtect au moment du dmarrage du systme.
Si vous voulez que l'hte utilise un chemin favori particulier, spcifiez-le
manuellement. Fixe est la rgle par dfaut pour les baies actives/actives.
REMARQUE Si l'hte utilise un chemin privilgi par dfaut et que l'tat du
chemin devient mort, un nouveau chemin est alors choisi comme privilgi.
Toutefois, si vous avez explicitement dsign le chemin privilgi, il restera
privilgi mme quand il devient inaccessible.

Dernire utilisation
(VMware)

L'hte slectionne le chemin qui est utilis le plus rcemment. Quand le


chemin d'accs devient non disponible, l'hte slectionne un autre chemin
d'accs. L'hte ne retourne pas au chemin d'accs d'origine quand ce chemin
d'accs devient de nouveau disponible. Il n'y a aucun paramtre de chemin
d'accs prfr avec la rgle MRU. MRU est la rgle par dfaut pour la
plupart des priphriques de stockage actifs-passifs.

Rptition alterne
(VMware)

L'hte utilise un algorithme de slection automatique de chemin d'accs qui


effectue une permutation circulaire sur tous les chemins d'accs actifs lors de
la connexion des baies actives/passives ou sur tous les chemins d'accs
disponibles lors de la connexion des baies actives/actives. RR est la valeur
par dfaut pour plusieurs baies et peut tre utilise avec les baies activesactives et actives-passives pour mettre en uvre l'quilibrage de charge sur
les chemins pour diffrents LUN.

VMware, Inc.

245

Stockage vSphere

Changer la rgle de slection de chemin d'accs dans Client Web vSphere


Gnralement, vous ne devez pas changer les paramtres multivoie par dfaut que votre hte utilise pour
un priphrique de stockage spcifique. Cependant, si vous voulez faire des modifications, vous pouvez
utiliser la bote de dialogue Grer Chemins d'accs pour modifier une rgle de slection de chemin d'accs et
spcifier le chemin par dfaut comme rgle Fixe.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Priphriques de stockage] .

Slectionnez le priphrique de stockage dont vous voulez modifier les chemins et cliquez sur l'onglet
[Proprits] .

Dans Proprits multivoie, cliquez sur [Modifier] .

Slectionnez une rgle de slection de chemin d'accs.


Par dfaut, VMware prend en charge les rgles de slection de chemin d'accs suivantes. Si un PSP tiers
est install sur votre hte, sa rgle figure aussi dans la liste.
n

Fixe (VMware)

Dernire utilisation (VMware)

Rptition alterne (VMware)

Pour la rgle fixe, indiquez le chemin prfr.

Cliquez sur [OK] pour sauvegarder vos paramtres et quitter la bote de dialogue.

Dsactiver des chemins d'accs dans Client Web vSphere


Vous pouvez mettre hors tension temporairement certains chemins d'accs, pour des raisons de
maintenance notamment.
Pour dsactiver un chemin d'accs, vous devez utiliser le panneau Chemins. Il existe plusieurs faons
d'accder au panneau Chemins : depuis une vue de banque de donnes, une vue de priphrique de
stockage ou une vue d'adaptateur. Cette tche explique comment dsactiver un chemin d'accs l'aide d'une
vue de priphrique de stockage.
Procdure

246

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Stockage] .

Cliquez sur [Priphriques de stockage] .

Slectionnez le priphrique de stockage dont vous voulez dsactiver les chemins d'accs et cliquez sur
l'onglet [Chemins] .

Slectionnez le chemin dsactiver et cliquez sur [Dsactiver] .

VMware, Inc.

Chapitre 23 Prsentation de la gestion gestion multivoie et du basculement

Gestion des chemins de stockage et des plug-ins gestion multivoie


Utilisez les commandes esxcli pour grer les plug-ins gestion multivoie PSA et les chemins de stockage qui
leur sont affects.
Vous pouvez afficher tous les plug-ins gestion multivoie disponibles sur votre hte. Vous pouvez
rpertorier tous les MPP tiers ainsi que le NMP et les SATP de votre hte et passer en revue les chemins
qu'ils rclament. Vous pouvez aussi dfinir de nouveaux chemins et spcifier quel plug-in gestion multivoie
doit rclamer les chemins.
Pour plus d'informations sur les commandes disponibles pour grer le PSA, consultez la section Initiation
aux interfaces de ligne de commande vSphere.

Considrations concernant le gestion multivoie


Des considrations spcifiques s'appliquent lorsque vous grez des plug-ins gestion multivoie de stockage
et des rgles de rclamation.
Les considrations suivantes sont destines vous aider utiliser le gestion multivoie :
n

Si les rgles de rclamation n'ont pas allou de SATP au priphrique, le SATP par dfaut pour iSCSI ou
pour les priphriques FC est VMW_SATP_DEFAULT_AA. Le PSP par dfaut est VMW_PSP_FIXED.

Lorsque le systme recherche les rgles SATP pour localiser un SATP pour un priphrique donn, il
recherche les rgles du pilote en premier. En cas de non correspondance, les rgles du
fournisseur/modle sont recherches, et pour finir, les rgles de transport sont recherches. En cas de
non correspondance, NMP slectionne un SATP par dfaut pour le priphrique.

Si VMW_SATP_ALUA est affect un priphrique de stockage spcifique mais le priphrique ne


prend pas en charge ALUA, il n'y a aucune correspondance la rgle de rclamation pour ce
priphrique. Le priphrique est rclam par le SATP par dfaut selon le type de transport du
priphrique.

Le PSP par dfaut de tous les priphriques rclams par VMW_SATP_ALUA est VMW_PSP_MRU.
VMW_PSP_MRU slectionne un chemin actif/optimis que lui a indiqu VMW_SATP_ALUA, ou un
chemin actif/non optimis s'il n'y a pas de chemin actif/optimis. Ce chemin est utilis jusqu' ce qu'un
meilleur chemin soit disponible (MRU). Par exemple, si VMW_PSP_MRU utilise un chemin actif/non
optimis et qu'un chemin actif/optimis est disponible, VMW_PSP_MRU change de chemin pour
utiliser le chemin actif/optimis.

Bien que VMW_PSP_MRU soit gnralement slectionn par dfaut pour les baies ALUA, certaines
baies de stockage ALUA ncessitent d'utiliser VMW_PSP_FIXED. Pour vrifier si votre baie de stockage
ncessite VMW_PSP_FIXED, consultez le Guide de compatibilit VMware ou contactez votre fournisseur
de baies. Lorsque vous utilisez VMW_PSP_FIXED avec des baies ALUA, et moins que vous ne
spcifiiez explicitement un chemin prfr, l'hte ESXi slectionne le chemin actif optimal et le dsigne
comme chemin prfr par dfaut. Si le chemin slectionn par l'hte devient indisponible, l'hte
slectionne un chemin de substitution disponible. Toutefois, si vous dsignez explicitement le chemin
prfr, celui-ci restera le chemin prfr quel que soit son tat.

Par dfaut, la rgle de rclamation 101 du PSA masque les priphriques pseudo de baie Dell. Ne
supprimez pas cette rgle sauf si vous voulez afficher ces priphriques.

VMware, Inc.

247

Stockage vSphere

Liste de rgles de rclamation de gestion multivoie pour l'hte


Utilisez la commande esxcli pour rpertorier les rgles de rclamation de gestion multivoie disponibles.
Les rgles de rclamation indiquent quel plug-in gestion multivoie, NMP ou tout autre MPP tiers gre un
chemin physique donn. Chaque rgles de rclamation identifie une srie de chemins selon les paramtres
suivants :
n

Chanes d'diteur/modle

Transport tel que SATA, IDE, Fibre Channel et bien d'autres encore

Adaptateur, cible ou emplacement de la LUN

Pilote du priphrique, par exemple, Mega-RAID

Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Excutez la commande

esxcli --server=server_name storage core claimrule list --claimrule-class=MP pour rpertorier

les rgles de rclamation de gestion multivoie.

Exemple : Exemple de rsultat de la commande esxcli storage core claimrule list


Rule Class
MP
MP
MP
MP
MP
MP
MP
MP
MP
MP
MP

Rule
0
1
2
3
4
101
101
200
200
201
201

Class
runtime
runtime
runtime
runtime
runtime
runtime
file
runtime
file
runtime
file

Type
transport
transport
transport
transport
transport
vendor
vendor
vendor
vendor
location
location

Plugin
NMP
NMP
NMP
NMP
NMP
MASK_PATH
MASK_PATH
MPP_1
MPP_1
MPP_2
MPP_2

Matches
transport=usb
transport=sata
transport=ide
transport=block
transport=unknown
vendor=DELL model=Universal Xport
vendor=DELL model=Universal Xport
vendor=NewVend model=*
vendor=NewVend model=*
adapter=vmhba41 channel=* target=* lun=*
adapter=vmhba41 channel=* target=* lun=*

MP
MP
MP

202
202
65535

runtime
file
runtime

driver
driver
vendor

MPP_3
MPP_3
NMP

driver=megaraid
driver=megaraid
vendor=* model=*

Cet exemple indique :

248

Le NMP rclame tous les chemins connects aux priphriques de stockage qui utilisent le transport
USB, SATA, IDE et Block SCSI.

Vous pouvez utiliser le module MASK_PATH pour masquer les priphriques inutiliss de votre hte.
Par dfaut, la rgle de rclamation 101 du PSA masque les priphriques pseudo de baie Dell avec une
chane de fournisseur DELL et une chane de modle Universal Xport.

Le module MPP_1 rclame tous les chemins connects tout modle de baie de stockage NewVend.

VMware, Inc.

Chapitre 23 Prsentation de la gestion gestion multivoie et du basculement

Le module MPP_3 rclame les chemins vers les priphriques de stockage contrls par le pilote du
priphrique Mega-RAID.

Tous les chemins non dcrits dans les rgles prcdentes sont rclams par le NMP.

La colonne Classe de rgles dans la sortie dcrit la catgorie de rgle de rclamation. Elle peut tre MP
(plug-in gestion multivoie), Filtre ou VAAI.

La colonne Classe montre les rgles qui sont dfinies et celles qui sont charges. Le paramtre file dans
la colonne Class indique que la rgle est dfinie. Le paramtre runtime indique que la rgle a t
charge sur votre systme. Pour activer une rgle de rclamation dfinie par l'utilisateur, il faut que
deux lignes ayant le mme nombre de rgles soient prsentes. Une ligne pour la rgle avec la paramtre
file et une autre ligne avec le paramtre runtime. Plusieurs rgles de basse numrotation ont une seule
ligne avec la classe runtime. Ce sont des rgles de rclamation dfinies par le systme qui ne peuvent
pas tre modifies.

Affichage des modules de gestion multivoie


Utilisez la commande esxcli pour rpertorier tous les modules de gestion multivoie chargs sur le systme.
Les modules de gestion multivoie grent les chemins physiques qui connectent votre hte au stockage.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Pour afficher les modules de gestion multivoie, excutez la commande suivante :


esxcli --server=server_name storage core plugin list --plugin-class=MP

Cette commande montre typiquement le NMP et le module MASK_PATH, s'il est charg. Si des MPP tiers
ont t chargs, ils sont galement rpertoris.

Affichage des SATP pour l'hte


Utilisez la commande esxcli pour rpertorier les SATP NMP de VMware chargs sur le systme. Affichez
les informations sur les SATP.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Pour rpertorier les SATP de VMware, excutez la commande suivante :


esxcli --server=server_name storage nmp satp list

VMware, Inc.

249

Stockage vSphere

Pour chaque SATP, la commande affiche les informations concernant le type de baie de stockage ou de
systme pris en charge par SATP ainsi que le PSP par dfaut de toutes les LUN utilisant ce SATP. Espace
rserv (plugin pas charg) dans la colonne Description indique que le SATP n'est pas charg.

Affichage des priphriques de stockage NMP


Utilisez la commande esxcli pour rpertorier tous les priphriques de stockage contrls par le VMware
NMP et afficher les informations sur le SATP et le PSP correspondant chaque priphrique.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Pour rpertorier tous les priphriques de stockage, excutez la commande suivante :


esxcli --server=server_name storage nmp device list

Utilisez l'option --device | -d=device_ID pour filtrer le rsultat de cette commande et afficher un seul
priphrique.

Ajout de rgles de rclamation de gestion multivoie


Utilisez les commandes esxcli pour ajouter une rgle de rclamation de gestion multivoie PSA l'ensemble
de rgles de rclamation sur le systme. Pour activer la nouvelle rgle de rclamation, dfinissez d'abord la
rgle puis chargez-la sur votre systme.
Ajoutez une nouvelle rgle de rclamation PSA lorsque, par exemple, vous chargez un nouveau plug-in de
gestion multivoie (MPP) et devez dfinir les chemins que ce module doit rclamer. Il se peut que vous
deviez crer une rgle de rclamation si vous ajoutez de nouveaux chemins et souhaitez que le MPP existant
les rclame.
AVERTISSEMENT Lors de la cration des nouvelles rgles de rclamation, prenez soin d'viter toutes
situations o les diffrents chemins physiques sur la mme LUN sont rclams par diffrents MPP. Sauf
dans le cas o le MPP correspond MASK_PATH MPP, cette configuration entrane des problmes de
performances.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.

250

VMware, Inc.

Chapitre 23 Prsentation de la gestion gestion multivoie et du basculement

Procdure
1

Pour dfinir une nouvelle rgle de rclamation, excutez la commande suivante :


esxcli --server=server_name storage core claimrule add

La commande accepte les options suivantes :

Option

Description

-A|--adapter=<str>

Indiquez l'adaptateur des chemins utiliser pour cette opration.

-u|--autoassign

Le systme affecte automatiquement un ID de rgle.

-C|--channel=<long>

Indiquez le canal des chemins utiliser pour cette opration.

-c|--claimrule-class=<str>

Indiquez la classe des rgles de rclamation utiliser pour cette opration.


Les valeurs valides sont : MP, Filtre, VAAI.

-d|--device=<str>

Indiquez l'Uid du priphrique utiliser pour cette opration.

-D|--driver=<str>

Indiquez le pilote des chemins utiliser pour cette opration.

-f|--force

Forcez les rgles de rclamation ignorer les vrifications de validit et


installer la rgle.

--if-unset=<str>

Excutez cette commande si cette variable d'utilisateur avanc n'est pas


dfinie sur la valeur 1.

-i|--iqn=<str>

Indiquez le Nom Qualifi iSCSI pour la cible utiliser dans cette opration.

-L|--lun=<long>

Indiquez la LUN des chemins utiliser pour cette opration.

-M|--model=<str>

Indiquez le modle des chemins utiliser pour cette opration.

-P|--plugin=<str>

Indiquez le plugin PSA utiliser pour cette opration. (requis)

-r|--rule=<long>

Indiquez l'ID de la rgle utiliser pour cette opration.

-T|--target=<long>

Indiquez la cible des chemins utiliser pour cette opration.

-R|--transport=<str>

Indiquez le transport des chemins utiliser pour cette opration.


Les valeurs valides sont : block, fc, iscsi, iscsivendor, ide, sas, sata, usb,
parallel, unknown.

-t|--type=<str>

Indiquez le type de correspondances utilis pour la rclamation/non


rclamation ou pour claimrule.
Les valeurs valides sont : fournisseur, emplacement, pilote, transport,
priphrique, cible. (requis)

-V|--vendor=<str>

Indiquez le fournisseur des chemins utiliser dans cette opration.

--wwnn=<str>

Indiquez le numro de nud WWNN pour la cible utiliser dans cette


opration.

--wwpn=<str>

Indiquez le numro de port WWPN pour la cible utiliser dans cette


opration.

Pour charger la nouvelle rgle de rclamation sur votre systme, excutez la commande suivante :
esxcli --server=server_name storage core claimrule load

Cette commande charge toutes les nouvelles rgles de rclamation gestion multivoie partir du fichier
de configuration de votre systme.

Exemple : Dfinition des rgles de rclamation de gestion multivoie


Dans l'exemple suivante, vous ajoutez et chargez la rgle N500 pour rclamer tous les chemins comportant
la chane du modle NewMod et la chane du fournisseur NewVend pour le plug-in NMP.
# esxcli --server=server_name storage core claimrule add -r 500 -t vendor -V NewVend -M NewMod -P
NMP
# esxcli --server=server_name storage core claimrule load

VMware, Inc.

251

Stockage vSphere

Aprs avoir excut la commande esxcli --server=server_name storage core claimrule list, vous
pouvez voir apparatre la nouvelle liste de rclamations sur la liste.
REMARQUE Les deux lignes de la rgle de rclamation (celle de la classe runtime et celle de la classe file)
indiquent que la nouvelle rgle de rclamation a t charge sur le systme et qu'elle est active.
Rule Class
MP
MP
MP
MP
MP
MP
MP
MP
MP

Rule
0
1
2
3
4
101
101
500
500

Class
runtime
runtime
runtime
runtime
runtime
runtime
file
runtime
file

Type
transport
transport
transport
transport
transport
vendor
vendor
vendor
vendor

Plugin
NMP
NMP
NMP
NMP
NMP
MASK_PATH
MASK_PATH
NMP
NMP

Matches
transport=usb
transport=sata
transport=ide
transport=block
transport=unknown
vendor=DELL model=Universal Xport
vendor=DELL model=Universal Xport
vendor=NewVend model=NewMod
vendor=NewVend model=NewMod

Suppression de rgles de rclamation de gestion multivoie


Utilisez les commandes esxcli pour supprimer une rgle de rclamation PSA de gestion multivoie de la
srie de rgles de rclamation sur le systme.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
1

Supprimez une rgle de rclamation d'une srie de rgles de rclamation.


esxcli --server=server_name storage core claimrule remove

REMARQUE Par dfaut, la rgle de rclamation 101 du PSA masque les priphriques pseudo de baie
Dell. Ne supprimez pas cette rgle sauf si vous voulez afficher ces priphriques.
La commande accepte les options suivantes :
Option

Description

-c|--claimrule-class=<str>

Indiquez la classe des rgles de rclamation utiliser pour cette opration.


(MP, Filtre, VAAI).

-P|--plugin=<str>

Indiquez le plug-in utiliser pour cette opration.

-r|--rule=<long>

Indiquez l'ID de la rgle utiliser pour cette opration.

Cette tape supprime la rgle de rclamation de la classe de fichiers.


2

Supprimez la rgle de rclamation du systme.


esxcli --server=server_name storage core claimrule load

Cette tape supprime la rgle de rclamation de la classe Runtime.

252

VMware, Inc.

Chapitre 23 Prsentation de la gestion gestion multivoie et du basculement

Masquage des chemins


Vous pouvez empcher l'hte d'accder aux priphriques de stockage ou aux LUN, ou encore l'empcher
d'utiliser certains chemins d'accs un LUN. Pour masquer les chemins d'accs, utilisez les commandes
esxcli. Lorsque vous masquez des chemins d'accs, vous crez des rgles de rclamation qui affectent le
plug-in MASK_PATH aux chemins spcifis.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
1

Vrifiez l'ID de rgle disponible suivant


esxcli --server=server_name storage core claimrule list

Les ID de rgle de rclamation utiliss pour masquer les chemins d'accs doivent tre compris dans la
plage 101 200. Si cette commande indique que les rgles 101 et 102 existent dj, vous pouvez spcifier
103 en tant qu'ID de rgle ajouter.
2

Affectez le plug-in MASK_PATH un chemin d'accs : pour cela, crez une nouvelle rgle de
rclamation associer au plug-in.
esxcli --server=server_name storage core claimrule add -P MASK_PATH

Chargez la rgle de rclamation du plug-in MASK_PATH dans votre systme.


esxcli --server=server_name storage core claimrule load

Vrifiez que cette rgle a bien t ajoute.


esxcli --server=server_name storage core claimrule list

Si une rgle de rclamation existe dj pour le chemin d'accs masqu, supprimez-la.


esxcli --server=server_name storage core claiming unclaim

Excutez les rgles de rclamation de chemin d'accs.


esxcli --server=server_name storage core claimrule run

Une fois que vous avez affect le plug-in MASK_PATH un chemin d'accs, l'tat de l'tat de ce dernier
devient non pertinent et n'est plus gr par l'hte. Par consquent, les commandes qui affichent les
informations de chemin masqu peuvent indiquer que ce chemin est mort.

Exemple : Masquage d'un LUN


Dans cet exemple, vous masquez le LUN 20 pour les cibles T1 et T2, dont l'accs s'effectue via les
adaptateurs de stockage vmhba2 et vmhba3.
1

#esxcli --server=server_name storage core claimrule list

#esxcli --server=server_name storage core claimrule add -P MASK_PATH -r 109 -t location -A


vmhba2 -C 0 -T 1 -L 20
#esxcli --server=server_name storage core claimrule add -P MASK_PATH -r 110 -t location -A
vmhba3 -C 0 -T 1 -L 20

VMware, Inc.

253

Stockage vSphere

#esxcli --server=server_name storage core claimrule add -P MASK_PATH -r 111 -t location -A


vmhba2 -C 0 -T 2 -L 20
#esxcli --server=server_name storage core claimrule add -P MASK_PATH -r 112 -t location -A
vmhba3 -C 0 -T 2 -L 20

#esxcli --server=server_name storage core claimrule load

#esxcli --server=server_name storage core claimrule list

#esxcli --server=server_name storage core claiming unclaim -t location -A vmhba2


#esxcli --server=server_name storage core claiming unclaim -t location -A vmhba3

#esxcli --server=server_name storage core claimrule run

Dmasquage des chemins


Si vous souhaitez que l'hte accde au priphrique de stockage masqu, dmasquez les chemins menant
ce priphrique.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
1

Supprimez la rgle de rclamation MASK_PATH.


esxcli --server=server_name storage core claimrule remove -r rule#

Vrifiez que la rgle de rclamation a t supprime correctement.


esxcli --server=server_name storage core claimrule list

Rechargez les rgles de rclamation du chemin partir du fichier de configuration dans le VMkernel.
esxcli --server=server_name storage core claimrule load

Excutez la commande esxcli --server=server_name storage core claiming unclaim pour chaque
chemin vers le priphrique de stockage masqu.
Par exemple :
esxcli --server=server_name storage core claiming unclaim -t location -A vmhba0 -C 0 -T 0 -L
149

Excutez les rgles de rclamation de chemin d'accs.


esxcli --server=server_name storage core claimrule run

Votre hte peut dsormais accder au priphrique de stockage qui a t masqu.

254

VMware, Inc.

Chapitre 23 Prsentation de la gestion gestion multivoie et du basculement

Dfinition des rgles SATP de NMP


Les rgles de rclamation NMP SATP spcifient le SATP qui doit grer un priphrique de stockage
particulier. De manire gnrale, il n'est pas ncessaire de modifier les rgles NMP SATP. En cas de besoin,
utilisez les commandes esxcli pour ajouter une rgle la liste de rgles de rclamation pour le SATP
spcifi.
Vous pourriez avoir besoin de crer une rgle SATP lors de l'installation d'un SATP tiers pour une baie de
stockage spcifique.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
1

Pour ajouter une rgle de rclamation un SATP spcifique, excutez la commande

esxcli --server=server_name storage nmp satp rule add. La commande accepte les options

suivantes.

VMware, Inc.

Option

Description

-b|--boot

C'est une rgle par dfaut du systme ajoute au moment du dmarrage.


Ne modifiez pas esx.conf ou ne l'ajoutez pas au profil de l'hte.

-c|--claim-option=string

Dfinissez la chane d'option de rclamation lors de l'ajout d'une rgle de


rclamation SATP.

-e|--description=string

Dfinissez la description de la rgle de rclamation lors de l'ajout d'une


rgle de rclamation SATP.

-d|--device=string

Dfinissez le priphrique lors de l'ajout de rgles de rclamation SATP.


Les rgles de priphrique sont mutuellement exclusives aux rgles
d'diteur/modle et de pilote.

-D|--driver=string

Dfinissez la chane de pilote lors de l'ajout d'une rgle de rclamation


SATP. Les rgles de pilote sont mutuellement exclusives aux rgles
d'diteur/modle.

-f|--force

Forcez les rgles de rclamation ignorer les vrifications de validit et


installer la rgle.

-h|--help

Affichez le message d'aide.

-M|--model=string

Dfinissez la chane de modle lors de l'ajout d'une rgle de rclamation


SATP. Les rgles d'diteur/modle sont mutuellement exclusives aux
rgles de pilote.

-o|--option=string

Dfinissez la chane d'option lors de l'ajout d'une rgle de rclamation


SATP.

-P|--psp=string

Dfinissez le PSP par dfaut pour la rgle de rclamation SATP.

-O|--psp-option=string

Dfinissez les options du PSP pour la rgle de rclamation SATP.

-s|--satp=string

Le SATP pour lequel une nouvelle rgle sera ajoute.

-R|--transport=string

Dfinissez la chane du type de transport lors de l'ajout d'une rgle de


rclamation SATP.

255

Stockage vSphere

Option

Description

-t|--type=string

Dfinissez le type de chane lors de l'ajout d'une rgle de rclamation.

-V|--vendor=string

Dfinissez la chane d'diteur lors de l'ajout de rgles de rclamation


SATP. Les rgles d'diteur/modle sont mutuellement exclusives aux
rgles de pilote.

REMARQUE Lors de la recherche de rgles SATP pour localiser le SATP d'un priphrique donn, le
NMP commence par rechercher les rgles de pilote. Si aucune correspondance n'est trouve, les rgles
d'diteur/modle sont recherches et finalement les rgles de transport. Si aucune correspondance n'est
trouve cette fois encore, le NMP slectionne un SATP par dfaut pour le priphrique.
2

Redmarrez l'hte.

Exemple : Dfinition d'une rgle NMP SATP


L'exemple de commande suivant affecte le plug-in VMW_SATP_INV la gestion des baies de stockage avec
une chane d'diteur NewVend et une chane de modle NewMod.
# esxcli --server=server_name storage nmp satp rule add -V NewVend -M NewMod -s VMW_SATP_INV

Si vous excutez la commande esxcli --server=server_name storage nmp satp list -s VMW_SATP_INV,
vous pouvez voir la nouvelle rgle ajoute la liste de rgles VMW_SATP_INV.

256

VMware, Inc.

Acclration matrielle du stockage

24

La fonctionnalit d'acclration matrielle permet l'hte ESXi de s'intgrer des baies de stockage
conformes et de dcharger des oprations spcifiques de gestion de stockage et de VM sur du matriel de
stockage. Avec l'assistance matrielle du stockage, votre hte effectue les oprations plus rapidement et
consomme moins de CPU, de mmoire et de bande passante de stockage.
L'acclration matrielle est prise en charge par les priphriques de stockage des blocs, Fibre Channel et
iSCSI, et les priphriques NAS.
Pour de plus amples dtails, consultez l'article de la base de connaissances VMware l'adresse
http://kb.vmware.com/kb/1021976.
Ce chapitre aborde les rubriques suivantes :
n

Avantages de l'acclration matrielle , page 257

Conditions requises pour l'acclration matrielle , page 258

tat de la prise en charge de l'acclration matrielle , page 258

Acclration pour les priphriques de stockage de blocs , page 258

Acclration matrielle sur les priphriques NAS , page 264

Considrations sur l'acclration matrielle , page 266

Avantages de l'acclration matrielle


Lorsque la fonctionnalit de l'acclration matrielle est prise en charge, l'hte peut obtenir une assistance
matrielle et effectuer les tches plus rapidement et plus efficacement.
L'hte obtient une assistance pour les activits suivante
n

Migration des machines virtuelles avec Storage vMotion

Dploiement des machines virtuelles depuis les modles

Clonage des machines virtuelles ou des modles

Verrouillage en cluster VMFS et oprations de mtadonnes pour les fichiers des machines virtuelles

criture vers des disques virtuels allocation dynamique et lourds

Cration des machines virtuelles tolrant les pannes

Cration et clonage des disques dynamiques sur les banques de donnes NFS

VMware, Inc.

257

Stockage vSphere

Conditions requises pour l'acclration matrielle


La fonctionnalit d'acclration matrielle fonctionne uniquement si vous utilisez une association hte/baie
de stockage approprie.
Tableau 241. Conditions requises de stockage pour l'acclration matrielle
ESXi

Priphriques de stockage des


blocs

Priphriques NAS

ESX/ESXi version 4.1

Prend en charge les plug-ins de


stockage des blocs pour l'intgration
de la baie (VAAI)

Non pris en charge

ESXi version 5.x

Prend en charge la norme SCSI T10


ou les plug-ins de stockage des blocs
pour l'intgration de la baie (VAAI)

Prend en charge les plug-ins NAS pour


l'intgration de la baie

REMARQUE Si votre structure de stockage SAN ou NAS utilise un dispositif intermdiaire devant un systme
de stockage qui prend en charge l'acclration matrielle, le dispositif intermdiaire doit galement prendre
en charge l'acclration matrielle et tre certifi correctement. Le dispositif intermdiaire pourrait tre un
dispositif de virtualisation du stockage, un dispositif d'acclration E/S, un dispositif de chiffrement, etc.

tat de la prise en charge de l'acclration matrielle


Pour chaque priphrique de stockage et banque de donnes, Client Web vSphere affiche le statut de prise
en charge de l'acclration matrielle.
Les valeurs d'tat sont Inconnu, Pris en charge et Non pris en charge. La valeur initiale est Inconnu.
Pour les priphriques de traitement par blocs, le statut passe Pris en charge aprs l'opration de
dchargement russie par l'hte. Si l'opration de dchargement choue, l'tat passe Non pris en charge.
Le statut reste Inconnu si le priphrique assure une prise en charge partielle de l'acclration.
Avec NAS, le statut devient Pris en charge lorsque le stockage peut effectuer au moins une opration de
dchargement matriel.
Lorsque les priphriques de stockage ne prennent pas en charge ou assurent une prise en charge partielle
des oprations de l'hte, votre hte reprend ses mthodes natives pour effectuer des oprations non prises
en charge.

Acclration pour les priphriques de stockage de blocs


Avec l'acclration matrielle, votre hte peut s'intgrer aux priphriques de stockage des blocs, Fibre
Channel ou iSCSI, et utiliser des oprations de baie de stockage.
L'acclration matrielle ESXi prend en charge les oprations de baie suivantes :

258

Copie intgrale, appele galement blocs de clone ou dchargements de copie. Permet aux baies de
stockage de faire des copies intgrales de donnes l'intrieur de la baie sans que l'hte ne lise et
n'crive les donnes. Cette opration permet de rduire le temps et la charge de rseau lors du clonage
de machines virtuelles, assurant ainsi le provisionnement depuis un modle, ou la migration avec
vMotion.

Mise zro des blocs (Block zeroing), galement appele commande write same. Permet aux baies de
stockage de mettre zro un grand nombre de blocs de faon fournir un nouveau stockage allou,
exempt de donnes crites antrieurement. Cette opration permet de rduire le temps et la charge du
rseau lors de la cration de machines virtuelles et du formatage des disques virtuels.

VMware, Inc.

Chapitre 24 Acclration matrielle du stockage

Verrouillage assist par le matriel, galement appel ATS (atomic test and set). Prend en charge le
verrouillage de la machine virtuelle discrte sans utiliser les rservations SCSI. Cette opration permet
le verrouillage de disque par secteur, au lieu de tout le LUN comme pour les rservations SCSI.

Consultez votre fournisseur concernant la prise en charge de l'acclration matrielle. Certaines baies de
stockage exigent que vous activiez la prise en charge du ct stockage.
Sur votre hte, l'acclration matrielle est active par dfaut. Si votre stockage ne prend pas en charge
l'acclration matrielle, vous pouvez la dsactiver.
Outre la prise en charge de l'acclration matrielle, ESXi inclut la prise en charge du provisionnement
dynamique de baie. Pour plus d'informations, consultez Allocation dynamique des baies et banques de
donnes VMFS , page 273.

Dsactiver l'acclration matrielle pour les priphriques de stockage des


blocs dans Client Web vSphere
Sur votre hte, l'acclration matrielle pour les priphriques de stockage des blocs est active par dfaut.
Vous pouvez utiliser les paramtres avancs de Client Web vSphere pour dsactiver les oprations
d'acclration matrielle.
Comme pour tous les paramtres avancs, avant de dsactiver l'acclration matrielle, contactez l'quipe de
support technique de VMware.
Procdure
1

Accdez l'hte dans le navigateur de Client Web vSphere.

Cliquez sur longlet [Grer] , puis cliquez sur [Paramtres] .

Dans Systme, cliquez sur [Paramtres systme avancs] .

Changez la valeur de l'une des options 0 (dsactive) :


n

VMFS3.HardwareAcceleratedLocking

DataMover.HardwareAcceleratedMove

DataMover.HardwareAcceleratedInit

Gestion de l'acclration matrielle sur les priphriques de stockage des


blocs
Pour s'intgrer aux baies de stockage des blocs et pour bnficier des oprations matrielles de la baie,
vSphere utilise les extensions ESXi dsignes sous le nom d'API de stockage - Intgration de baie, autrefois
nommes VAAI.
Dans la version vSphere 5.x, ces extensions sont mises en uvre par les commandes bases sur la norme
SCSI T10. Ainsi, avec les priphriques qui prennent en charge la norme SCSI T10, votre hte ESXi peut
communiquer directement et ne ncessite pas de plug-ins VAAI.
Si le priphrique ne prend pas en charge la norme SCSI T10 ou assure une prise en charge partielle, l'ESXi
reprend l'utilisation des plug-ins VAAI, installs sur votre hte ou utilise une combinaison de commandes
SCSI T10 et de plug-ins. Les plug-ins VAAI sont spcifiques au fournisseur et peuvent tre dvelopps par
VMware ou un partenaire. Pour grer le priphrique VAAI, votre hte connecte le filtre VAAI et le plug-in
VAAI spcifique au fournisseur au priphrique.
Pour plus d'informations sur la manire de dterminer si votre stockage ncessite les plug-in VAAI ou
prend en charge l'acclration matrielle par les commandes SCSI T10, consultez le Guide de compatibilit
vSphere ou vrifiez auprs de votre fournisseur de stockage.

VMware, Inc.

259

Stockage vSphere

Vous pouvez utiliser plusieurs commandes esxcli pour interroger des priphriques de stockage pour
obtenir davantage d'informations sur la prise en charge de l'acclration matrielle. Pour les priphriques
qui ncessitent les plug-ins VAAI, les commandes de rgle de rclamation sont galement disponibles. Pour
plus d'informations sur les commandes esxcli, reportez-vous Initiation aux interfaces de ligne de commande
vSphere.

Afficher les plug-ins d'acclration matrielle et le filtre


Pour communiquer avec les priphriques ne prenant pas en charge la norme SCSI T10, votre hte utilise la
combinaison d'un filtre VAAI unique et d'un plug-in VAAI spcifique au fournisseur. Utilisez la commande
esxcli pour visualiser le filtre d'acclration matrielle et les plug-ins chargs actuellement sur votre
systme.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Excutez la commande

esxcli --server=server_name storage core plugin list --plugin-class=value.

Pour valeur, entrez l'une des options suivantes :


n

Tapez VAAI pour afficher les plug-ins.


Le rsultat de cette commande est semblable ce qui suit :
#esxcli --server=server_name storage core plugin list --plugin-class=VAAI
Plugin name Plugin class
VMW_VAAIP_EQL
VAAI
VMW_VAAIP_NETAPP
VAAI
VMW_VAAIP_CX
VAAI

Tapez Filtre pour afficher le filtre.


Le rsultat de cette commande est semblable ce qui suit :
esxcli --server=server_name storage core plugin list --plugin-class=Filter
Plugin name Plugin class
VAAI_FILTER Filter

Vrification de l'tat de prise en charge de l'acclration matrielle


Utilisez la commande esxcli pour vrifier le statut de prise en charge de l'acclration matrielle d'un
priphrique de stockage particulier.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.

260

VMware, Inc.

Chapitre 24 Acclration matrielle du stockage

Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Excutez la commande esxcli --server=server_name storage core device list -d=device_ID.


La sortie indique le statut de l'acclration matrielle, ou VAAI, lequel peut tre inconnu, pris en charge
ou non pris en charge.
# esxcli --server=server_name storage core device list -d naa.XXXXXXXXXXXX4c
naa.XXXXXXXXXXXX4c
Display Name: XXXX Fibre Channel Disk(naa.XXXXXXXXXXXX4c)
Size: 20480
Type de priphrique : Direct-Access
Multipath Plugin: NMP
XXXXXXXXXXXXXXXX
Attached Filters: VAAI_FILTER
VAAI Status: pris en charge
XXXXXXXXXXXXXXXX

Vrification des dtails de prise en charge de l'acclration matrielle


Utilisez la commande esxcli pour interroger le priphrique de stockage des blocs sur la prise en charge de
l'acclration matrielle fournies par le priphrique.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Excutez la commande

esxcli --server=server_name storage core device vaai status get -d=device_ID.

Si le priphrique est gr par un plug-in VAAI, le rsultat indique le nom du plug-in connect au
priphrique. Le rsultat indique galement le statut de prise en charge pour chaque primitive base
sur la norme SCSI T10, si disponible. Le rsultat apparat dans l'exemple suivant :
# esxcli --server=server_name storage core device vaai status get -d naa.XXXXXXXXXXXX4c
naa.XXXXXXXXXXXX4c
VAAI Plugin Name: VMW_VAAIP_SYMM
Statut ATS : pris en charge
Statut Clone : pris en charge
Statut Zro : pris en charge
Statut Suppression : non pris en charge

VMware, Inc.

261

Stockage vSphere

Liste de rgles de rclamation d'acclration matrielle


Chaque priphrique de stockage des blocs gr par un plug-in VAAI ncessite deux rgles de rclamation :
une qui spcifie le filtre d'acclration matrielle et une autre qui spcifie le plug-in d'acclration matrielle
pour le priphrique. Vous pouvez utiliser les commandes esxcli pour rpertorier le filtre d'acclration
matrielle et les rgles de rclamation du plug-in.
Procdure
1

Pour rpertorier les rgles de rclamation du filtre, excutez la commande

esxcli --server=server_name storage core claimrule list --claimrule-class=Filter.

Dans cet exemple, les rgles de rclamation du filtre spcifient les priphriques qui doivent tre
rclams par le filtre VAAI_FILTER.
# esxcli --server=server_name storage core claimrule list
Rule Class Rule
Class
Type
Plugin
Matches
Filter
65430 runtime vendor VAAI_FILTER vendor=EMC
Filter
65430 file
vendor VAAI_FILTER vendor=EMC
Filter
65431 runtime vendor VAAI_FILTER vendor=DGC
Filter
65431 file
vendor VAAI_FILTER vendor=DGC

--claimrule-class=Filter
model=SYMMETRIX
model=SYMMETRIX
model=*
model=*

Pour rpertorier les rgles de rclamation du plug-in VAAI, excutez la commande

esxcli --server=server_name storage core claimrule list --claimrule-class=VAAI.

Dans cet exemple, les rgles de rclamation VAAI spcifient les priphriques qui doivent tre rclams
par un plug-in VAAI particulier.
esxcli --server=server_name
Rule Class Rule
Class
VAAI
65430 runtime
VAAI
65430 file
VAAI
65431 runtime
VAAI
65431 file

storage
Type
diteur
vendor
vendor
vendor

core claimrule list --claimrule-class=VAAI


Plugin
Matches
VMW_VAAIP_SYMM vendor=EMC model=SYMMETRIX
VMW_VAAIP_SYMM vendor=EMC model=SYMMETRIX
VMW_VAAIP_CX
vendor=DGC model=*
VMW_VAAIP_CX
vendor=DGC model=*

Ajout de rgles de rclamation d'acclration matrielle


Pour configurer l'acclration matrielle d'une nouvelle baie, vous devez ajouter deux rgles de rclamation
(une pour le filtre VAAI et une autre pour le plug-in VAAI). Pour activer les nouvelles rgles de
rclamation, dfinissez d'abord les rgles puis chargez-les dans votre systme.
Cette procdure concerne ces priphriques de stockage des blocs qui ne prennent pas en charge les
commandes T10 SCSI et qui utilisent les plug-ins VAAI la place.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
1

Dfinissez une nouvelle rgle de rclamation pour le filtre VAAI en excutant la commande
esxcli --server=server_name storage core claimrule add --claimrule-class=Filter -plugin=VAAI_FILTER.

262

VMware, Inc.

Chapitre 24 Acclration matrielle du stockage

2
3

Dfinissez une nouvelle rgle de rclamation pour le plug-in VAAI en excutant la commande

esxcli --server=server_name storage core claimrule add --claimrule-class=VAAI.

Chargez les deux rgles de rclamation en excutant les commandes suivantes :


esxcli --server=server_name storage core claimrule load --claimrule-class=Filter
esxcli --server=server_name storage core claimrule load --claimrule-class=VAAI

Excutez la rgle de rclamation du filtre VAAI en excutant la commande

esxcli --server=server_name storage core claimrule run --claimrule-class=Filter.

REMARQUE Seules les rgles de classe de filtre doivent tre excutes. Lorsque le filtre VAAI rclame un
priphrique, il trouve automatiquement le bon plug-in VAAI auquel se relier.
Exemple : Dfinition des rgles de rclamation d'acclration matrielle
Cet exemple montre comment configurer l'acclration matrielle pour les baies IBM en utilisant le plug-in
VMW_VAAIP_T10. Utilisez la squence suivante de commandes. Pour plus d'informations sur les options
utilises par cette commande, consultez Ajout de rgles de rclamation de gestion multivoie , page 250.
# esxcli --server=server_name storage core claimrule add --claimrule-class=Filter -plugin=VAAI_FILTER --type=vendor --vendor=IBM --autoassign
# esxcli --server=server_name storage core claimrule add --claimrule-class=VAAI -plugin=VMW_VAAIP_T10 --type=vendor --vendor=IBM --autoassign
# esxcli --server=server_name storage core claimrule load --claimrule-class=Filter
# esxcli --server=server_name storage core claimrule load --claimrule-class=VAAI
# esxcli --server=server_name storage core claimrule run --claimrule-class=Filter

Suppression de rgles de rclamation d'acclration matrielle


Utilisez la commande esxcli pour supprimer les rgles de rclamation d'acclration matrielle existantes.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Excutez les commandes suivantes :


esxcli --server=server_name storage core claimrule remove -r claimrule_ID --claimruleclass=Filter
esxcli --server=server_name storage core claimrule remove -r claimrule_ID --claimruleclass=VAAI

VMware, Inc.

263

Stockage vSphere

Acclration matrielle sur les priphriques NAS


L'acclration matrielle permet votre hte de s'intgrer aux priphriques NAS et d'utiliser plusieurs
oprations matrielles que le stockage NAS fournit.
La liste suivante indique les oprations NAS prises en charge :
n

Clone de fichier complet. Cette opration est similaire au clonage de blocs VMFS except que les
priphriques NAS clonent des fichiers entiers au lieu de segments de fichiers.

Espace de rserve. Permet aux baies de stockage d'allouer de l'espace pour un fichier de disque virtuel
dans le format dynamique.
En gnral, lorsque vous crez un disque virtuel sur une banque de donnes NFS, le serveur NAS
dtermine la politique d'allocation. La politique d'allocation par dfaut sur la plupart des serveurs NAS
est dynamique et ne garantit pas le stockage de sauvegarde du fichier. Toutefois, l'opration de rserve
d'espace peut demander au priphrique NAS d'utiliser les mcanismes spcifiques au fournisseur
pour rserver un espace pour un disque virtuel. Par consquent, vous pouvez crer des disques virtuels
pais sur la banque de donnes NFS.

Clone de fichier en diffr. Permet VMware View de dcharger la cration de clones lis vers une baie
NAS.

Statistiques du fichier tendu. Permet aux baies de stockage de signaler avec prcision l'utilisation
d'espace.

Avec les priphriques de stockage NAS, l'intgration de l'acclration matrielle est mise en uvre par le
biais de plug-ins NAS spcifiques au fournisseur. Ces plug-ins sont gnralement crs par les fournisseurs
et sont distribus en tant que modules VIB par le biais d'une page Web. Aucune rgle de rclamation n'est
requise pour le fonctionnement des plug-ins.
Plusieurs outils sont disponibles pour l'installation et la mise niveau. Modules VIB. Ils incluent les
commandes esxcli et vSphere Update Manager. Pour plus d'informations, consultez la documentation Mise
niveau vSphere et Installation et administration de VMware vSphere Update Manager.

Installation du plug-In NAS


Installez, sur votre hte, les plug-ins NAS d'acclration matrielle distribus par le fournisseur.
Cette rubrique fournit un exemple d'installation du module VIB en utilisant la commande esxcli. Pour plus
d'informations, consultez la documentation Mise niveau vSphere.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
1

264

Placez votre hte en mode maintenance.

VMware, Inc.

Chapitre 24 Acclration matrielle du stockage

Dfinissez le niveau d'acceptation de l'hte :


esxcli --server=server_name software acceptance set --level=value

La commande contrle le module VIB qui est autoris sur l'hte. La valeur peut tre l'une des valeurs
suivantes :

VMwareCertified

VMwareAccepted

PartnerSupported

CommunitySupported

Installez le module VIB :


esxcli --server=server_name software vib install -v|--viburl=URL

L'URL spcifie l'URL vers le module VIB installer. http:, https:, ftp:, et le fichier : sont pris en charge.
4

Vrifiez si le plug-in est install :


esxcli --server=server_name software vib list

Redmarrez votre hte afin que l'installation s'excute.

Dsinstallation des plug-ins NAS


Pour dsinstaller un plug-in NAS, supprimez le module VIB de votre hte.
Cette rubrique explique comment dsinstaller un module VIB en utilisant la commande esxcli. Pour plus
d'informations, consultez la documentation Mise niveau vSphere.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
1

Dsinstallez le plug-in :
esxcli --server=server_name software vib remove -n|--vibname=name

Le name est le nom du module VIB supprimer.


2

Vrifiez si le plug-in est supprim :


esxcli --server=server_name software vib list

VMware, Inc.

Redmarrez votre hte pour appliquer la modification.

265

Stockage vSphere

Mise jour des plug-ins NAS


Mettez niveau les plug-ins NAS d'acclration matrielle sur votre hte lorsqu'un fournisseur de stockage
publie une nouvelle version de plug-in.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Cette rubrique explique comment mettre niveau un module VIB en utilisant la commande esxcli. Pour
plus d'informations, consultez la documentation Mise niveau vSphere.
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
1

Mettez niveau vers la nouvelle version de plug-in :


esxcli --server=server_name software vib update -v|--viburl=URL

L'URL spcifie l'URL vers le module VIB mettre niveau. http:, https:, ftp:, et le fichier : sont pris en
charge.
2

Vrifiez si la bonne version est installe :


esxcli --server=server_name software vib list

Redmarrez l'hte.

Vrification de l'tat de l'acclration matrielle pour NAS


Outre le client, vous pouvez utiliser la commande esxcli pour vrifier le statut d'acclration matrielle du
priphrique NAS.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Excutez la commande esxcli --server=server_name storage nfs list.


La colonne Acclration matrielle dans le rsultat indique le statut.

Considrations sur l'acclration matrielle


Lorsque vous utilisez la fonctionnalit d'acclration matrielle, certaines considrations s'appliquent.
Plusieurs raisons pourraient provoquer l'chec d'une opration acclre par le matriel.

266

VMware, Inc.

Chapitre 24 Acclration matrielle du stockage

Pour toute primitive que la baie ne met pas en uvre, la baie renvoie une erreur. L'erreur dclenche l'hte
ESXi pour tenter de raliser l'opration en utilisant ses mthodes natives.
Le systme de dplacement des donnes VMFS n'exploite pas les dchargements matriels et utilise plutt
un dplacement de donnes logicielles dans l'un des cas suivants :
n

Les banques de donnes VMFS source et destination ont diffrentes tailles de bloc.

Le type de fichier source est RDM et le type de fichier de destination est non RDM (fichier ordinaire).

Le type de VMDK source est eagerzeroedthick et le type de VMDK destination est dynamique.

Le VMDK source ou destination est dans le format fragment ou hberg.

La machine virtuelle source a un snapshot.

L'adresse logique et la longueur de transfert dans l'opration demande ne sont pas alignes selon
l'alignement minimum requis par le priphrique de stockage. Toutes les banques de donnes cres
avec Client Web vSphere sont alignes automatiquement.

Le VMFS a de multiples LUN ou extensions, et ces derniers sont sur diffrentes baies.

Le clonage matriel entre les baies, mme dans la mme banque de donnes VMFS, ne fonctionne pas.

VMware, Inc.

267

Stockage vSphere

268

VMware, Inc.

Provisionnement dynamique du
stockage

25

Avec l'ESXi, vous pouvez utiliser deux modles de provisionnement dynamique, au niveau de la baie et au
niveau du disque virtuel.
Le provisionnement dynamique est une mthode qui optimise l'utilisation du stockage en allouant un
espace de stockage de manire flexible, la demande. Le provisionnement dynamique s'oppose au modle
traditionnel, appel provisionnement statique. Avec le provisionnement statique, une quantit importante
d'espace de stockage est prvue l'avance en prvision des futurs besoins de stockage. Toutefois, l'espace
pourrait rester inutilis et entraner une sous-utilisation de la capacit de stockage.
Les fonctionnalits de provisionnement dynamique de VMware vous permettent d'liminer les problmes
de sous-utilisation de stockage au niveau de la banque de donnes et au niveau de la baie de stockage.
Ce chapitre aborde les rubriques suivantes :
n

Sur-abonnement de stockage , page 269

Provisionnement dynamique du disque virtuel , page 269

Allocation dynamique des baies et banques de donnes VMFS , page 273

Sur-abonnement de stockage
Le provisionnement dynamique vous permet de signaler un espace de stockage virtuel plus important que
la capacit physique relle. Cet cart peut entraner un sur-abonnement de stockage, galement appel
surprovisionnement.
Lorsque vous utilisez le provisionnement dynamique, vous devez surveiller l'utilisation actuelle du
stockage pour viter des conditions lorsque vous manquez d'espace de stockage physique.

Provisionnement dynamique du disque virtuel


Lorsque vous crez une machine virtuelle, une certaine quantit d'espace de stockage sur une banque de
donnes est alloue aux fichiers du disque virtuel.
Par dfaut, ESXi offre une mthode de provisionnement classique d'espace de stockage pour les machines
virtuelles. Cette mthode vous permet d'estimer la quantit de stockage dont la machine virtuelle aura
besoin pour tout son cycle de vie. Vous allouez ensuite une quantit fixe d'espace de stockage son disque
virtuel l'avance, par exemple, 40 Go, et vous avez tout l'espace allou au disque virtuel. Un disque virtuel
qui occupe immdiatement tout l'espace allou est appel un disque statique.
ESXi prend en charge le provisionnement dynamique pour les disques virtuels. La fonctionnalit de
provisionnement dynamique au niveau du disque vous permet de crer des disques virtuels dans un format
dynamique. Pour un disque virtuel dynamique,
ESXi alloue tout l'espace requis pour les activits actuelles et futures du disque, par exemple 40 Go.

VMware, Inc.

269

Stockage vSphere

Toutefois, le disque dynamique utilise uniquement l'espace de stockage ncessaire aux oprations initiales
du disque. Dans cet exemple, le disque provisionnement dynamique occupe uniquement 20 Go de
stockage. Alors que le disque a besoin de plus d'espace, il peut s'tendre et occuper son espace allou de
40 Go.
Figure 251. Disques virtuels statiques et dynamiques
VM 1

VM 2

STATIQUE

DYNAMIQUE
80 Go

40 Go

40 Go

40 Go

20 Go

capacit
provisionne

capacit
utilise
disques virtuels

banque de
donnes

20 Go
40 Go

propos des rgles de provisionnement des disques virtuels


Quand vous excutez certaines oprations de gestion de machine virtuelle, par exemple la cration d'un
disque virtuel, le clonage d'une machine virtuelle dans un modle ou la migration d'une machine virtuelle,
vous pouvez dsigner une rgle de provisionnement pour le fichier de disque virtuel.
Les banques de donnes NFS avec l'acclration matrielle et les banques de donnes VMFS prennent en
charge les rgles de provisionnement de disque suivantes. Dans les banques de donnes NFS qui ne
prennent pas en charge l'acclration matrielle, seul le format dynamique est disponible.

270

VMware, Inc.

Chapitre 25 Provisionnement dynamique du stockage

Vous pouvez utiliser Storage vMotion ou Storage vMotion entre htes pour convertir les disques virtuels
d'un format dans un autre.
Provisionnement
statique mis zro en
diffr

Cre un disque virtuel au format pais par dfaut. L'espace ncessaire pour
le disque virtuel est allou lors de la cration du disque. Les donnes qui
demeurent sur le priphrique physique ne sont pas effaces pendant la
cration, mais sont mises zro plus tard sur demande la premire criture
sur la machine virtuelle. Les machines virtuelles ne lisent pas les donnes
primes du disque physique.

Provisionnement
statique immdiatement
mis zro

Un type de disque virtuel statique qui prend en charge des fonctions telles
que Fault Tolerance. L'espace ncessaire au disque virtuel est allou lors de
la cration. Contrairement au format de provisionnement statique mis zro
en diffr, les donnes restantes sur le priphrique physique seront remises
zro lorsque le disque virtuel sera cr. La cration de disques virtuels dans
ce format peut tre plus longue que pour d'autres types de disques.

Provisionnement fin

Employez ce format pour conomiser de l'espace de stockage. Pour le disque


dynamique, vous fournissez la quantit d'espace de banque de donnes dont
le disque a besoin, en fonction de la valeur que vous avez indique pour la
taille de disque virtuel. Toutefois, le disque dynamique dmarre avec un
petit espace et il utilise au dbut uniquement l'espace de banque de donnes
dont il a besoin pour ses oprations initiales. Si le disque
approvisionnement en allg ncessite plus d'espace par la suite, il peut
grandir jusqu' sa capacit maximale et occuper l'intgralit de l'espace de
banque de donnes qui lui a t affect.
Le provisionnement dynamique est la mthode la plus rapide pour crer un
disque virtuel, car il cre un disque qui comprend uniquement les
informations d'en-tte. Il n'alloue pas ou ne met pas zro les blocs de
stockage. Les blocs de stockage sont allous et mis zro au premier accs.
REMARQUE Si un disque virtuel est compatible avec des solutions de mise en
cluster, telles que Fault Tolrance, ne crez pas un disque fin.
Vous pouvez gonfler manuellement le disque allou dynamiquement afin
qu'il occupe tout l'espace qui lui est allou. Si l'espace de stockage physique
est puis et que le disque allou dynamiquement ne peut crotre, la machine
virtuelle devient inutilisable.

Crer des disques virtuels allous dynamiquement dans Client Web vSphere
Pour conomiser de l'espace de stockage, vous pouvez crer un disque virtuel au format allou
dynamiquement. Le disque virtuel allou dynamiquement dmarre avec une petite taille et grandit au fur et
mesure que de l'espace disque est ncessaire. Vous pouvez crer des disques allous dynamiquement
uniquement sur les banques de donnes qui prennent en charge l'allocation dynamique au niveau du
disque.
Cette procdure suppose que vous criez une nouvelle machine virtuelle. Pour plus d'informations,
consultez la documentation Administration d'une machine virtuelle vSphere.
Procdure
1

Cliquez droit sur n'importe quel objet d'inventaire qui est un objet parent valide d'une machine
virtuelle, comme un centre de donnes, un dossier, un cluster, un pool de ressources ou un hte et
slectionnez [Nouvelle machine virtuelle.]

Slectionnez [Crer une nouvelle machine virtuelle] et cliquez sur [Suivant] .

VMware, Inc.

271

Stockage vSphere

Suivez les tapes requises pour crer une machine virtuelle.

Sur la page Personnaliser le matriel, cliquez sous l'onglet [Matriel virtuel] .

Cliquez sur le triangle [Nouveau disque dur] pour dvelopper les options du disque dur.

(Facultatif) Ajustez la taille du disque par dfaut.


Avec un disque virtuel provisionnement lger, la valeur de la taille du disque indique l'espace
provisionn et garanti sur le disque. Au dbut, le disque virtuel peut ne pas utiliser tout l'espace
provisionn et la valeur relle d'utilisation du stockage peut tre infrieure la taille du disque virtuel.

Slectionnez [Provisionnement dynamique] pour provisionner le disque.

Terminez la cration de la machine virtuelle.

Vous avez cr une machine virtuelle avec un disque au format allou dynamiquement.
Suivant
Si vous avez cr un disque virtuel au format allou dynamiquement, vous pouvez l'agrandir sa taille
totale ultrieurement.

Afficher des ressources de stockage de machine virtuelle dans


Client Web vSphere
Vous pouvez consulter comment l'espace de stockage est allou pour vos machines virtuelles.
L'utilisation du stockage affiche l'espace de banque de donnes rellement occup par les fichiers de la
machine virtuelle, y compris les fichiers de configuration et journaux, les snapshots, les disques virtuels, etc.
Lorsque la machine virtuelle est en fonctionnement, l'espace de stockage utilis comprend galement les
fichiers d'change.
Pour les machines virtuelles avec des disques allous dynamiquement, la valeur relle d'utilisation du
stockage peut tre infrieure la taille du disque virtuel.
Procdure
1

Dans Client Web vSphere, accdez la machine virtuelle.

Double-cliquez sur la machine virtuelle et cliquez sur l'onglet [Rsum] .

Vrifiez les informations d'utilisation de stockage dans la zone suprieure droite de l'onglet [Rsum] .

Dterminer le format de disque d'une machine virtuelle dans


Client Web vSphere
Vous pouvez dterminer si votre disque virtuel est au format dynamique ou pais.
Procdure
1

Dans Client Web vSphere, accdez la machine virtuelle.

Cliquez avec le bouton droit sur la machine virtuelle et slectionnez [Modifier les paramtres] .

Cliquez sur l'onglet [Matriel Virtuel] .

Cliquez sur le triangle [Disque dur] pour dvelopper les options du disque dur.
La zone de texte [Type] affiche le format de votre disque virtuel.

Suivant
Si votre disque virtuel est au format dynamique, vous pouvez le gonfler la taille normale.

272

VMware, Inc.

Chapitre 25 Provisionnement dynamique du stockage

Gonfler des disques virtuels dynamiques dans Client Web vSphere


Si vous avez cr un disque virtuel au format dynamique, vous pouvez le convertir en un disque virtuel au
format de provisionnement statique.
Procdure
1

Dans Client Web vSphere, accdez la machine virtuelle.

Double-cliquez sur la machine virtuelle.

Cliquez sur l'onglet [Objets associs] , puis cliquez sur [Banques de donnes] .
La banque de donnes slectionne stockant les fichiers de machine virtuelle est rpertorie.

Cliquez sur le lien de la banque de donnes pour ouvrir son panneau de gestion.

Cliquez sur l'onglet [Grer] , puis sur [Fichiers] .

Ouvrez le dossier de la machine virtuelle et accdez au fichier de disque virtuel que vous voulez
convertir.
Le fichier porte l'extension .vmdk et est signal par l'icne de disque virtuel (

).

Cliquez avec le bouton droit sur le fichier de disque virtuel et slectionnez [Gonfler] .

Le disque virtuel gonfl occupe la totalit de l'espace de banque de donnes qui lui a t affect l'origine.

Traitement du sur-abonnement de banque de donnes


Comme l'espace allou pour les disques lgers peut tre suprieur l'espace valid, un sur-abonnement de
la banque de donnes peut survenir, ce qui fait que l'espace total allou pour les disques de la machine
virtuelle sur la banque de donnes est suprieur la capacit relle.
Le sur-abonnement peut tre possible, car toutes les machines virtuelles disques lgers n'ont gnralement
pas besoin de tout l'espace de banque de donnes allou en mme temps. Cependant, si vous souhaitez
viter le sur-abonnement la banque de donnes, vous pouvez configurer une alarme qui vous avertit
lorsque l'espace allou atteint un certain seuil.
Pour plus d'informations sur le rglage des alarmes, consultez la documentation Gestion de vCenter Server et
des htes.
Si vos machines virtuelles ncessitent plus d'espace, l'espace de la banque de donnes est allou sur la base
du premier arriv, premier servi. Lorsque la banque de donnes manque d'espace, vous pouvez ajouter plus
de stockage physique et augmenter la banque de donnes.
Reportez-vous la section Augmenter la capacit dune banque de donnes VMFS dans Client Web
vSphere , page 155.

Allocation dynamique des baies et banques de donnes VMFS


Vous pouvez utiliser des baies de stockage allocation dynamique avec ESXi.
Les LUN traditionnelles que les baies prsentent l'hte ESXi, sont allocation dynamique. Tout l'espace
physique ncessaire pour sauvegarder chaque LUN est allou l'avance.
ESXi prend galement en charge les LUN allocation dynamique. Lorsqu'une LUN est allocation
dynamique, la baie de stockage indique la taille logique de la LUN, qui pourrait tre plus grande que la
vritable capacit physique de sauvegarde de cette LUN.

VMware, Inc.

273

Stockage vSphere

Une banque de donnes VMFS que vous dployez sur la LUN allocation dynamique ne peut dtecter que
la taille logique de la LUN. Par exemple, si la baie indique 2 To de stockage alors qu'en ralit, la baie ne
fournit que 1TB, la banque de donnes considre que 2 To est la taille de la LUN. Au fur et mesure que la
banque de donnes se dveloppe, elle ne peut pas dterminer si la quantit relle d'espace physique est
toujours suffisante pour ses besoins.
Toutefois, lorsque vous utilisez les API de stockage - Intgration des baies, l'hte peut s'intgrer au stockage
physique et prendre connaissance des LUN allocation dynamique sous-jacentes et de leur utilisation de
l'espace.
Votre hte peut effectuer les tches suivantes en utilisant l'intgration allocation dynamique :
n

Surveillez l'utilisation de l'espace sur les LUN allocation dynamique pour viter de manquer d'espace
physique. Au fur et mesure que votre banque de donnes se dveloppe ou si vous utilisez Storage
vMotion pour migrer des machines virtuelles vers une LUN allocation dynamique, l'hte
communique avec la LUN et vous signale des violations de l'espace physique et les conditions de
manque d'espace.

Informez la baie sur l'espace de la banque de donnes qui est libr lorsque des fichiers sont supprims
ou retirs de la banque de donnes par Storage vMotion. La baie peut alors rclamer les blocs d'espace
librs.

REMARQUE ESXi ne prend pas en charge l'activation et la dsactivation de l'allocation dynamique d'un
priphrique de stockage.

Spcifications
Pour utiliser la fonction de signalement, votre hte et votre baie de stockage doivent rpondre aux
conditions suivantes :
n

ESXi version 5.0 ou version ultrieure.

La baie de stockage a le microprogramme appropri qui prend en charge les API de stockage bases sur
les normes T10 - Intgration de baie (Allocation dynamique). Pour plus d'informations, contactez le
fournisseur de stockage et vrifiez l'HCL.

Surveillance de l'utilisation d'espace


La fonctionnalit de l'intgration de provisionnement dynamique vous permet de surveiller l'utilisation
d'espace sur les LUN provisionnement dynamique et d'viter de manquer d'espace.
L'exemple de flux suivant dmontre l'interaction de l'hte ESXi et de la baie de stockage qui interagissent
pour gnrer des avertissements de rupture d'espace et de manque d'espace pour une banque de donnes
avec un LUN sous-jacent provisionnement dynamique. Le mme mcanisme s'applique lorsque vous
utilisez Storage vMotion pour migrer des machines virtuelles au LUN sous-jacent provisionnement
dynamique.
1

Grce aux outils spcifiques de stockage, votre administrateur de stockage assure le provisionnement
d'un LUN dynamique et dfinit un seuil logiciel qui, lorsqu'il est atteint, dclenche une alerte. Cette
tape est spcifique au fournisseur.

l'aide de Client Web vSphere, vous crez une banque de donnes VMFS sur le LUN
provisionnement dynamique. La banque de donnes s'tend sur toute la taille logique signale par le
LUN.

tant donn que l'espace utilis par la banque de donnes augmente et atteint le seuil logiciel spcifi,
les actions suivantes ont lieu :
a

274

La baie de stockage signale la rupture votre hte.

VMware, Inc.

Chapitre 25 Provisionnement dynamique du stockage

Votre hte dclenche une alarme d'avertissement pour la banque de donnes.


Vous pouvez contacter l'administrateur de stockage pour demander plusieurs espaces physiques
ou utiliser Storage vMotion pour vacuer vos machines virtuelles avant que le LUN ne manque de
capacit.

S'il ne reste plus d'espace pour l'allocation au LUN provisionnement dynamique, les actions suivantes
ont lieu :
a

La baie de stockage signale un tat de manque d'espace votre hte.


AVERTISSEMENT Dans certains cas, quand un LUN est plein, il se peut qu'il passe hors ligne ou soit
dmapp par l'hte.

L'hte interrompt les machines virtuelles et gnre une alarme de manque d'espace.
Vous pouvez rsoudre l'tat de manque d'espace permanent en demandant plus d'espace physique
l'administrateur de stockage.

Identifier les priphriques de stockage provisionnement dynamique


Utilisez la commande esxcli pour vrifier si un priphrique de stockage particulier est provisionnement
dynamique.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Excutez la commande esxcli --server=server_name storage core device list -d=device_ID .

Le statut de provisionnement dynamique suivant indique que le priphrique est provisionnement


dynamique.
# esxcli --server=server_name storage core device list -d naa.XXXXXXXXXXXX4c
naa.XXXXXXXXXXXX4c
Display Name: XXXX Fibre Channel Disk(naa.XXXXXXXXXXXX4c)
Size: 20480
Type de priphrique : Direct-Access
Multipath Plugin: NMP
--------------------Statut provisionnement dynamique : oui
Attached Filters: VAAI_FILTER
VAAI Status: pris en charge
---------------------

Un statut inconnu indique qu'un priphrique de stockage est statique.


REMARQUE Certains systmes de stockage prsentent tous les priphriques comme tant
provisionnement dynamique que les priphriques soient dynamiques ou statiques. Leur statut de
provisionnement dynamique est toujours oui. Pour plus d'informations, consultez votre fournisseur de
stockage.

VMware, Inc.

275

Stockage vSphere

Rclamer l'espace de stockage accumul


Lorsque des banques de donnes VMFS rsident sur des LUN provisionnement dynamique, vous pouvez
utiliser la commande esxcli pour rclamer des blocs de stockage inutiliss.
Dans la procdure, --server=server_name spcifie le serveur cible. Le serveur cible spcifi vous invite
saisir un nom de serveur et un mot de passe. D'autres options de connexion, telles qu'un fichier de
configuration ou de session, sont prises en charge. Pour obtenir la liste des options de connexion, reportezvous la rubrique Initiation aux interfaces de ligne de commande vSphere.
Prrequis
Installez vCLI ou dployez la machine virtuelle vSphere Management Assistant (vMA). Reportez-vous la
section Initiation aux interfaces de ligne de commande vSphere. Pour le dpannage, excutez les commandes
esxcli dans ESXi Shell.
Procdure
u

Pour rclamer des blocs de stockage inutiliss sur la banque de donnes VMFS5 pour le priphrique
provisionnement dynamique, excutez la commande suivante :
esxcli --server=server_name storage vmfs unmap --volume-label=volume_label|--volumeuuid=volume_uuid --reclaim-unit=number

La commande accepte les options suivantes :


Option

Description

-l|--volume-label=volume_label

L'tiquette du volume VMFS dmapper. Cet argument est obligatoire. Si


vous prcisez une valeur pour cet argument, n'utilisez pas
-u|--volume-uuid=volume_uuid.

-u|--volume-uuid=volume_uuid

L'UUID du volume VMFS dmapper. Cet argument est obligatoire. Si


vous prcisez une valeur pour cet argument, n'utilisez pas
-l|--volume-label=volume_label.

-n|--reclaim-unit=number

Nombre de blocs VMFS dmapper par itration. Cet argument est


facultatif. Si vous ne prcisez rien pour cet argument, la commande utilise
la valeur par dfaut 200.

Suivant
IMPORTANT Pour de plus amples dtails, consultez l'article de la base de connaissances VMware l'adresse
http://kb.vmware.com/kb/2014849.

276

VMware, Inc.

Utilisation de fournisseurs de
stockage

26

vSphere utilise des fournisseurs de stockage pour favoriser l'intgration au stockage physique externe et aux
abstractions de stockage. L'utilisation de fournisseurs de stockage permet vSphere de mieux contrler les
ressources et d'obtenir des donnes de stockage compltes et significatives. Elle lui permet galement de
communiquer au stockage toutes les exigences bases sur les rgles de stockage que vous dfinissez pour les
machines virtuelles.
Le fournisseur de stockage est un plug-in logiciel dvelopp par un tiers au moyen de la spcification VASA
(vStorage API for Storage Awareness). Le composant du fournisseur de stockage est gnralement install
ct stockage et agit comme serveur dans l'environnement vSphere. vCenter Server utilise les fournisseurs
de stockage pour rcuprer des informations sur le stockage et pour interroger les ressources de stockage.
Ces informations aident le service de gestion bas sur des rgles de stockage (SPBM) prendre des dcisions
sur le placement et la conformit des disques virtuels.
Pour obtenir des informations permettant de dterminer si votre stockage prend en charge les plug-ins des
fournisseurs de stockage, contactez votre fournisseur de stockage.
Si votre stockage prend en charge les fournisseurs de stockage, utilisez Client Web vSphere pour enregistrer
et grer chaque composant de fournisseur de stockage.
Ce chapitre aborde les rubriques suivantes :
n

Fournisseurs de stockage et reprsentation des donnes de stockage , page 277

Exigences et considrations relatives au fournisseur de stockage , page 278

Rapport de l'tat de stockage , page 279

Enregistrement des fournisseurs de stockage , page 279

Scurisation de la communication avec les fournisseurs de stockage , page 280

Afficher les informations des fournisseurs de stockage dans Client Web vSphere , page 280

Annuler l'enregistrement des fournisseurs de stockage dans Client Web vSphere , page 281

Mettre jour les fournisseurs de stockage dans Client Web vSphere , page 281

Fournisseurs de stockage et reprsentation des donnes de stockage


vCenter Server communique avec le fournisseur de stockage pour obtenir les informations que le
fournisseur collecte depuis les priphriques de stockage disponibles. vCenter Server peut alors afficher les
donnes de stockage dans Client Web vSphere.
Les informations fournies par le fournisseur de stockage peuvent tre classes dans les catgories suivantes :
n

VMware, Inc.

Topologie de stockage Les informations sur les lments de stockage physique apparaissent sur l'onglet
Vues du stockage. Elles incluent des donnes telles que celles des baies de stockage, les ID de baie, etc.

277

Stockage vSphere

Ce type d'information peut tre utile lorsque vous devez suivre la configuration et les relations machine
virtuelle--stockage, ou identifier les modifications de la configuration du stockage physique.
Pour plus informations, consultez la documentation Surveillance et performances vSphere.
n

Capacits de stockage. Le fournisseur de stockage collecte et communique les informations sur les
capacits physiques et les services offerts par le stockage sous-jacent.
Ces informations peuvent tre utiles lorsque, par exemple, vous devez agrger correctement le stockage
en niveaux, ou slectionner le bon stockage, en termes d'espace et de performances, pour une machine
virtuelle particulire.
Les capacits apparaissent sur la liste des capacits de stockage dfinies par le systme. Pour des
dtails, veuillez vous reporter la section Prsentation des capacits de stockage , page 211.

tat du stockage. Cette catgorie inclut la gnration de rapport sur l'tat des diverses entits de
stockage. Elle inclut galement les alarmes et les vnements de notification des modifications de
configuration.
Ce type d'information peut vous permettre de dpanner des problmes de connectivit et de
performance de stockage. Par ailleurs, il peut vous aider mettre en corrlation des alarmes et des
vnements gnrs par une baie aux changements correspondants de performance et de charge sur la
baie.

Exigences et considrations relatives au fournisseur de stockage


Lorsque vous utilisez la fonctionnalit Fournisseur de stockage, certaines exigences et considrations
s'appliquent.
La fonctionnalit Fournisseur de stockage est mise en uvre comme une extension du service de
surveillance du stockage de VMware vCenter. Dans la mesure o ce service fait partie de vCenter Server, la
fonctionnalit Fournisseur de stockage ne ncessite aucune installation ou activation spciale du ct de
vCenter Server.
Pour utiliser des fournisseurs de stockage, respectez les exigences suivantes :
n

vCenter Server version 5.0 ou ultrieure.

Htes ESX/ESXi version 4.0 ou ultrieure.

Baies de stockage prenant en charge les plug-ins API de stockage - Storage Awareness. Le composant
du fournisseur de stockage doit tre install ct stockage. Consultez le Guide de compatibilit vSphere ou
vrifiez auprs de votre fournisseur de stockage.

REMARQUE Fibre Channel over Ethernet (FCoE) ne prend pas en charge les fournisseurs de stockage.
Les considrations suivantes s'appliquent lorsque vous utilisez les fournisseurs de stockage :

278

Les priphriques de stockage par blocs et de stockage de systme de fichiers peuvent utiliser des
fournisseurs de stockage.

Les fournisseurs de stockage peuvent s'excuter partout, sauf dans vCenter Server.

Plusieurs systmes vCenter Server peuvent se connecter simultanment une seule instance d'un
fournisseur de stockage.

Un seul systme vCenter Server peut se connecter simultanment de multiples et diffrents


fournisseurs de stockage. Il est possible de disposer d'un fournisseur de stockage diffrent pour chaque
type de priphrique de stockage physique disponible sur votre hte.

VMware, Inc.

Chapitre 26 Utilisation de fournisseurs de stockage

Rapport de l'tat de stockage


Si vous utilisez des fournisseurs de stockage, vCenter Server peut collecter les caractristiques de l'tat des
priphriques de stockage physiques et afficher ces informations dans Client Web vSphere.
Les informations de l'tat incluent les vnements et les alarmes.
n

Les vnements indiquent d'importants changements de configuration du stockage. Ces changements


pourraient inclure la cration et la suppression d'un LUN, ou l'inaccessibilit d'un LUN en raison du
masquage de LUN.

Les alarmes indiquent un changement de disponibilit du systme de stockage. Par exemple, lorsque
vous utilisez la gestion du stockage bas sur un profil, vous pouvez spcifier les conditions requises de
stockage de la machine virtuelle. Lorsque des changements du stockage se produisent et pourraient
violer les conditions requises de stockage de la machine virtuelle, une alarme se dclenche.

Pour plus d'informations sur les vnements et les alarmes, consultez la documentation Surveillance et
performances vSphere.
Des conditions spciales de rapport sont imposes sur les LUN provisionnement dynamique. Pour plus
d'informations sur la surveillance d'espace sur les LUN provisionnement dynamique, consultez
Allocation dynamique des baies et banques de donnes VMFS , page 273.

Enregistrement des fournisseurs de stockage


Pour tablir une connexion entre vCenter Server et un fournisseur de stockage, vous devez enregistrer ce
fournisseur de stockage.
REMARQUE Si vous utilisez le rseau SAN virtuel, les fournisseurs de stockage de ce dernier sont enregistrs
et s'affichent automatiquement sur la liste des fournisseurs de stockage. Reportez-vous la section
Afficher les fournisseurs de stockage du rseau SAN virtuel , page 205. Si vous avez besoin de supprimer
des fournisseurs de stockage du rseau SAN virtuel ou d'en annuler l'enregistrement des fins de
dpannage, vous pouvez utiliser cette procdure pour les enregistrer manuellement. Assurez-vous
d'enregistrer un fournisseur de stockage distinct pour chaque hte du cluster.
Prrequis
Vrifiez que le composant de fournisseur de stockage est install sur le ct stockage et obtenez ses
informations d'identification auprs de votre administrateur de stockage.
Procdure
1

Accdez au vCenter Server dans le navigateur de Client Web vSphere.

Cliquez sur l'onglet [Grer] , puis cliquez sur [Fournisseurs de stockage] .

Cliquez sur l'icne [Enregistrer un nouveau fournisseur de stockage] .

Saisissez les informations de connexion du fournisseur de stockage, notamment son nom, son URL et
ses donnes d'identification.
Pour le fournisseur de stockage du rseau SAN virtuel, entrez une URL distincte pour chaque hte
participant au cluster.

VMware, Inc.

279

Stockage vSphere

http://host_ip:8080/version.xml, o host_ip est l'adresse IP relle de l'hte.

REMARQUE Le fournisseur de stockage du rseau SAN virtuel est un fournisseur non SSL. Cela signifie
que le trafic entre SMS et le fournisseur de stockage du rseau SAN virtuel n'a pas besoin d'tre scuris
par un nom d'utilisateur et un mot de passe valides. Cependant, lors de l'enregistrement du fournisseur
du rseau SAN virtuel, vous devez fournir des valeurs pour les champs Nom d'utilisateur et Mot de
passe, car ils sont obligatoires dans la bote de dialogue d'enregistrement. Toutes les valeurs sont
acceptes, car le fournisseur de stockage du rseau SAN virtuel n'effectue aucune validation relle et
ignore ces informations d'identification.
5

(Facultatif) Pour diriger vCenter Server vers le certificat du fournisseur de stockage, slectionnez
l'option [Utiliser le certificat du fournisseur de stockage] et indiquez son emplacement.
Si vous ne slectionnez pas cette option, une empreinte du certificat s'affiche. Vous pouvez vrifier
l'empreinte et la valider.
Cette tape n'est pas valide pour le rseau SAN virtuel et elle est facultative pour tous les autres types
de fournisseurs de stockage.

Cliquez sur [OK] pour terminer l'enregistrement.

vCenter Server a enregistr le fournisseur de stockage et a tabli une connexion SSL scurise avec lui.

Scurisation de la communication avec les fournisseurs de stockage


Pour communiquer avec un fournisseur de stockage, vCenter Server utilise une connexion SSL scurise. Le
mcanisme d'authentification SSL impose que les deux parties, vCenter Server et le fournisseur de stockage,
changent des certificats SSL et les ajoutent leurs magasins d'approbations.
vCenter Server peut ajouter le certificat du fournisseur de stockage son magasin d'approbations dans le
cadre de l'installation du fournisseur de stockage. Si le certificat n'est pas ajout durant l'installation, utilisez
l'une des mthodes suivantes pour l'ajouter lors de l'enregistrement du fournisseur de stockage :
n

Dirigez vCenter Server vers le certificat du fournisseur de stockage. Dans la bote de dialogue
[Nouveau fournisseur de stockage] , slectionnez l'option [Utilisez le certificat du fournisseur de
stockage] et spcifiez l'emplacement du certificat.

Utilisez une empreinte du certificat du fournisseur de stockage. Si vous ne demandez pas au


vCenter Server d'utiliser le certificat du fournisseur, l'empreinte du certificat s'affiche. Vous pouvez
vrifier l'empreinte et la valider. Le vCenter Server ajoute le certificat au magasin d'approbations et
procde la connexion.

Le fournisseur de stockage ajoute le certificat vCenter Server son magasin d'approbations lorsque vCenter
Server se connecte au fournisseur.

Afficher les informations des fournisseurs de stockage dans


Client Web vSphere
Ds que vous enregistrez un composant d'un fournisseur de stockage dans vCenter Server, ce fournisseur
apparat dans la liste des fournisseurs de stockage.
Afficher les informations gnrales de fournisseur de stockage et les informations dtailles de chaque
composant de stockage.
Procdure

280

Accdez au vCenter Server dans le navigateur de Client Web vSphere.

Cliquez sur l'onglet [Grer] , puis cliquez sur [Fournisseurs de stockage] .

VMware, Inc.

Chapitre 26 Utilisation de fournisseurs de stockage

Dans la liste Fournisseurs de stockage, affichez les composants de fournisseur de stockage enregistrs
dans vCenter Server.
La liste affiche les informations de distributeur gnrales, notamment le nom, l'URL et l'heure de la
dernire actualisation de la vue.

Pour afficher des informations supplmentaires, slectionnez un fournisseur de stockage spcifique


dans la liste.
Ces informations comprennent les fabricants de baies de stockage et les modles de baies que ce
fournisseur prend en charge.
REMARQUE Un mme fournisseur de stockage peut prendre en charge les baies de stockage de plusieurs
distributeurs diffrents.

Annuler l'enregistrement des fournisseurs de stockage dans


Client Web vSphere
Annulez l'enregistrement des fournisseurs de stockage dont vous n'avez plus besoin.
Procdure
1

Accdez au vCenter Server dans le navigateur de Client Web vSphere.

Cliquez sur l'onglet [Grer] , puis cliquez sur [Fournisseurs de stockage] .

Dans la liste des fournisseurs de stockage, slectionnez celui dont vous voulez annuler l'enregistrement
et cliquez sur l'icne [Annuler l'enregistrement du fournisseur de stockage] .

vCenter Server met fin la connexion et supprime ce fournisseur de stockage de sa configuration.

Mettre jour les fournisseurs de stockage dans Client Web vSphere


vCenter Server met jour rgulirement les donnes de stockage dans sa base de donnes. Les mises jour
sont partielles et refltent uniquement les modifications de stockage que les fournisseurs de stockage
communiquent vCenter Server. Lorsque cela est ncessaire, vous pouvez excuter une synchronisation de
base de donnes complte pour le fournisseur de stockage slectionn.
Procdure
1

Accdez au vCenter Server dans le navigateur de Client Web vSphere.

Cliquez sur l'onglet [Grer] , puis cliquez sur [Fournisseurs de stockage] .

Dans la liste, slectionnez le fournisseur de stockage avec lequel vous voulez vous synchroniser et
cliquez sur l'icne [Ranalyser le fournisseur de stockage] .

Client Web vSphere met jour les donnes de stockage de ce fournisseur.

VMware, Inc.

281

Stockage vSphere

282

VMware, Inc.

Utilisation de vmkfstools

27

vmkfstools est l'une des commandes ESXi Shell de gestion des volumes VMFS et des disques virtuels. Vous
pouvez effectuer de nombreuses oprations de stockage en utilisant la commande vmkfstools. Par exemple,

vous pouvez crer et grer les banques de donnes VMFS sur une partition physique ou manipuler des
fichiers de disque virtuel, stocks sur des banques de donnes VMFS ou NFS.

REMARQUE Aprs une modification avec vmkfstools, Client Web vSphere risque de ne pas tre mis jour
immdiatement. Vous devez effectuer une opration d'actualisation ou de ranalyse depuis le client.
Pour plus d'informations sur ESXi Shell, consultez Initiation aux interfaces de ligne de commande vSphere.
Ce chapitre aborde les rubriques suivantes :
n

Syntaxe des commandes vmkfstools , page 283

Options vmkfstools , page 284

Syntaxe des commandes vmkfstools


En rgle gnrale, vous n'avez pas besoin de vous connecter en tant qu'utilisateur racine pour pouvoir
excuter les commandes vmkfstools. Toutefois, certaines commandes (telles que les commandes de systme
de fichiers) peuvent ncessiter une connexion d'utilisateur racine.
La commande vmkfstools prend en charge la syntaxe de la commande suivante :
vmkfstools conn_options options target.

La cible spcifie une partition, un dispositif ou un chemin pour y appliquer l'option de commande.
Tableau 271. Arguments de commande vmkfstools
Argument

Description

options

Une ou plusieurs options de ligne de commande et arguments associs, utiliss


pour spcifier l'activit de vmkfstools : choix du format de disque lors de la
cration d'un disque virtuel, par exemple.
Aprs avoir entr cette option, vous devez spcifier une cible sur laquelle
l'opration sera effectue. La cible peut indiquer une partition, un priphrique
ou un chemin.

partition

Spcifie les partitions de disque. Cet argument utilise un format disk_ID:P, o


disk_ID correspond l'ID de priphrique renvoy par la baie de stockage et P
correspond un nombre entier reprsentant le numro de partition. Le numro
de partition doit tre suprieur zro (0) et correspondre une partition VMFS
valide.

VMware, Inc.

283

Stockage vSphere

Tableau 271. Arguments de commande vmkfstools (suite)


Argument

Description

priphrique

Spcifie les priphriques ou les volumes logiques. Cet argument utilise un nom
de chemin du systme de fichiers du priphrique ESXi. Il commence
par /vmfs/devices, ce qui correspond au point de montage du systme de
fichier du priphrique.
Lorsque vous spcifiez diffrents types de priphriques, utilisez les formats
suivants :
n

chemin

/vmfs/devices/disks pour les disques locaux ou SAN.

/vmfs/devices/lvm pour les volumes logiques ESXi.

/vmfs/devices/generic pour les priphriques SCSI gnriques.

Spcifie un fichier ou un systme de fichiers VMFS. Cet argument est un chemin


absolu ou relatif dsignant un lien symbolique d'accs un rpertoire, un
mappage de priphrique brut ou un fichier situ sous /vmfs.
n Pour spcifier un systme de fichiers VMFS, utilisez le format suivant :
/vmfs/volumes/file_system_UUID
ou
n

/vmfs/volumes/file_system_label
Pour spcifier un fichier sur une banque de donnes VMFS, utilisez ce
format :
/vmfs/volumes/file_system_label|
file_system_UUID/[dir]/myDisk.vmdk
Il est inutile d'entrer le chemin d'accs complet si l'inventaire de travail en
cours d'utilisation est l'inventaire parent de myDisk.vmdk.

Options vmkfstools
La commande vmkfstools se compose de diffrentes options. Certaines d'entre elles s'adressent uniquement
aux utilisateurs avancs.
Vous pouvez spcifier le format long ou le format lettre unique, au choix. Par exemple, les commandes
suivantes sont identiques :
vmkfstools --createfs vmfs5 --blocksize 1m disk_ID:P
vmkfstools -C vmfs5 -b 1m disk_ID:P

Sous-option -v
La sous-option -v indique le niveau de verbosit du rsultat de la commande.
Le format de cette sous-option est le suivant :
-v --verbose number

Pour spcifier la valeur number, utilisez un nombre entier compris entre 1 et 10.
Vous pouvez spcifier la valeur de la sous-option -v via l'option vmkfstools de votre choix. Si le rsultat de
l'option n'est pas utilisable avec la sous-option -v, vmkfstools ignore -v.
REMARQUE Puisque vous pouvez inclure la sous-option -v dans toute ligne de commande vmkfstools, -v
n'est pas mentionne dans les descriptions d'options.

284

VMware, Inc.

Chapitre 27 Utilisation de vmkfstools

Options de systme de fichiers


Les options de systme de fichiers vous permettent de crer et grer les banques de donnes VMFS. Ces
options ne s'appliquent pas NFS. Vous pouvez excuter un grand nombre de ces tches via
Client Web vSphere.

Liste d'attributs d'un volume VMFS


Pour rpertorier les attributs applicables un volume VMFS, utilisez la commande vmkfstools.
-P --queryfs
-h --humanreadable

Lorsque vous utilisez cette option pour un fichier ou rpertoire de volume VMFS, l'option rpertorie les
attributs du volume spcifi. Les attributs rpertoris incluent l'tiquette du systme de fichiers, le nombre
d'extensions comprenant le volume VMFS spcifi, l'tiquette de volume (le cas chant), l'UUID et la liste
des noms de priphriques sur lesquels rside chaque extension.
REMARQUE Si l'un des priphriques hbergeant le systme de fichiers VMFS est mis hors tension, le nombre
d'extension et l'espace disponible sont modifis en consquence.
Vous pouvez spcifier la valeur de la sous-option -h via l'option -P. Dans ce cas, vmkfstools indique la
capacit du volume sous une forme plus lisible (par exemple 5k, 12.1M, ou 2.1G).

Crer une banque de donnes VMFS


Utilisez la commande vmkfstools pour crer une banque de donne VMFS.
-C --createfs [vmfs3|vmfs5]
-b --blocksize block_sizekK|mM
-S --setfsname datastore

Cette option permet de crer un VMFS3 ou une banque de donnes VMFS5 sur la partition SCSI spcifie,
comme par exemple disk_ID:P. Cette partition devient alors la partition principale du systme de fichiers.
REMARQUE Utilisez l'option VMFS3 lorsque les htes hrits doivent accder la banque de donnes.
Vous pouvez spcifier les sous-options suivantes avec l'option -C :
n

-b --blocksize Dfinissez la taille du bloc pour la banque de donnes VMFS.

Pour VMFS5, la taille du seul bloc disponible est 1 Mo. Pour VMFS3, la taille de bloc par dfaut est de
1 Mo. La taille du bloc peut tre de 1 Mo, 2 Mo, 4 Mo et de 8 Mo, en fonction de vos besoins. Lorsque
vous entrez la taille, indiquez le type d'unit en ajoutant un suffixe, tel qu'un m ou un M. Le type
d'unit ne respecte pas la casse.
n

-S --setfsname Dfinissez l'tiquette d'un volume de la banque de donnes VMFS que vous tes en
train de crer. Vous ne devez utiliser cette sous-option qu'avec l'option -C. L'tiquette spcifie peut
comporter au maximum 128 caractres ; elle ne doit pas contenir d'espaces au dbut ou la fin.

REMARQUE vCenter Server prend en charge la limite de 80 caractres pour toutes ses entits. Si le nom
d'une banque de donnes excde cette limite, le nom est raccourci lorsque vous ajoutez cette banque de
donnes vCenter Server.
Une fois que vous avez dfini une tiquette de volume, vous pouvez l'utiliser lorsque vous spcifiez la
banque de donnes VMFS pour la commande vmkfstools. L'tiquette de volume apparat dans les listes
gnres pour la commande ls -l et sous forme de lien symbolique d'accs au volume VMFS dans
l'inventaire /vmfs/volumes.

VMware, Inc.

285

Stockage vSphere

Pour modifier l'tiquette de volume VMFS, utilisez la commande ln -sf. En voici un exemple :
ln -sf /vmfs/volumes/UUID /vmfs/volumes/datastore

datastore correspond la nouvelle tiquette de volume utiliser pour le VMFS UUID.


REMARQUE Si votre hte est enregistr auprs du vCenter Server, tous les changements apports
l'tiquette de volume VMFS sont crass par vCenter Server. C'est une garantie que l'tiquette VMFS est
cohrente pour tous les htes vCenter Server.

Exemple de cration d'un systme de fichiers VMFS


Cet exemple illustre la cration d'une nouvelle banque de donnes VMFS nomme my_vmfs sur la partition

naa.ID:1. La taille de bloc de ce systme de fichiers est gale 1 Mo.

vmkfstools -C vmfs5 -b 1m -S my_vmfs /vmfs/devices/disks/naa.ID:1

Extension d'un Volume existant VMFS


Pour ajouter une extension un volume VMFS, utilisez la commande vmkfstools.
-Z --spanfs span_partition head_partition

Cette option permet d'ajouter une extension au systme de fichiers VMFS en l'tendant sur la partition
principale spcifie grce span_partition. Vous devez spcifier le chemin complet, par
exemple /vmfs/devices/disks/disk_ID:1. Chaque fois que vous utilisez cette option, vous ajoutez une
extension un volume VMFS, qui s'tend alors sur plusieurs partitions.
AVERTISSEMENT Lorsque vous utilisez cette option, vous perdez les donnes prsentes sur le priphrique
SCSI spcifi dans span_partition .

Exemple d'extension d'un Volume VMFS


Cet exemple illustre l'extension du systme de fichiers logiques sur une nouvelle partition.
vmkfstools -Z /vmfs/devices/disks/naa.disk_ID_2:1 /vmfs/devices/disks/naa.disk_ID_1:1

Le systme de fichiers s'tend dsormais sur deux partitionsnaa.disk_ID_1:1 et naa.disk_ID_2:1. Dans cet
exemple, naa.disk_ID_1:1 correspond au nom de la partition principale.

Agrandissement d'une extension existante


Au lieu d'ajouter une nouvelle extension une banque de donnes VMFS, vous pouvez agrandir une
extension existante en utilisant la commande vmkfstools -G.
Utilisez l'option suivante pour augmenter la taille d'une banque de donnes VMFS aprs l'augmentation de
la capacit du stockage sous-jacent.
-G --growfs device device

Cette option permet d'agrandir une banque de donnes VMFS existante ou son extension. Par exemple,
vmkfstools --growfs /vmfs/devices/disks/disk_ID:1 /vmfs/devices/disks/disk_ID:1

Mettre niveau une Banque de donnes VMFS


Vous pouvez mettre niveau une banque de donnes VMFS3 vers VMFS5.
AVERTISSEMENT La mise niveau est un processus unilatral. Aprs avoir converti une banque de donnes
VMFS3 en VMFS5, vous ne pouvez pas revenir en arrire.

286

VMware, Inc.

Chapitre 27 Utilisation de vmkfstools

Lors de la mise niveau de la banque de donnes, utilisez la commande suivante : vmkfstools -T|--

upgradevmfs /vmfs/volumes/UUID

REMARQUE Tous les htes accdant la banque de donnes doivent prendre en charge VMFS5 . Si un hte
ESX/ESXi version 4.x ou antrieure utilise la banque de donnes VMFS3, la mise niveau choue et l'adresse
mac de l'hte s'affiche, avec les dtails de l'adresse Mac de l'hte qui utilise activement la Banque de
donnes

Options de disque virtuel


Les options de disque virtuel permettent de configurer, migrer et grer les disques virtuels stocks dans les
systmes de fichiers VMFS et NFS. Vous pouvez galement excuter un grand nombre de ces tches via
Client Web vSphere.

Formats de disque pris en charge


Lorsque vous crez ou clonez un disque virtuel, vous pouvez utiliser la sous-option -d --diskformat pour
spcifier le format du disque.
Vous avez le choix entre les formats suivants :
n

zeroedthick (valeur par dfaut) L'espace requis pour le disque virtuel est allou au cours de la
cration. Toutes les donnes qui demeurent sur le priphrique physique ne sont pas mises zro
pendant la cration, mais sont mises zro sur demande la premire criture sur la machine virtuelle.
La machine virtuelle ne lit pas les donnes caduques du disque.

eagerzeroedthick L'espace requis pour le disque virtuel est allou pendant la cration. Contrairement
au format zeroedthick, les donnes qui demeurent sur le priphrique physique sont mises zro

pendant la cration. La cration de disques ce format peut tre plus longue que pour d'autres types de
disques.

thin Disque virtuel lger. Contrairement au format thick, l'espace requis pour le disque virtuel n'est

pas allou pendant la cration, mais il est fourni ultrieurement, sur demande.

rdm:device Mappage du disque brut en mode compatibilit virtuelle.

rdmp:device Mappage du disque brut en mode compatibilit physique (mulation).

2gbsparse Disque clairsem possdant une taille d'extension maximale de 2 Go. Vous pouvez utiliser

des disques dans ce format avec des produits VMware hbergs, tels que VMware Fusion, Player,
Server ou Workstation. Toutefois, vous ne pouvez pas utiliser un disque clairsem sur un hte ESXi,
sauf si vous avez pralablement rimport le disque l'aide de vmkfstools en utilisant un format
compatible tel que statique ou dynamique.
Reportez-vous la section Migrer les machines virtuelles entre diffrents produits VMware ,
page 289.

Formats de disque NFS


Les seuls formats de disque pouvant tre utiliss pour NFS sont les suivants : dynamique, statique,
zeroedthick et 2gbsparse.
Les formats statique, zeroedthick et dynamique se comportent gnralement de la mme manire parce que
le serveur NFS et non pas l'hte ESXi dtermine la rgle d'allocation. Sur la plupart des serveurs NFS, la
rgle d'allocation par dfaut est thin. Toutefois, sur les serveurs NFS qui prennent en charge les API de
stockage - Intgration de baie, vous pouvez crer des disques virtuels dans le format zeroedthick.
L'opration d'espace de rserve permet aux serveurs NFS d'allouer et de garantir de l'espace.
Pour plus d'informations sur les API d'intgration de baie, consultez Chapitre 24, Acclration matrielle
du stockage , page 257.

VMware, Inc.

287

Stockage vSphere

Cration d'un disque virtuel


Pour crer un disque virtuel, utilisez la commande vmkfstools.
-c --createvirtualdisk size[kK|mM|gG]
-a --adaptertype [buslogic|lsilogic|ide|lsisas|pvscsi] srcfile
-d --diskformat [thin|zeroedthick|eagerzeroedthick]

Cette option permet de crer un disque virtuel l'emplacement spcifi d'une banque de donnes Spcifiez
la taille du disque virtuel. Lorsque vous entrez la valeur du paramtre size, vous pouvez indiquer le type
d'unit via l'ajout d'un suffixe k (kilo-octets), m (mga-octets) ou g (giga-octets). Le type d'unit ne respecte
pas la casse. vmkfstools considre que k et K signifient kilo-octets. Si vous ne spcifiez aucun type d'unit,
vmkfstools utilise les octets par dfaut.
Vous pouvez spcifier les sous-options suivantes avec l'option -c.
n

-a spcifie le contrleur utilis par la machine virtuelle pour communiquer avec les disques virtuels.
Vous pouvez choisir entre BusLogic, LSI Logic, IDE, LSI Logic SAS et VMware Paravirtual SCSI.

-d permet de spcifier les formats de disque.

Exemple de cration de disque virtuel


Cet exemple illustre la cration d'un fichier de disque virtuel (d'une taille de deux giga-octets) appel

rh6.2.vmdk sur le systme de fichiers VMFS myVMFS. Ce fichier reprsente un disque virtuel vide auquel les

machines virtuelles peuvent accder.

vmkfstools -c 2048m /vmfs/volumes/myVMFS/rh6.2.vmdk

Initialisation d'un disque virtuel


Pour initialiser un disque virtuel, utilisez la commande vmkfstools.
-w --writezeros

Cette option permet de nettoyer le disque virtuel en inscrivant des zros sur toutes les donnes qu'il
contient. En fonction de la taille de votre disque virtuel et de la bande passante d'E/S utilise pour le
priphrique hbergeant le disque virtuel, l'excution de cette commande peut tre plus ou moins longue.
AVERTISSEMENT Lorsque vous utilisez cette commande, vous perdez les donnes prsentes sur le disque
virtuel.

Gonflage d'un disque virtuel lger


Pour gonfler un disque virtuel lger, utilisez la commande vmkfstools.
-j --inflatedisk

Cette option permet de convertir un disque virtuel lger (thin) en disque eagerzeroedthick, tout en
prservant la totalit des donnes existantes. Cette option permet d'allouer les blocs qui ne l'ont pas encore
t et de les mettre zro.

Suppression de blocs mis zro


Pour convertir des disques virtuels lgers zeroedthick ou eagerzeroedthick en disques lgers avec
suppression des blocs mis zro, utilisez la commande vmkfstools.
-K --punchzero

Cette option permet de supprimer l'allocation de tous les blocs mis zro, en conservant uniquement ceux
qui ont t allous prcdemment et qui contiennent des donnes. Le format du disque virtuel ainsi obtenu
est le format de disque lger.

288

VMware, Inc.

Chapitre 27 Utilisation de vmkfstools

Conversion d'un disque virtuel Zeroedthick en disque Eagerzeroedthick


Pour convertir un disque virtuel zeroedthick en disque eagerzeroedthick, utilisez la commande vmkfstools.
-k --eagerzero

Outre la conversion, cette option permet de prserver les donnes prsentes sur le disque virtuel.

Suppression d'un disque virtuel


Cette option supprime un fichier de disque virtuel l'emplacement spcifi du volume VMFS.
-U --deletevirtualdisk

Affectation d'un nouveau nom un disque virtuel


Cette option permet de renommer un disque virtuel l'emplacement spcifi d'un volume VMFS.
Vous devez spcifier le nom de fichier ou le chemin d'origine (oldName) et le nouveau nom de fichier ou le
nouveau chemin (newName).
-E --renamevirtualdisk oldName newName

Clonage d'un disque virtuel ou d'un RDM


Cette option permet de crer la copie d'un disque virtuel ou d'un disque brut spcifi.
-i --clonevirtualdisk srcfile -d --diskformat [zeroedthick|thin|eagerzeroedthick|rdm:device|
rdmp:device|2gbsparse]

Vous pouvez utiliser la sous-option -d|--diskformat pour spcifier le format de disque utiliser pour la
copie cre. Les utilisateurs autres que racine ne sont pas autoriss effectuer le clonage de disques virtuels
ou de RDM.

Exemple de clonage de disque virtuel


Cet exemple illustre le clonage du contenu d'un disque virtuel matre du rfrentiel templates vers un
fichier de disque virtuel nomm myOS.vmdk, situ sur le systme de fichiers myVMFS.
vmkfstools -i /vmfs/volumes/myVMFS/templates/gold-master.vmdk /vmfs/volumes/myVMFS/myOS.vmdk

Vous pouvez configurer une machine virtuelle en vue de l'utilisation de ce disque : pour cela, ajoutez les
lignes correspondantes au fichier de configuration de la machine virtuelle, comme indiqu dans l'exemple
suivant :
scsi0:0.present = TRUE
scsi0:0.fileName = /vmfs/volumes/myVMFS/myOS.vmdk

Migrer les machines virtuelles entre diffrents produitsVMware


En gnral, vous utilisez VMware Converter pour migrer les machines virtuelles d'autres produits VMware
vers votre systme ESXi. Toutefois, vous pouvez utiliser la commande vmkfstools -i pour importer des
disques virtuels au format 2gbsparse dans l'ESXi puis connecter ce disque une nouvelle VM que vous
crez dans ESXi.
Vous devez commencer par importer le disque virtuel, car vous ne pouvez pas utiliser les disques exports
au format 2gbsparse sur un hte ESXi.

VMware, Inc.

289

Stockage vSphere

Procdure
1

Importez un disque au format 2gbsparse dans l'hte ESXi en excutant la commande suivante. Veillez
slectionner le format de disque compatible avec ESXi.
vmkfstools -i <input> <output> -d <format>

Utilisez Client Web vSphere pour attacher le disque que vous avez import sur une machine virtuelle
dans ESXi.
Pour de plus amples informations, reportez-vous au Administration d'une machine virtuelle vSphere.

Extension d'un disque virtuel


Aprs la cration d'une machine virtuelle, cette option permet d'en augmenter la taille.
-X --extendvirtualdisk newSize [kK|mM|gG]

Avant d'entrer cette commande, vous devez mettre hors tension la machine virtuelle qui utilise ce fichier de
disque. Vous devrez peut-tre mettre niveau le systme de fichiers du disque, afin que le systme
d'exploitation invit puisse reconnatre et utiliser la nouvelle taille de disque (et donc l'espace disponible
supplmentaire).
REMARQUE Vous ne pouvez pas tendre chaud des disques SATA virtuels, ou tout disque virtuel si la
capacit aprs extension est gale ou suprieure 2 To.
Vous pouvez spcifier la valeur du paramtre newSize en kilo-octets, en mga-octets ou en giga-octets : pour
cela, ajoutez un suffixe k (kilo-octets), m (mga-octets) ou g (giga-octets). Le type d'unit ne respecte pas la
casse. vmkfstools considre que k et K signifient kilo-octets. Si vous ne spcifiez aucun type d'unit,
vmkfstools utilise par dfaut les kilo-octets.
Le paramtre newSize dfinit la nouvelle taille totale (et pas uniquement l'incrment ajout au disque).
Par exemple, pour tendre un disque virtuel de 4 Go d'1 Go, entrez : vmkfstools -X 5g disk name.
Vous pouvez tendre le disque virtuel au format eagerzeroedthick en utilisant l'option -d

eagerzeroedthick.

REMARQUE N'tendez pas le disque de base d'une machine virtuelle associe des snapshots. En effet, cela
vous empcherait de valider les snapshots ou de restaurer la taille d'origine du disque de base.

Mise niveau des disques virtuels


Cette option permet de convertir le fichier de disque virtuel spcifi au format ESX Server 2 en format ESXi.
-M --migratevirtualdisk

Cration d'un mappage de priphrique brut en mode de compatibilit virtuelle


Cette option permet de crer un fichier de mappage de priphrique brut (RDM) sur un volume et de
mapper un LUN brut sur ce fichier. Une fois ce mappage tabli, vous pouvez accder au LUN comme vous
le feriez pour un disque virtuel VMFS classique. La longueur du fichier objet du mappage est quivalente
la taille du LUN brut dsign.
-r --createrdm device

Lorsque vous spcifiez la valeur du paramtre device, respectez le format suivant :


/vmfs/devices/disks/disk_ID:P

290

VMware, Inc.

Chapitre 27 Utilisation de vmkfstools

Exemple de cration d'un fichier RDM en mode de compatibilit virtuelle


Dans cet exemple, vous crez un fichier RDM nomm my_rdm.vmdk et vous mappez le disque brut disk_ID
sur ce fichier.
vmkfstools -r /vmfs/devices/disks/disk_ID my_rdm.vmdk

Vous pouvez configurer une machine virtuelle en vue de l'utilisation du fichier de mappage my_rdm.vmdk ;
pour cela, ajoutez les lignes suivantes au fichier de configuration de la machine virtuelle :
scsi0:0.present = TRUE
scsi0:0.fileName = /vmfs/volumes/myVMFS/my_rdm.vmdk

Cration d'un mappage de priphrique brut en mode de compatibilit physique


Cette option permet de mapper un priphrique brut d'mulation sur un fichier de volume VMFS. Ce
mappage permet une machine virtuelle d'ignorer le filtrage de commandes SCSI ESXi lors de l'accs au
disque virtuel. Ce type de mappage est trs utile lorsque la machine virtuelle doit envoyer des commandes
SCSI prioritaires (par exemple, lorsqu'un logiciel compatible SAN est excut sur la machine virtuelle.
-z --createrdmpassthru device

Une fois ce type de mappage tabli, vous pouvez l'utiliser pour l'accs au disque brut, comme vous le feriez
pour les autres disques virtuels VMFS.
Lorsque vous spcifiez la valeur du paramtre device, respectez le format suivant :
/vmfs/devices/disks/disk_ID

Liste des attributs d'un RDM


Cette option permet de rpertorier les attributs d'un mappage de disque brut.
-q --queryrdm

Cette option imprime le nom du RDM du disque brut. Elle imprime galement d'autres informations
d'identification (ID de disque du disque brut, par exemple).

Affichage de la gomtrie de disque virtuel


Cette option permet d'obtenir des informations sur la gomtrie d'un disque virtuel.
-g --geometry

Le rsultat se prsente comme suit : Geometry information C/H/S, o C reprsente le nombre de cylindres, H
reprsente le nombre de ttes et S reprsente le nombre de secteurs.
REMARQUE Lorsque vous importez des disques virtuels depuis les produits VMware hbergs vers l'hte
ESXi, un message d'erreur de divergence de gomtrie pourrait apparatre. Les divergences de gomtrie de
disque peuvent galement tre l'origine de problmes de chargement d'un systme d'exploitation invit ou
d'excution d'une machine virtuelle cre.

Vrification et rparation des disques virtuels


Utilisez cette option pour vrifier ou rparer un disque virtuel en cas d'arrt anormal.
-x , --fix [check|repair]

VMware, Inc.

291

Stockage vSphere

Vrification de la cohrence de la chane de disques


Cette option vous permet de vrifier toute la chane de disques. Vous pouvez dterminer si l'un des maillons
de la chane est corrompu ou si une relation parent-enfant non valide existe.
-e --chainConsistent

Options de priphrique de stockage


Les options de priphrique vous permettent d'excuter des tches administratives pour les priphriques
de stockage physiques.

Gestion des rservations SCSI de LUN


L'option -L vous permet de rserver un LUN SCSI des fins d'utilisation exclusive par l'hte ESXi, de librer
une rservation pour que d'autres htes puissent accder au LUN, ou encore de rtablir une rservation
forant la libration de toutes les rservations de la cible.
-L --lock [reserve|release|lunreset|targetreset|busreset]device

AVERTISSEMENT L'utilisation de l'option -L peut interrompre les oprations des autres serveurs d'un SAN.
Veillez utiliser l'option -L uniquement pour le dpannage de configurations de clusters.
Sauf recommandation contraire de VMware, n'utilisez jamais cette option sur un volume LUN hbergeant
un volume VMFS.
Vous pouvez spcifier l'option -L de diffrentes faons :
n

-L reserve Permet de rserver le LUN spcifi. Une fois la rservation effectue, seul le serveur ayant
rserv ce LUN peut y accder. Si d'autres serveurs tentent d'accder ce LUN, un message d'erreur de
rservation s'affiche.

-L release Permet de librer la rservation du LUN spcifi. Dans ce cas, les autres serveurs peuvent

de nouveau y accder.

-L lunreset Permet de restaurer le LUN spcifi via la suppression des rservations associes ; le
LUN redevient disponible pour tous les autres serveurs. Cette restauration n'affecte pas les autres LUN
du priphrique. Si l'un d'entre eux est rserv, il le reste.

-L targetreset Permet de restaurer la cible complte. Cette opration supprime les rservations de

tous les LUN associs cette cible ; ces LUN redeviennent disponibles pour tous les serveurs.

-L busreset Permet de restaurer toutes les cibles accessibles sur le bus. Cette opration supprime les
rservations de tous les LUN accessibles via le bus, et les rend de nouveau disponibles pour tous les
serveurs.

Lorsque vous entrez la valeur du paramtre device, respectez le format suivant :


/vmfs/devices/disks/disk_ID:P

Rupture des verrous d'un priphrique


L'option -B vous permet de forcer le verrou d'un priphrique sur une partition particulire.
-B --breaklock device

Lorsque vous entrez la valeur du paramtre device, respectez le format suivant :


/vmfs/devices/disks/disk_ID:P

292

VMware, Inc.

Chapitre 27 Utilisation de vmkfstools

Vous pouvez utiliser cette commande en cas d'chec d'un hte au milieu d'une opration de banque de
donnes, telle que l'agrandissement d'une extension, l'ajout d'une extension ou la resignature. Lorsque vous
lancez cette commande, vrifiez qu'aucun autre hte ne dtient le verrou.

VMware, Inc.

293

Stockage vSphere

294

VMware, Inc.

Index

Symboles
{scsi,ide,sata}#:#.terminateVMOnPDL 139
* chemin le plus proche 244

A
acclration matrielle
propos 257
activation 259
avantages 257
dtails de prise en charge 261
tat 258
exigences 258
NAS 264
statut NAS 266
stockage des blocs 258
suppression des rgles de rclamation 263
accs au stockage 22
activation des SSD, avantages 177
adaptateur de stockage, ranalyser 132
adaptateur iSCSI, modification des proprits
gnrales 84
adaptateur logiciel iSCSI
configuration 83
dsactivation 84
adaptateurs de dmarrage 57
adaptateurs de stockage
affichage 19
consulter dans vSphere Web Client 18
adaptateurs FCoE 43
adaptateurs iSCSI
propos 77
logiciel 71
matriel 71
paramtres avancs 99
adaptateurs iSCSI matriels
dpendant 71
indpendant 71
adaptateurs iSCSI matriels indpendants,
changer l'adresse IP 80
adaptateurs rseau, configuration de iBFT iSCSI
boot 115
adresse IP 70
adresses de dcouverte dynamique 94
adresses de dcouverte statique 94
ADT, , voir transfert automatique de disque
ajout, stockage NFS 151

VMware, Inc.

ajouter des rgles bases sur des balises 216


ajouter un disque au groupe de disques 199
ajouter un hte au cluster de rseaux SAN
virtuels 202
alarmes 279
alias iSCSI 70
allocation dynamique, sur-abonnement 269
allocations, LUN 38
allocations, LUN 78
annulation de chemin 49, 106
APD
Divers dlais d'attente APD 137
Paramtre Misc.APDHandlingEnable 137
traitement 136
API de stockage, Storage Awareness 277
applications, par couches 29
applications de gestion tierces 30
applications par couches 29
appliquer des balises des banques de
donnes 212
Architecture de stockage enfichable 240
astrisque chemin le plus proche 244
ATS (atomic test and set) 148
attributs avancs, htes 141, 165
authentification 73, 96
authentification CHAP 73, 96
auto-dtection,priphriques SSD 178
AVT, , voir transfert automatique de volume

B
baies de disques
actives/actives 38, 78, 245
actives/passives 38, 78, 245
baies de disques actives/actives 34, 38, 51, 73,
78, 108, 245
baies de disques actives/passives, dmarrage
partir du SAN 56
baies de disques passives 38, 78, 245
baies de stockage
bases sur LSI 53
configuration 47
performances 66
balise, priphriques SSD 178
balises
appliquer des banques de donnes 212
crer 212

295

Stockage vSphere

banques de donnes
actualisation 131
administration des duplications 152
affichage 19
affichage pour un objet parent 21
ajout des domaines 155
augmentation de capacit 155
chemins 244
configuration sur des volumes NFS 151
cration 150
dmontage 157
examiner les informations 20
montage 152
NFS 143
renommer 156
rseau SAN virtuel 197
sur-abonnement du stockage 273
VMFS 143
Banques de donnes de rseau SAN virtuel,
surveiller les disques 201
banques de donnes NFS
dmontage 157
et les caractres non ASCII 148
rfrentiels 149
taille maximale 148
banques de donnes VMFS
ajout des domaines 155
augmentation 155
augmentation de capacit 155
cration sur le stockage Fibre Channel 150
cration sur le stockage iSCSI 150
cration sur un disque SCSI 150
cration sur un priphrique de stockage 150
dmontage 157
formats de disque 145
mise niveau 154
modifier des signatures 153
montage 157
partage 146
suppression 158
basculement
dlai E/S 238
transparent 34, 73
basculement de chemin
bas sur baie 238
bas sur hte 236
et machines virtuelles 239
basculement sur l'hte 236
BIOS, activation pour BFS 58
BIOS HBA Qlogic, activation pour BFS 59

296

C
cache d'change, configurer avec une ressource
de Flash virtuel 224
cache de blocs de pointage, configuration 164
cache de l'hte, permutation vers 183
capacit de stockage, dfinition 211
capacits de stockage 277
capacits de stockage bases sur des
balises 211
Cartes rseau, mappage vers VMkernel 89
cas d'utilisation 26
chane de disques, cohrence 292
CHAP
bidirectionnel 96
dsactivation 99
pour des initiateurs iSCSI 97
pour les cibles de dcouverte 98
pour les cibles statiques 98
unilatral 96
CHAP bidirectionnel 96
CHAP unilatral 96
chemin prfr 244
chemins
dmasquage 254
dsactivation 246
masquage 253
prfrs 244
chemins de basculement, tat 244
cibles 16, 72
cibles / LUN 72
cibles statiques, suppression 95
cluster de rseau SAN virtuel, crer 195
Cluster Linux, type d'hte 48
codes de dtection 133
cohrence des mtadonnes, vrification avec
VOMA 163
commande -C vmkfstools 285
commande -P vmkfstools 285
commande -v vmkfstools 284
commande -Z vmkfstools 286
commande esxcli, et Virtual Flash 228
commande vmkfstools -G 286
commutateurs standard 89
configuration
dcouverte dynamique 94
dcouverte statique 95
configuration de l'hte, paramtres avancs 66
configuration du cache de l'hte 184
configuration FC HBA 38
configurer le cache de lecture Flash 226
configurer plusieurs ressources de Flash
virtuel 225

VMware, Inc.

Index

configurer un cache d'change l'aide d'une


ressource de Flash virtuel 224
configurer une ressource Virtual Flash 225
conformit de stockage
par machine virtuelle 219
par rgle de stockage 218
connectivit de base 48
connexion directe 48
Connexions L3 149
connexions rseau, crer 88
considrations sur l'acclration matrielle 266
contrle d'accs 73
contrleurs SCSI 11
crer des balises 212
crer un cluster de rseau SAN virtuel 195

D
das.maskCleanShutdownEnabled 139
dcisions de LUN
schma adaptatif 28
schma prdictif 28
dcouverte
adresse 94
dynamique 94
statique 95
dcouverte dynamique, configuration 94
dcouverte statique, configuration 95
dlai d'expiration de disque 239
dlai d'expiration du SE invit Windows 239
dlai E/S 78, 238
dmarrage partir du DVD-ROM 57
dmarrage partir du SAN
avantages 55
conditions requises de l'hte 56
conditions requises HBA 56
configuration des HBA Emulex 58
configuration des HBA Qlogic 59
configuration du stockage 57
considrations LUN de dmarrage 56
exigences 56
prparation de l'installation 56
prsentation 55
dmarrage partir du SAN iSCSI
configuration des HBA 112
configuration des paramtres iSCSI 113
directives 111
iBFT 114
iSCSI logiciel 114
iSCSI matriel 112
prparation du SAN 112
dmarrage avec le rseau SAN virtuel 187
dmarrage du FCoE logiciel
configuration des paramtres 63

VMware, Inc.

configurer 62
exigences 61
installation d'ESXi 63
meilleures pratiques 62
dmarrage iSCSI, iBFT 114
dpannage
modification des paramtres de dmarrage
iSCSI 118
perte de connexion rseau 118
dsactiver le cluster de rseau SAN virtuel 197
Disk.EnableNaviReg 66
Disk.MaxLUN 132
disk.terminateVMOnPDLDefault 139
disque virtuel, rparation 291
disques
format 272
gonfler 273
disques allous dynamiquement, cration 271
disques dynamiques 160
disques virtuels
extension 290
formats 270
formats pris en charge 287
DRS prend en charge Virtual Flash 224
DVD-ROM, dmarrage partir du 57

E
EMC CLARiiON 49, 106
EMC Symmetrix, pseudo LUN 49, 107
emplacements des machines virtuelles 28
enregistrement automatique de l'hte,
dsactivation 66
enregistrement de l'hte, dsactivation 66
EqualLogic, systmes de stockage 109
quilibrage de charge 26, 38
espace de stockage 269
tapes de configuration 39
tat actuel du multivoie 244
tat du multivoie 244
tat du stockage 277
EUI 70
EVA (HP StorageWorks) 52, 108
vnement tous chemins vers bas
(APD) 133
vnements 279
viter le formatage du SSD pendant le
partitionnement automatique 184
exemples
commande -C vmkfstools 286
commande -Z vmkfstools 286
exemples vmkfstools
clonage de disques 289
cration de disques virtuels 288
cration de RDM 291

297

Stockage vSphere

exigences, dmarrage partir du SAN 56


extensions
agrandissement 155
ajout la banque de donnes 155

F
Fabric SAN 33
FC SAN
accs 35
spcifications matrielles 37
FCoE, meilleures pratiques 44
FCoE logiciel
et VMkernel 44
activation des adaptateurs 45
dmarrage 61
Fibre Channel
concepts 33
liste de vrification de la configuration 68
Fibre Channel sur Ethernet 43
fichiers de configuration, machines
virtuelles 140
filtre VAAI, affichage 260
filtres de stockage
dsactivation 160
hte identique et transports 159
RDM 159
ranalyse de l'hte 159
VMFS 159
FIP 44
Flash Read Cache
migration de VM 227
paramtres de migration 227
formatage du SSD, viter le formatage pendant
le partitionnement automatique 184
formats de disque
approvisionn pais 270
provisionnement fin 270
fournisseur de stockage, exigences 278
fournisseurs de distributeur
affichage 280
annulation de l'enregistrement 281
inscription 279
mise jour 281
fournisseurs de stockage, connexion SSL 280

G
gestion de groupes de disques 198
gestion des chemins 235
gestion multivoie
afficher l'tat actuel du 244
chamins casss 244
chemins actifs 244
chemins dsactivs 244
chemins inactifs 244
considrations 247

298

GPT 16
groupes de disques
ajouter un disque 199
gestion 198
groupes de rgles 214

H
HBA
configuration 38
quilibrage de charge statique 38
profondeur de file d'attente 37
Hte ESXi, et baies de stockage multiples 27
htes
attributs avancs 141, 165
et SAN Fibre Channel 33
HP LeftHand P4000 VSA 110
HP StorageWorks
EVA 52, 108
MSA 107
XP 52

I
iBFT 114
iBFT iSCSI Boot
changement de squence de dmarrage 116
dfinition d'ESXi 115
dmarrage d'un hte ESXi 117
dpannage 118
installation d'un hte ESXi 116
limitations 114
meilleures pratiques de mise en rseau 117
IBM ESS800 51
IBM FAStT 50
IBM Systems Storage 8000 51
IDE 12
initiateur logiciel iSCSI, activation 83
initiateurs iSCSI
configurer CHAP 97
configurer les paramtres avancs 101
configurer les paramtres CHAP 96
matriel 79
initiateurs iSCSI logiciels, configurer des
adresses de dcouverte 94
initiateurs iSCSI matriels
affichage 80
configuration 79
configurer des adresses de dcouverte 94
installation 80
installation
tapes 39
prparation du dmarrage partir du SAN 56
installation du FCoE logiciel, dpannage 64
intgration de baie, allocation dynamique 273
interfaces VMkernel 89

VMware, Inc.

Index

invite BIOS de dmarrage, activation pour


BFS 58
IQN 70
iSCSI 13
iSCSI Boot Firmware Table, , voir iBFT
iSCSI dpendant, mise en rseau 85
iSCSI logiciel
et basculement 236
mise en rseau 85
partition de diagnostic 161
iSCSI matriel, et basculement 236
ISL 50

L
les SSD locaux ne sont pas disponibles 228
liaison de port 236
liaison inter-commutateur 50
limitations 38
limites de volume pour Virtual Flash 224
Linux, type d'hte 48
liste de vrification 126
Logiciel de gestion du SAN 30
LUN
accs par NPIV 39
allocations 38, 78
dcisions 27
dfinir la rgle de multivoie 245
et banques de donnes VMFS 37
masquage 253
modification du nombre de LUN analyss 132
modifications et ranalyse 131
rgle de multivoie 245
un volume VMFS par 78
LUN provisionnement dynamique
identifier 275
rapports 274
LUN analyss, modification du nombre 132

M
machines virtuelles
accs un SAN iSCSI 74
accs au FC SAN 35
affectation de WWN 41
avec RDM 173
dlai E/S 238
emplacements 28
fichiers de configuration 140
paramtres de configuration 140
maintenance 26
mappage de priphrique brut, voir RDM 167
mappages de partitions 171
marquer les priphriques 181
masquage de LUN 33, 253

VMware, Inc.

matriel iSCSI dpendant


considrations 81
et cartes rseau associes 82
workflow de configuration 81
MBR 16
meilleures pratiques, FCoE 44
mtadonnes, RDM 171
mthodes d'authentification CHAP 96
mettre en cluster 48
microcode, stockage Hitachi Data Systems 52
Microsoft Cluster Service 48
migration
storage 270
Storage vMotion entre htes 270
migration de machines virtuelles avec le cache
de lecture Flash 227
mise en miroir de disque 160
mise en rseau, configuration 79
mises niveau des mtadonnes 147
mode d'hte Netware 52
mode maintenance, rseau SAN virtuel 203
modes d'vacuation 203
modes de compatibilit
physique 171
virtuel 171
modifier les rgles de stockage 217
module de sauvegarde tiers 31
montage de banques de donnes VMFS 157
MPP
affichage 249
Voir aussi plug-ins gestion multivoie
MSA (HP StorageWorks) 107
MSCS 48

N
NAA 70
NAS 13
Native Multipathing Plug-In 240, 241
NMP
flux d'E/S 243
rclamation de chemin 243
Voir aussi Native Multipathing Plug-In
Noms de port mondiaux, , voir WWPN
noms iSCSI, conventions 70
Noms mondiaux, , voir WWN
nouvelle signature 152
nouvelle signature VMFS 152
NPIV
propos 39
affectation des WWN 41
exigences 40

299

Stockage vSphere

limitations 40
modification des WWN 41

O
objets de machine virtuelle, non conforme 208
options des commandes vmkfstools 284

P
Paramtre TimeoutValue 37, 78
paramtres avancs
Disk.EnableNaviReg 66
Disk.MaxLUN 132
paramtres de configuration, machines
virtuelles 140
paramtres de dmarrage iSCSI,
configuration 115
partition de diagnostic
configuration 161
vrification 162
partitionnement automatique, viter le formatage
du SSD 184
partitions de dcharge 37, 78
partitions de diagnostic 37, 78
passer SSD 184
Path Selection Plug-Ins 242
PDL, , voir perte dfinitive de priphrique
performance du stockage SAN, optimisation 66,
122
performances
Consultation des statistiques des
commutateurs Ethernet 126
Mise en rseau 123
optimisation 66, 122
systme de stockage 122
performances des serveurs 67, 123
performances du rseau 123
priphrique de stockage
tat de la connexion 138
renommer 130
priphrique SSD virtuel 182
priphriques de bande 38
priphriques de stockage
affichage 16, 250
affichage pour un adaptateur 18
affichage pour un hte 17
chemins 245
dconnexion 135
dconnexions 133
tat de l'acclration matrielle 260
gestion 129
joindre 135
nommer 129
priphriques de traitement par blocs 171
priphriques pris en charge 48

300

priphriques RAID 171


priphriques SSD
auto-dtection 178
balise 178
permuter vers le cache de l'hte 183
perte de connexion rseau, dpannage 118
perte de priphrique, imprvu 133, 135
perte dfinitive de priphrique 133, 135
perte imprvue de priphrique 133, 135
plug-ins gestion multivoie, rclamation de
chemin 243
plug-ins NAS
dsinstallation 265
installation 264
mise niveau 266
plug-ins VAAI, affichage 260
plusieurs ressources de Flash virtuel 225
Port_ID 34
ports iSCSI 70
ports virtuels (VPORTS) 39
prise en charge de la formation 9
prise en charge de Virtual Flash par HA 224
processeurs de stockage
configuration des donnes de dtection 51
donnes de dtection 51
profil de stockage, dfinition du rseau SAN
virtuel 206
profils de stockage de machine virtuelle, , voir
rgles de stockage
profondeur de file d'attente 78
PSA, , voir Architecture de stockage enfichable
PSP, , voir Path Selection Plug-Ins
PSP de VMware, , voir Path Selection Plug-Ins

R
RDM
avantages 169
avec mise en cluster 172
et fichiers de disque virtuel 172
et snapshots 171
gestion des chemins 174
mode de compatibilit physique 171
mode de compatibilit virtuelle 171
prsentation 167
rsolution dynamique de nom 172
ranalyser
adaptateur de stockage 132
cration de LUN 131
lorsque le chemin est hors service 131
masquage de chemin 131
stockage 131
ranalyser l'chec de chemin 131
rclamation d'espace 276

VMware, Inc.

Index

rclamation de chemin 243


rcupration d'urgence 26
redirection de port 238
rgle de chemin d'accs Fixe 242, 245
rgle de chemin d'accs Most Recently
Used 242, 245
rgle de chemin d'accs MRU 245
rgle de chemin d'accs Round Robin 242, 245
rgle de multivoie 245
rgle de stockage
l'ensemble de rgles 218
appliquer une machine virtuelle 217
supprimer 217
rgle de stockage des machines virtuelles,
l'ensemble de rgles 219
rgles bases sur des balises, ajouter 216
rgles de chemin d'accs
Fixe 238, 242, 245
MRU 245
Plus frquemment utilis 242, 245
Round Robin 242, 245
rgles de rclamation 243
rgles de rclamation de gestion multivoie
ajout 250
suppression 252
rgles de rclamation VAAI
dfinition 262
filtre VAAI 262
plug-in VAAI 262
suppression 263
rgles de slection de chemin, modification 246
rgles de stockage
groupes de rgles 214
modifier 217
rapplication 220
rgles et capacits de stockage 213
rseau de zone de stockage 69
rseau iSCSI
cration d'une interface VMkernel 88
dpannage 92
dtails de liaison de port 91
gestion 92
liaison d'adaptateurs 91
modification de rgle 90
rseau SAN virtuel
et vSphere HA 193
propos 187
activation 194
attribution de licence 196
banques de donnes 197
caractristiques 189
dfini 187
dpannage 207

VMware, Inc.

dsactiver le cluster 197


dveloppement d'un cluster 202
chec de la configuration sur un hte 208
et commandes esxcli 207
et stockage orient objets 189
et stratgies de stockage 203
exigences 191
fournisseur de stockage 205
gestion 202
messages d'erreurs 209
rclamation de disques 198
rclamer des disques manuellement 199
suppression de disques de 200
surveillance 200
rseau SAN virtuel, activation 195
rseau SAN virtuel, mise en rseau 191, 192
Resigner la copie d'une banque de donnes
VMFS 153
ressource Virtual Flash
configuration 225
configurer un cache d'change 224
supprimer 227
ressources de Flash virtuel, configurer
plusieurs 225
Restrictions du SAN iSCSI 78
rsums d'en-tte 74
rsums de donnes 74
retrait de priphrique prvu 134

S
SAN
avantages 25
basculement du matriel 50
considrations de sauvegarde 31
exigences 37
informations dtailles 26
SAN Fibre Channel
meilleures pratiques 65
prvention de problmes 65
SAN iSCSI
accs 74
concepts 69
dmarrage 111
meilleures pratiques 121
prvention de problmes 121
SAS 12
SATA 12
SATP
affichage 249
ajout de rgles 255
Voir aussi Storage Array Type Plug-Ins
SATP de VMware, , voir Storage Array Type
Plug-Ins

301

Stockage vSphere

sauvegardes
considrations 31
module de sauvegarde tiers 31
schma adaptatif 28
schma prdictif 28
SCSI, vmkfstools 283
sessions iSCSI
affichage 102
ajouter pour une cible 102
gestion 101
suppression 103
solution base de baie 29
solution base sur les fichiers (VMFS) 30
SSD
dure de vie estime 183
meilleures pratiques 183
surveillance 182
SSD locaux
impossibles dtecter 185
indisponibles dans le rseau SAN virtuel 207
stockage
accs pour les machines virtuelles 22
adaptateurs 18
en rseau 13
fonctions vSphere pris en charge 23
introduction 11
local 12
provisionnement 269
ranalyser 131
types 12
utilis par les machines virtuelles 272
stockage bas sur un profil 211
stockage de qualit basse 28
stockage de qualit haute 28
stockage de qualit moyenne 28
stockage Hitachi Data Systems, microcode 52
stockage HP StorageWorks SAN/iQ 110
stockage Network Appliance 53
stockage NFS, ajout 151
stockage, et VMkernel 231
Storage Array Type Plug-Ins 241
STP 44
stratgie de stockage, activation 215
stratgies de stockage, non conformes 220
support technique 9
suppression de disques du rseau SAN
virtuel 200
supprimer 179, 180
supprimer une rgle de stockage 217
supprimer une ressource de Flash virtuel 227
surveillance du rseau SAN virtuel 200
surveiller les disques dans les banques de
donnes de rseau SAN virtuel 201

302

surveiller les htes du rseau SAN virtuel 201


Systme de stockage IBM DS4800,
configuration du basculement 50
systme de stockage NetApp 109
systmes de fichiers, mise niveau 144
systmes de stockage
Dell PowerVault MD3000i 110
EMC CLARiiON 49, 106
EMC Symmetrix 49, 107
EqualLogic 109
Hitachi 52
HP StorageWorks 52, 107
HP StorageWorks SAN/iQ 110
NetApp 109
Network Appliance 53
performances 122
types 34, 73
systmes de stockage Dell
PowerVault MD3000i 110
systmes de stockage iSCSI 105

T
test, systmes de stockage 105
topologie de stockage 277
tous chemins vers bas 136, 137
Trames jumbo
activation de l'iSCSI logiciel 93
activation de l'iSCSI matriel dpendant 93
activation pour l'iSCSI matriel
indpendant 93
utilisation avec iSCSI 93
transfert automatique de disque 51
transfert automatique de volume 51
type d'hte 48, 106
type d'hte en cluster Linux 106
type d'hte Linux 106

U
USB 12

V
VASA, , voir vStorage APIs for Storage
Awareness
verrouillage ATS 148
verrous de priphrique, rupture 292
vidage de mmoire 162
virtual flash 224
Virtual Flash
dsactivation 227
limites de volume 224
prise en charge DRS 224
prise en charge par HA 224
SSD locaux non disponibles 228

VMware, Inc.

Index

Virtualisation d'identification N-Port, , voir NPIV


virtualisation de stockage 11
VMFS
conversion 286
nouvelle signature 152
un volume par LUN 78
vrification de la cohrence des
mtadonnes 163
verrouillage 147
vmkfstools 283
VMFS3, mise niveau 154
VMFS5, amliorations par rapport VMFS3 144
VMFS5 et VMFS3, diffrences 144
VMkernel.Boot.terminateVMOnPDL 139
vmkfstools
affectation de nouveaux noms aux disques
virtuels 289
attributs RDM 291
chane de disques 292
clonage de disques 289
conversion de disques virtuels 289
cration de disques virtuels 288
cration de RDM 290, 291
extension de disques virtuels 290
gomtrie 291
gonflage de disques lgers 288
initialisation de disques virtuels 288
migration de disques virtuels 289
mise niveau de disques virtuels 290
options de disque virtuel 287
options de priphrique 292
options de systme de fichiers 285
prsentation 283
rservations SCSI 292
rupture de verrous 292
suppression de blocs mis zro 288
suppression de disques virtuels 289
syntaxe 283
vMotion 25, 26, 38, 78, 106
vmware, type d'hte 48
VMware DRS, avec vMotion 78
VMware HA 25, 106
VMware NMP
flux d'E/S 243
Voir aussi Native Multipathing Plug-In
VMware Ondisk Metadata Analyser, , voir VOMA
VOMA 163
vStorage APIs for Storage Awareness
(VASA) 211

VMware, Inc.

W
WWN
affectation des machines virtuelles 41
modification 41
WWNN 41
WWPN 34, 41

X
XP (HP StorageWorks) 52

Z
zonage 33, 35

303

Stockage vSphere

304

VMware, Inc.

Vous aimerez peut-être aussi