Vous êtes sur la page 1sur 124

Guide de configuration iSCSI SAN

ESX 4.1 ESXi 4.1 vCenter Serveur 4.1

Ce document prend en charge la version de chacun des produits rpertoris, ainsi que toutes les versions publies par la suite jusqu'au remplacement dudit document par une nouvelle dition. Pour rechercher des ditions plus rcentes de ce document, rendez-vous sur : http://www.vmware.com/fr/support/pubs.

FR-000288-00

Guide de configuration iSCSI SAN

Vous trouverez la documentation technique la plus rcente sur le site Web de VMware l'adresse : http://www.vmware.com/fr/support/pubs/ Le site Web de VMware propose galement les dernires mises jour des produits. Nhsitez pas nous transmettre tous vos commentaires concernant cette documentation ladresse suivante : docfeedback@vmware.com

Copyright 2009, 2010 VMware, Inc. Tous droits rservs. Ce produit est protg par les lois amricaines et internationales relatives au copyright et la proprit intellectuelle. Les produits VMware sont protgs par un ou plusieurs brevets rpertoris l'adresse http://www.vmware.com/go/patents-fr. VMware est une marque dpose ou une marque de VMware, Inc. aux tats-Unis et/ou dans d'autres juridictions. Toutes les autres marques et noms mentionns sont des marques dposes par leurs propritaires respectifs.

VMware, Inc. 3401 Hillview Ave. Palo Alto, CA 94304 www.vmware.com

VMware, Inc. 100-101 Quartier Boieldieu 92042 Paris La Dfense France www.vmware.com/fr

VMware, Inc.

Table des matires

propos de ce guide 5

1 Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI 7


Comprendre la virtualisation 8 Concepts SAN iSCSI 9 Prsentation de l'utilisation d'ESX/ESXi avec un SAN 14 Informations dtailles sur l'utilisation du stockage SAN avec ESX/ESXi 16 Prsentation des banques de donnes VMFS 17 Prendre des dcisions LUN 18 Accs des machines virtuelles aux donnes sur un SAN 20 Prsentation de la gestion multichemin et du basculement 21 Choisir l'emplacement des machines virtuelles 26 Conception pour les pannes de serveur 27 Affichage et nouvelle analyse des LUN 28

2 Configuration des initiateurs iSCSI et du stockage 29

Conditions requises pour un SAN iSCSI avec ESX/ESXi 30 Restrictions d'un SAN iSCSI ESX/ESXi 30 Dfinition des allocations de LUN 30 Configuration de rseau et authentification 31 Configurer des adaptateurs iSCSI matriels indpendants 31 Installation et configuration d'adaptateurs iSCSI matriels dpendants 32 Installation et configuration d'un adaptateur iSCSI logiciel 34 Configuration du rseau pour l'iSCSI logiciel et l'iSCSI matriel dpendant 36 Associer des ports iSCSI aux adaptateurs iSCSI 40 Utilisation des trames Jumbo avec iSCSI 41 Activation des trames Jumbo pour l'iSCSI logiciel et matriel dpendant 42 Configurer des adresses de dcouverte pour des initiateurs iSCSI 43 Configurer des paramtres CHAP pour des cartes iSCSI 44 Configurer des paramtres supplmentaires pour l'iSCSI 48 Gestion des sessions iSCSI 50 Ajouter du stockage iSCSI 52

3 Modification des systmes de stockage SAN pour ESX/ESXi 53

Test des configurations SAN de l'ESX/ESXi 53 Considrations gnrales pour les systmes de stockage SAN iSCSI 54 Systmes de stockage EMC CLARiiON 54 Systmes de stockage EMC Symmetrix 55 Activation du HP StorageWorks MSA1510i pour communiquer avec l'ESX/ESXi 55 Systmes de stockage EVA HP StorageWorks 57 Systmes de stockage NetApp 57

VMware, Inc.

Guide de configuration iSCSI SAN

Systmes de stockage EqualLogic 59 Systmes de stockage LeftHand Networks SAN/iQ 59 Systmes de stockage Dell PowerVault MD3000i 60 Cibles iSCSI dans vApp 60

4 Dmarrage partir du SAN iSCSI 61

Recommandations gnrales de dmarrage partir du SAN iSCSI 62 Prparation du SAN iSCSI 62 Configuration des htes ESX pour un dmarrage partir du SAN iSCSI 63 Prsentation de iBFT iSCSI Boot 64 Collecte des informations de diagnostic pour les htes ESXi 69

5 Gestion des systmes ESX/ESXi utilisant le stockage SAN 71


Affichage des informations sur les adaptateurs de stockage 71 Affichage des informations sur les priphriques de stockage 72 Affichage des informations sur les banque de donnes 75 Rsolution des problmes d'affichage du stockage 76 Analyse et rclamation des chemins 80 Partage de partitions de diagnostic 86 Prvention et rsolution des problmes de SAN 86 Optimisation des performances du stockage SAN 87 Rsolution des problmes de performances 91 Considrations sur la sauvegarde de stockage SAN 94 Administration des banques de donnes VMFS dupliques 96 Acclration matrielle du stockage 99

A Liste de vrification de la configuration du SAN iSCSI 103 B Interface de ligne de commande de VMware vSphere 105
Commande resxtop 105 Commande vicfg-iscsi 105 Commande vicfg-mpath 105 Command'ESXcli corestorage claimrule 106 Commande vmkping 106

C Gestion des modules multichemin et des plug-ins d'acclration matrielle 107


Gestion des chemins de stockage et des plug-ins multichemin 107 Gestion des plug-Ins et du filtre d'acclration matrielle 114 Options esxcli corestorage claimrule 117

Index 119

VMware, Inc.

propos de ce guide

Le Guide de configuration du SAN iSCSI vous explique comment utiliser les systmes VMware ESX et VMware ESXi avec un rseau de zone de stockage (SAN) iSCSI. Ce manuel inclut des informations d'arrireplan conceptuelles et les conditions requises l'installation d'ESX, ESXi, et de VMware vCenter Server.

Public cible
Ce manuel s'adresse aux administrateurs systme Windows ou Linux expriments et habitus utiliser un centre de donnes avec la technologie de machine virtuelle.

Glossaire VMware Technical Publications


VMware Technical Publications fournit un glossaire des termes qui peuvent ventuellement ne pas vous tre familiers. Pour consulter la dfinition des termes utiliss dans la documentation technique VMware, visitez le site Web http://www.vmware.com/support/pubs.

Commentaires sur les documents


VMware prend en considrations vos suggestions pour amliorer sa documentation. Si vous avez des commentaires, envoyez-les docfeedback@vmware.com

Documentation de vSphere de VMware


La documentation VMware vSphere est compose d'une srie de documents propos de VMware vCenter Server et d'ESX/ESXi.

Ressources de support technique et de formation


Les ressources de support technique suivantes sont votre disposition. Pour accder la version actuelle de ce guide et d'autres guides, allez sur http://www.vmware.com/support/pubs. Support en ligne et tlphonique Pour soumettre des demandes d'ordre technique l'assistance en ligne, consulter les informations concernant vos produits et contrats et inscrire vos produits, rendez-vous sur http://www.vmware.com/support.

VMware, Inc.

Guide de configuration iSCSI SAN

Les clients ayant souscrit des contrats de support appropris peuvent utiliser le support tlphonique pour obtenir une rponse rapide leurs problmes prioritaires. Allez sur http://www.vmware.com/support/phone_support.html. Offres de support Pour en savoir plus sur la faon dont les offres d'assistance VMware peuvent satisfaire les besoins de votre entreprise, rendez-vous sur http://www.vmware.com/support/services. Les cours VMware Education Services proposent de nombreux exercices pratiques, des exemples d'tude de cas, ainsi que de la documentation destine servir de rfrence sur site. Les cours sont disponibles sur site, en salle de cours et en ligne et en direct. Pour les programmes pilotes sur site et les meilleures pratiques de mise en uvre, VMware Consulting Services propose des offres destines vous aider valuer, planifier, laborer et grer votre environnement virtuel. Pour vous renseigner sur les formations, les programmes de certification et les services de conseil, rendez-vous sur http://www.vmware.com/services.

VMware Professional Services

VMware, Inc.

Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI

Vous pouvez utiliser ESX/ESXi conjointement un rseau de zone de stockage (SAN), rseau haut-dbit spcialis qui connecte des systmes informatiques des sous-systmes de stockage hautes performances. L'utilisation d'ESX/ESXi avec un SAN fournit une consolidation de stockage, amliore la fiabilit et facilite la rcupration sur incident. Pour utiliser l'ESX/ESXi de manire efficace avec un SAN, vous devez avoir une certaine exprience des systmes ESX/ESXi et des concepts SAN. De mme, lorsque vous configurez des htes ESX/ESXi pour qu'ils utilisent des systmes de stockage SAN Internet SCSI (iSCSI), vous devez connatre les considrations spciales existantes. Ce chapitre aborde les rubriques suivantes :
n n n n n n n n n n n

Comprendre la virtualisation , page 8 Concepts SAN iSCSI , page 9 Prsentation de l'utilisation d'ESX/ESXi avec un SAN , page 14 Informations dtailles sur l'utilisation du stockage SAN avec ESX/ESXi , page 16 Prsentation des banques de donnes VMFS , page 17 Prendre des dcisions LUN , page 18 Accs des machines virtuelles aux donnes sur un SAN , page 20 Prsentation de la gestion multichemin et du basculement , page 21 Choisir l'emplacement des machines virtuelles , page 26 Conception pour les pannes de serveur , page 27 Affichage et nouvelle analyse des LUN , page 28

VMware, Inc.

Guide de configuration iSCSI SAN

Comprendre la virtualisation
La couche de virtualisation VMware est commune aux produits de bureau (VMware Workstation) et aux produits serveur (VMware ESX/ESXi) de VMware. Cette couche est une plate-forme cohrente pour le dveloppement, les essais, la livraison, et la prise en charge des charges de travail des applications. La couche de virtualisation est organise de la manire suivante :
n

Chaque machine virtuelle excute son propre systme d'exploitation (le systme d'exploitation invit) et ses propres applications. La couche de virtualisation fournit les priphriques virtuels qui mappent vers les partages des priphriques physiques spcifiques. Ces priphriques incluent le CPU, la mmoire, les bus d'E/S, les interfaces rseau, les adaptateurs et les priphriques de stockage, les priphriques d'interface utilisateur et le BIOS virtualiss.

Virtualisation du rseau
La couche de virtualisation garantit que chaque machine virtuelle soit isole des autres machines virtuelles. Les machines virtuelles peuvent communiquer uniquement via des mcanismes rseau similaires ceux utiliss pour connecter des machines physiques distinctes. L'isolation permet aux administrateurs de crer des pare-feu internes ou d'autres environnements d'isolation rseau de sorte que certaines machines virtuelles puissent se connecter l'extrieur, alors que d'autres sont connectes uniquement via les rseaux virtuels d'autres machines virtuelles.

Virtualisation de stockage
ESX/ESXi offre une virtualisation de stockage de niveau hte, qui extrait logiquement la couche de stockage physique des machines virtuelles. Une machine virtuelle ESX/ESXi utilise un disque virtuel pour stocker les fichiers du systme d'exploitation, des programmes et d'autres donnes lies ses activits. Un disque virtuel est un grand fichier physique, ou un ensemble de fichiers, qui peut tre copi, dplac, archiv et sauvegard aussi facilement que n'importe quel autre fichier. Vous pouvez configurer les machines virtuelles avec plusieurs disques virtuels. Pour accder des disques virtuels, une machine virtuelle utilise les contrleurs SCSI virtuels. Ces contrleurs virtuels sont notamment BusLogic Parallel, LSI Logic Parallel, LSI Logic SAS, et VMware Paravirtual. Ces contrleurs sont les seuls types de contrleurs SCSI visibles et accessibles par une machine virtuelle. Chaque disque virtuel auquel une machine virtuelle peut accder via l'un des contrleurs SCSI virtuels se trouve sur une banque de donnes du systme de fichiers de la machine virtuelle VMware (VMFS), une banque de donnes NFS ou un disque brut. Du point de vue de la machine virtuelle, chaque disque virtuel apparat comme un lecteur SCSI connect un contrleur SCSI. Que le priphrique de disque physique rel soit accessible via des adaptateurs SCSI parallles, iSCSI, rseau ou Fibre Channel sur l'hte, il est transparent pour le systme d'exploitation client et pour les applications s'excutant sur la machine virtuelle. Figure 1-1 prsente la virtualisation de stockage. Le diagramme illustre le stockage qui utilise VMFS et le stockage qui utilise le mappage de priphriques bruts. Le diagramme montre galement la manire dont le stockage iSCSI est accessible via les HBA iSCSI ou l'aide d'un adapteur rseau gnrale utilisant un initiateur de logiciel iSCSI.

VMware, Inc.

Chapitre 1 Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI

Figure 1-1. Virtualisation de stockage SAN iSCSI


ESX/ESXi virtuel machine virtuel machine

SCSI contrleur

SCSI contrleur

disque virtuel disque virtuel Couche de virtualisation VMware logiciel initiateurs iSCSI Ethernet NIC LAN

matriel iSCSI initiateur (HBA) LAN VMFS LUN1 .vmdk

LUN2 RDM

LUN5

Concepts SAN iSCSI


Si vous tes administrateur ESX/ESXi et que vous prvoyez de configurer les htes ESX/ESXi pour qu'ils fonctionnent avec des SAN, vous devez avoir une certaine exprience des concepts SAN. Vous trouverez des informations complmentaires sur le SAN dans la documentation et sur Internet. Les SAN iSCSI utilisent des connexions Ethernet entre les systmes informatiques, ou serveurs htes, et les sous-systmes de stockage hautes performances. Les composants SAN comprennent les adaptateurs de bus hte (HBA) ou cartes d'interface rseau (NIC) des serveurs htes, les commutateurs et les routeurs qui acheminent le trafic de stockage, les cbles, les processeurs de stockage (SP) et les systmes de disque de stockage. Le SAN iSCSI utilise une architecture client-serveur. Le client, appel initiateur iSCSI, agit sur votre hte. Il lance des sessions iSCSI en mettant des commandes SCSI et en les transmettant, encapsules dans le protocole iSCSI, un serveur. Le serveur est connu sous le nom de cible iSCSI. La cible iSCSI reprsente un systme de stockage physique sur le rseau. Elle peut galement tre fournie par un SAN iSCSI virtuel, par exemple un mulateur cible iSCSI s'excutant sur une machine virtuelle. La cible iSCSI rpond aux commandes de l'initiateur en transmettant les donnes iSCSI requises.

VMware, Inc.

Guide de configuration iSCSI SAN

Ports dans le SAN iSCSI


Une entit simple dtectable sur le SAN iSCSI, telle qu'un initiateur ou une cible, reprsente un nud iSCSI. Chaque nud possde un ou plusieurs ports qui le connectent au SAN. Les ports iSCSI sont les points limites d'une session iSCSI. Chaque nud peut tre identifi de plusieurs manires. Adresse IP Chaque nud iSCSI peut tre associ une adresse IP de sorte que le matriel d'acheminement et de commutation du rseau puisse tablir la connexion entre le serveur et le stockage. Cette adresse est en fait similaire l'adresse IP que vous attribuez votre ordinateur pour bnficier de l'accs au rseau de votre entreprise ou Internet. Nom unique mondialement permettant d'identifier le nud. iSCSI utilise les formats IQN (iSCSI Qualified Name), EUI (Extended Unique Identifier) et NAA (Network Address Authority). Par dfaut, ESX/ESXi gnre des noms iSCSI uniques pour vos initiateurs iSCSI, par exemple, iqn.1998-01.com.vmware:iscsitestox-68158ef2. Il n'est gnralement pas ncessaire de modifier la valeur par dfaut, mais si vous la modifiez, veillez ce que le nouveau nom iSCSI que vous saisissez soit unique mondialement. Alias iSCSI Nom plus parlant pour un priphrique ou port iSCSI utilis la place du nom iSCSI. Les alias iSCSI, qui ne sont pas uniques, sont destins n'tre qu'un surnom associer un port.

nom iSCSI

Conventions de dnomination iSCSI


iSCSI utilise un nom unique spcial pour identifier un nud iSCSI, cible ou initiateur. Ce nom est similaire au WorldWide Name (WWN) associ aux priphriques Fibre Channel et est utilis pour identifier de manire universelle le nud. Les noms iSCSI sont formates de deux manires diffrentes. Le format le plus courant est le format IQN. Pour plus de dtails sur les exigences de dnomination iSCSI et les profils de chane, reportez-vous aux sections RFC 3721, RFC 3722 et RFC 3980 sur le site Web IETF.

Format IQN (iSCSI Qualified Name)


Le format IQN se prsente sous la forme iqn.yyyy-mm.naming-authority:unique name, o :
n n

yyyy-mm reprsente l'anne et le mois o l'autorit de dnomination a t tablie. naming-authority reprsente la syntaxe habituellement inverse du nom de domaine Internet de l'autorit de dnomination. Par exemple, l'autorit de dnomination iscsi.vmware.com pourrait porter le nom qualifi iSCSI sous la forme iqn.1998-01.com.vmware.iscsi. Ce nom indique que le nom de domaine vmware.com a t inscrit en janvier 1998, et que iscsi est un sous-domaine, dirig par vmware.com. unique name reprsente n'importe quel nom votre guise, par exemple le nom de votre hte. L'autorit de dnomination doit s'assurer que tous les ventuels noms attribus aprs les deux-points sont uniques, comme :
n n n

iqn.1998-01.com.vmware.iscsi:name1 iqn.1998-01.com.vmware.iscsi:name2 iqn.1998-01.com.vmware.iscsi:name999

10

VMware, Inc.

Chapitre 1 Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI

Format EUI (Enterprise Unique Identifier)


Le format EUI se prsente sous la forme eui.16 hex digits. Par exemple, eui.0123456789ABCDEF. Les 16 chiffres hexadcimaux sont des reprsentations de texte d'un nombre 64 bits au format EUI (extended unique identifier) de l'IEEE. Les 24 premiers bits reprsentent l'identifiant d'une socit que l'IEEE enregistre avec une socit spcifique. Les 40 derniers bits sont attribus par l'entit possdant l'identifiant de cette socit et doivent tre uniques.

Initiateurs iSCSI
Pour accder aux cibles iSCSI, votre hte utilise des initiateurs iSCSI. Les initiateurs transportent les requtes et rponses SCSI, encapsules dans le protocole iSCSI, entre l'hte et la cible iSCSI. VMware prend en charge plusieurs types d'initiateurs.

Adaptateur de logiciel iSCSI


Un adaptateur de logiciel ISCSI est un code vMware intgr au VMKernel. Il permet un hte de se connecter au priphrique de stockage iSCSI par des cartes rseau standard. L'adaptateur de logiciel ISCSI gre le traitement iSCSI tout en communiquant avec l'adaptateur rseau. Avec l'adaptateur de logiciel ISCSI, vous pouvez employer la technologie iSCSI sans acheter de matriel spcialis.

Adaptateur de matriel ISCSI


Un adaptateur de matriel ISCSI est un adaptateur tiers qui dchargre le tratement ISCSI et le rseau de votre hte. Les adaptateurs matriels iSCSI se divisent en plusieurs catgories. Adaptateur de matriel ISCSI dpendant Dpend du rseau VMware et des interfaces de configuration et de gestion iSCSI fournies par VMware. Ce type d'adaptateur peut tre un adaptateur rseau standard disposant de la fonction de dchargement iSCSI pour le mme port. La fonction de dchargement iSCSI dpend de la configuration du rseau pour obtenir les paramtres IP, MAC et d'autres paramtres utiliss pour les sessions iSCSI. La carte NIC Broadcom 5709 sous licence iSCSI est un exemple d'adaptateur dpendant. Adaptateur de matriel ISCSI indpendant Implmente ses propres protocoles rseau et ses propres interfaces de configuration et de gestion iSCSI. Une carte disposant uniquement de la fonction de dchargement iSCSI ou de la fonction de dchargement iSCSI et NIC standard est un exemple d'adaptateur iSCSI matriel indpendant. La fonction de dchargement iSCSI dispose d'une fonction de gestion indpendante de la configuration, qui assigne les paramtres IP, MAC et d'autres paramtres pour les sessions iSCSI. L'adaptateur QLogic QLA4052 est un exemple d'adaptateur indpendant. Les adaptateurs de matriel ISCSI doivent avoir une licence. Sinon, ils n'apparatront pas dans vSphere Client ou vSphere CLI. Contactez votre fournisseur pour avoir des renseignements sur la licence.

VMware, Inc.

11

Guide de configuration iSCSI SAN

Reprsentations LUN / Cible


Dans le contexte ESX/ESXi, le terme cible identifie une unit de stockage simple laquelle peut accder votre hte. Les termes priphrique de stockage et LUN dcrivent un volume logique reprsentant l'espace de stockage sur une cible. Gnralement, les termes priphrique et LUN, dans le contexte ESX/ESXi, signifient un volume SCSI prsent votre hte partir d'une cible de stockage et pouvant tre format. Les diffrents fournisseurs de stockage iSCSI prsentent le stockage vers des serveurs de diffrentes manires. Certains fournisseurs prsentent plusieurs LUN sur une seule cible, alors que d'autres prsentent plusieurs cibles avec un LUN chacune. Mme si la manire dont le stockage est utilis par un hte ESX/ESXi est similaire, la manire dont les informations sont prsentes via les outils administratifs est diffrente. Figure 1-2. Reprsentations LUN / Cible
cible LUN LUN LUN cible LUN cible LUN cible LUN

baie de stockage

baie de stockage

Trois LUN sont disponibles dans chacune de ces configurations. Dans le premier cas, ESX/ESXi dtecte une cible, mais cette cible possde trois LUN utilisables. Chaque LUN reprsente un volume de stockage individuel. Dans le second cas, l'ESX/ESXi dtecte trois cibles diffrentes, chacune possdant un LUN. Les initiateurs iSCSI bass sur ESX/ESXi tablissent des connexions sur chaque cible. Les systmes de stockage avec une cible unique contenant plusieurs LUN prsentent un trafic vers tous les LUN sur une seule connexion. Avec un systme possdant trois cibles avec un LUN chacune, un hte utilise des connexions distinctes vers les trois LUN. Ces informations s'avrent utiles lors du regroupesment de trafic de stockage sur plusieurs connexions partir de l'hte ESX/ESXi avec plusieurs HBA iSCSI, o le trafic d'une cible peut tre dfini sur un HBA spcifique, alors que le trafic d'une autre cible peut utiliser un autre HBA.

Multichemin et basculement de chemin


Lors du transfert de donnes entre le serveur hte et le stockage, le SAN utilise une technique connue sous le nom de gestion multichemin. La gestion multichemin vous permet de disposer de plusieurs chemins physiques partir de l'hte ESX/ESXi vers une LUN sur un systme de stockage. De manire gnrale, un chemin unique partant d'un hte vers un LUN se compose d'un adaptateur iSCSI ou NIC, de ports de commutateur, de cbles de connexion et du port de contrleur de stockage. Si un des composants du chemin subit une dfaillance, l'hte slectionne un autre chemin disponible pour l'E/S. Le processus de dtection d'un chemin dfaillant et de changement vers un autre chemin est connu sous le nom de basculement de chemin.

12

VMware, Inc.

Chapitre 1 Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI

Types de systmes de stockage


ESX/ESXi prend en charge diffrents systmes et baies de stockage. Votre hte prend en charge les types de stockage suivants : actif-actif, actif-passif et conforme ALUA. Systme de stockage actif-actif Systme de stockage actif-passif Permet d'accder simultanment aux LUN par tous les ports de stockage qui sont disponibles sans dgradation importante des performances. Tous les chemins sont actifs tout moment sauf en cas de dfaillance d'un chemin. Un systme dans lequel un processeur de stockage fournit l'accs un LUN donn. Les autres processeurs sont utiliss en tant que sauvegarde pour le LUN et peuvent fournir l'accs d'autres E/S de LUN. L'E/S peut uniquement tre envoye avec succs vers un port actif pour un LUN spcifique. Si l'accs via le port de stockage actif choue, un des processeurs de stockage passifs peut tre activ par les serveurs qui y accdent. Prend en charge Asymmetric Logical Unit Access (ALUA). Les systmes de stockage ALUA offrent des niveaux diffrents d'accs par port. ALUA permet aux htes de dterminer les tats des ports cibles et classer par priorit les chemins. L'hte utilise certains des chemins actifs comme tant principaux alors que d'autres sont secondaires. Autorise l'accs tous les LUN disponibles via un port virtuel unique. Il s'agit de priphriques de stockage actifs-actifs qui cachent leurs nombreuses connexions via un seul port. La gestion multivoie d'ESX/ESXi ne dtecte pas les multiples connexions sur le stockage. Ces systmes de stockage traitent le basculement des ports et l'quilibrage des connexions de manire transparente. Le terme souvent utilis pour dcrire que ceci est le basculement transparent.

Systme de stockage asymtrique

Systme de stockage de ports virtuels

Dcouverte, authentification et contrle d'accs


Vous pouvez utiliser plusieurs mthodes pour dcouvrir votre stockage et y limiter l'accs. Vous devez configurer votre hte et le systme de stockage iSCSI pour qu'il prenne en charge votre politique de contrle d'accs au stockage.

Dcouverte
Une session de dcouverte fait partie du protocole iSCSI et renvoie l'ensemble des cibles auxquelles vous pouvez accder sur un systme de stockage iSCSI. Les deux types de dcouverte disponibles sur ESX/ESXi sont les dcouvertes dynamique et statique. La dcouverte dynamique renvoie une liste des cibles accessibles partir du systme de stockage iSCSI, alors que la dcouverte statique peut uniquement tenter d'accder une cible spcifique par nom cible.

Authentification
Les systmes de stockage iSCSI authentifient un initiateur par un nom et une paire de cls. ESX/ESXi prend en charge le protocole CHAP, que VMware recommande pour la mise en uvre de votre SAN. Pour utiliser l'authentification CHAP, l'hte ESX/ESXi et le systme de stockage iSCSI doivent avoir la fonction CHAP active et disposer d'informations d'identification communes.

VMware, Inc.

13

Guide de configuration iSCSI SAN

Contrle d'accs
Le contrle d'accs est une rgle configure sur le systme de stockage iSCSI. La plupart des mises en uvre prennent en charge un ou plusieurs des trois types de contrle d'accs :
n n n

Par nom d'initiateur Par adresse IP Par protocole CHAP

Seuls les initiateurs qui respectent toutes les rgles peuvent accder au volume iSCSI.

Correction des erreurs


Pour protger l'intgrit des en-ttes et des donnes iSCSI, le protocole iSCSI dfinit des mthodes de correction des erreurs, plus connues sous le nom de rsums d'en-tte et de rsums de donnes. Ces deux paramtres sont dsactivs par dfaut, mais vous pouvez les activer. Ces rsums appartiennent respectivement l'en-tte et aux donnes SCSI transfrs entre les initiateurs iSCSI et les cibles, dans les deux sens. Les rsums d'en-tte et de donnes vrifient l'intgrit des donnes non cryptographiques compltes en plus des contrles de sant effectus par d'autres couches du rseau, telles que TCP et Ethernet. Ils vrifient le chemin de communication complet, y compris tous les lments susceptibles de modifier le trafic au niveau du rseau, tels que les routeurs, les commutateurs et les proxys. L'existence et le type des rsums sont ngocis lorsqu'une connexion iSCSI est tablie. Lorsque l'initiateur et la cible s'accordent sur une configuration de rsum, celui-ci doit tre utilis pour l'ensemble du trafic entre eux. L'activation des rsums d'en-tte et de donnes ncessite un traitement supplmentaire la fois pour l'initiateur et la cible et peut affecter le dbit et les performances d'utilisation de la CPU. REMARQUE Les systmes qui utilisent des processeurs Intel Nehalem dlestent les calculs de rsum iSCSI, en rduisant ainsi l'incidence sur les performances.

Prsentation de l'utilisation d'ESX/ESXi avec un SAN


L'utilisation d'ESX/ESXi avec un SAN signifie plus de souplesse, plus d'efficacit et plus de fiabilit. L'utilisation d'ESX/ESXi avec un SAN prend galement en charge la gestion centralise et les technologies de basculement et d'quilibrage de charge. L'utilisation d'ESX/ESXi avec un SAN vous offre les avantages suivants :
n

Vous pouvez stocker vos donnes de manire scurise et configurer plusieurs chemins vers votre lieu de stockage afin d'liminer tout risque de dfaillance d'un point de stockage unique. L'utilisation d'un SAN avec les systmes ESX/ESXi prolonge la rsistance aux pannes sur le serveur. Lorsque vous utilisez un stockage SAN, toutes les applications peuvent tre immdiatement redmarres sur un autre hte suite la panne de l'hte d'origine. Vous pouvez effectuer la migration en direct des machines virtuelles l'aide de VMware vMotion. Utilisez VMware High Availability (HA) avec un SAN pour redmarrer des machines virtuelles dans leur dernier tat connu sur un serveur diffrent en cas de dfaillance de leur hte. Utilisez VMware Fault Tolerance (FT) pour copier les machines virtuelles protges sur deux htes diffrents. Les machines virtuelles continuent fonctionner sans interruption sur l'hte secondaire en cas de dfaillance de l'hte principal.

n n

14

VMware, Inc.

Chapitre 1 Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI

Utilisez VMware Distributed Resource Scheduler (DRS) pour migrer les machines virtuelles depuis un hte vers un autre afin d'obtenir un quilibrage de charge. Le stockage se trouvant sur une baie SAN partage, les applications continuent de s'excuter de manire transparente. Si vous utilisez des clusters VMware DRS, mettez l'hte ESX/ESXi en mode maintenance afin que le systme migre toutes les machines virtuelles vers d'autres htes ESX/ESXi Ensuite, vous pouvez effectuer les mises niveau ou d'autres oprations de maintenance sur l'hte d'origine.

La portabilit et l'encapsulation des machines virtuelles VMware sont un complment la nature partage de ce stockage. Lorsque les machines virtuelles se trouvent sur un stockage SAN, vous pouvez rapidement arrter une machine virtuelle sur un serveur et la dmarrer sur un autre serveur, ou la suspendre sur un serveur et reprendre l'activit sur un autre serveur sur le mme rseau. Ainsi, vous pouvez migrer des ressources informatiques tout en maintenant un accs partag cohrent.

Cas d'utilisation d'ESX/ESXi et du SAN


Vous pouvez effectuer de nombreuses tches lorsque vous utilisez ESX/ESXi avec un SAN. L'utilisation conjointe d'ESX/ESXi et d'un SAN est efficace pour effectuer les tches suivantes : Maintenance sans interruption de service Lorsque vous effectuez la maintenance de l'hte ESX/ESXi ou de l'infrastructure, utilisez VMware DRS ou vMotion pour migrer les machines virtuelles sur d'autres serveurs. Si le stockage partag se trouve sur le SAN, vous pouvez effectuer les oprations de maintenance sans aucune interruption pour les utilisateurs des machines virtuelles. Utilisez vMotion ou VMware DRS pour migrer les machines virtuelles sur d'autres htes des fins d'quilibrage de charge. Si le stockage partag se trouve sur le SAN, vous pouvez effectuer les oprations d'quilibrage de charge sans aucune interruption pour les utilisateurs des machines virtuelles. Si vous travaillez avec plusieurs htes, et que chacun d'entre-eux utilisent plusieurs machines virtuelles, le stockage sur les htes n'est plus suffisant et vous allez devoir utiliser un stockage externe. Le choix d'utiliser un SAN pour le stockage externe vous fait bnficier d'une architecture systme plus simple ainsi que de nombreux autres avantages. Rservez un grand volume et allouez ensuite, de manire approprie, des portions aux machines virtuelles. L'allocation et la cration du volume partir du priphrique de stockage n'ont tre effectue qu'une seule fois uniquement. Rcupration d'urgence Le stockage de toutes les donnes sur un SAN facilite le stockage distance des sauvegardes de donnes. Vous pouvez redmarrer les machines virtuelles sur les htes ESX/ESXi distance distance pour effectuer une rcupration si un site est compromis. Lorsque vous achetez de nouveaux systmes ou de nouvelles baies de stockage, utilisez le stockage vMotion pour pouvoir effectuer la migration automatise en direct des fichiers de disque des machines virtuelles partir de l'emplacement de stockage existant vers leur nouvelle destination sans aucune interruption pour les utilisateurs des machines virtuelles.

quilibrage de charge

Consolidation du stockage et simplification de l'architecture de stockage

Migrations de baies et mises niveau du stockage simplifies

VMware, Inc.

15

Guide de configuration iSCSI SAN

Recherche d'informations supplmentaires


En plus de ce document, de nombreuses autres ressources peuvent vous aider configurer votre systme ESX/ ESXi avec un SAN.
n

Utilisez la documentation de votre diteur de baie de stockage pour tout ce qui concerne les questions de configuration. Il est galement possible que votre diteur de baie de stockage puisse vous fournir de la documentation sur l'utilisation de la baie de stockage dans un environnement ESX/ESXi. Le site Web de la documentation VMware. Le Guide de configuration du SAN Fibre Channel aborde l'utilisation d'ESX/ESXi avec des rseaux de zone de stockage Fibre Channel. Le Guide de compatibilit d'E/S de VMware rpertorie les versions actuellement approuves des HBA, des pilotes HBA et des pilotes. Le Guide de compatibilit de stockage/SAN de VMware rpertorie les baies de stockage actuellement approuves. Les Notes de mise niveau de VMware fournissent des informations sur les problmes connus et sur leurs rsolution. La Base de connaissances de VMware contient les informations sur les problmes les plus courants et sur leur rsolution.

n n

Informations dtailles sur l'utilisation du stockage SAN avec ESX/ESXi


L'utilisation d'un SAN avec un hte ESX/ESXi est bien diffrente de l'utilisation traditionnelle d'un SAN. Lorsque vous utilisez un stockage SAN avec ESX/ESXi, envisagez les choses suivantes :
n

Vous ne pouvez pas accder directement au systme d'exploitation de la machine virtuelle qui utilise le stockage. Avec les outils traditionnels, vous pouvez uniquement surveiller le systme d'exploitation ESX/ ESXi de VMware. Vous utilisez vSphere Client pour surveiller les machines virtuelles. Le HBA visible aux outils d'administration du SAN fait partie du systme ESX/ESXi et non de la machine virtuelle. Votre systme ESX/ESXi effectue la gestion multivoie pour vous.

Applications de gestion tierces


Vous pouvez utiliser les applications de gestion tierces avec votre hte ESX/ESXi. La majorit des matriels de stockage iSCSI sont dlivrs avec le logiciel de gestion du stockage. Dans la majorit des cas, ce logiciel est une application web qui peut tre utilise avec tout navigateur web connect votre rseau. Dans certains autres cas, ce logiciel s'excute habituellement sur le systme de stockage ou sur un serveur unique, indpendamment des serveurs utilisant le SAN pour le stockage. Utilisez le logiciel de gestion tiers pour effectuer les tches suivantes :
n

La gestion des baies de stockage, y compris la cration de LUN, la gestion de la mmoire cache des baies, le mappage de LUN et la scurit des LUN. La configuration de la rplication, des points de vrification, des snapshots ou de la mise en miroir.

16

VMware, Inc.

Chapitre 1 Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI

Si vous dcidez d'excuter le logiciel de gestion du SAN sur une machine virtuelle, vous bnficiez de tous les avantages de l'excution d'une machine virtuelle, y compris le basculement l'aide de vMotion et de VMware HA. Toutefois, en raison du niveau supplmentaire d'indirection, il se peut que le logiciel de gestion ne soit pas en mesure de voir le SAN. Dans ce cas, utilisez un RDM. REMARQUE Le succs d'excution d'un logiciel de gestion par une machine virtuelle dpend du systme de stockage.

Prsentation des banques de donnes VMFS


Pour stocker les disques virtuels, ESX/ESXi utilise des banque de donnes qui sont des conteneurs logiques cachant les dtails du stockage aux machines virtuelles et fournissant un modle uniforme pour le stockage des fichiers de machines virtuelles. Les banques de donnes que vous dployez sur les priphriques de stockage utilisent gnralement le format VMware Virtual Machine File System (VMFS), un format de systme de fichiers haute performance optimis pour le stockage des machines virtuelles. Une banque de donnes VMFS peut faire fonctionner plusieurs machines virtuelles. VMFS offre un verrouillage distribu des fichiers de vos machines virtuelles afin de leur permettre de fonctionner en toute scurit dans un environnement SAN au sein duquel plusieurs htes ESX/ESXi partagent la mme banque de donnes VMFS. Utilisez vSphere Client pour configurer une banque de donnes VMFS l'avance sur un priphrique de stockage bas sur des blocs, que dtecte votre hte ESX/ESXi. Une banque de donnes VMFS peut tre tendue pour englober plusieurs extensions de stockage physique, y compris les LUN du SAN et le stockage local. Cette fonction vous permet de regroupesr votre stockage et vous assure une grande souplesse de cration de banque de donnes ncessaires votre machine virtuelle. Vous pouvez augmenter la capacit d'une banque de donnes pendant que les machines virtuelles fonctionnent sur la banque de donnes. Ainsi, vous pouvez augmenter l'espace de vos banque de donnes VMFS si votre machine virtuelle en a besoin. VMFS est conu pour un accs simultan depuis plusieurs machines physiques et met en place les contrles d'accs sur les fichiers des machines virtuelles.

Partage d'une banque de donnes VMFS sur des htes ESX/ESXi


En tant que systme de fichiers en cluster, VMFS permet plusieurs htes ESX/ESXi d'accder simultanment la mme banque de donnes VMFS. Pour garantir l'impossibilit d'accs la mme machine virtuelle par plusieurs serveurs en mme temps, VMFS offre le verrouillage sur disque. Figure 1-3 montre plusieurs systmes ESX/ESXi partageant le mme volume VMFS. Figure 1-3. Partage d'une banque de donnes VMFS sur des htes ESX/ESXi
ESX/ESXi A ESX/ESXi B ESX/ESXi C

VM1

VM2

VM3

Volume VMFS disque1 virtuel disque2disque fichiers disque3

VMware, Inc.

17

Guide de configuration iSCSI SAN

Les machines virtuelles partagent une banque de donnes VMFS communes, il pourrait donc tre difficile de caractriser les priodes de pics d'accs ou d'optimiser les performances. Prvoyez l'accs au stockage des machines virtuelles pendant les priodes de pointe, cependant, il se peut que des applications aient des priodes de pics d'accs diffrentes. VMware recommande d'quilibrer la charge des machines virtuelles sur des serveurs, des CPU et sur le stockage. Excutez diverses machines virtuelles sur chaque serveur afin qu'elles ne subissent pas de trop fortes demandes dans la mme zone et en mme temps.

Mises niveau des mtadonnes


Une banque de donnes VMFS contient, entre autres, les fichiers, les rpertoires, les liens symboliques, les fichiers descripteurs RDM des machines virtuelles. La banque de donnes maintient galement une vue cohrente de toutes les informations de mappage pour ces objets. Ces informations de mappage sont appeles mtadonnes. Les mtadonnes sont mises niveau chaque accs ou modification des attributs d'un fichier d'une machine virtuelle, par exemple, lorsque vous effectuez l'une des oprations suivantes :
n n n

Cration, agrandissement ou verrouillage d'un fichier de la machine virtuelle Modification des attributs d'un fichier Dmarrage ou arrt d'une machine virtuelle

Prendre des dcisions LUN


Planifiez la configuration du stockage de vos systmes ESX/ESXi avant de formater les LUN avec les banque de donnes VMFS. Lorsque vous prenez une dcision de LUN, envisagez les choses suivantes :
n

Chaque LUN doit avoir le bon niveau RAID et des caractristiques de stockage correctes pour les applications s'excutant dans les machines virtuelles utilisant la LUN. Une LUN doit uniquement contenir une banque de donnes VMFS. Si plusieurs machines virtuelles ont accs au mme VMFS, utilisez les partages de disque pour classer les machines virtuelles par ordre de priorit.

n n

Vous pourriez souhaiter utiliser moins de LUN mais de plus grande taille pour les raisons suivantes :
n

Plus de souplesse de cration des machines virtuelles sans avoir demander plus d'espace de stockage l'administrateur. Plus de souplesse de redimensionnement des disques virtuels, de prise de snapshots et de bien d'autres choses encore. Moins de banques de donnes VMFS grer.

Vous pourriez souhaiter utiliser moins de LUN et de plus petite taille pour les raisons suivantes :
n n n n

Gain d'espace. Diffrentes applications pourraient ncessiter des caractristiques RAID diffrentes. Plus de souplesse grce la dfinition de la rgle de gestion multivoie et des partages de disque par LUN. L'utilisation du service de cluster de Microsoft (Microsoft Cluster Service) exige que chaque ressource de disque en cluster soit dans sa LUN respective. Meilleures performances car un volume unique subit moins de contention.

Lorsque la caractrisation du stockage d'une machine virtuelle n'est pas disponible, il n'existe pas de mthode simple pour dterminer le nombre et la taille des LUN configurer. Vous pouvez essayer l'aide d'un schma prdictif ou adaptatif.

18

VMware, Inc.

Chapitre 1 Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI

Utilisation du schma prdictif pour prendre les dcisions de LUN


Lors du paramtrage du stockage pour les systmes ESX/ESXi, et avant la cration de banque de donnes VMFS, vous devez dcider de la taille et du nombre de LUN mettre en place. Vous pouvez essayer le schma prdictif. Procdure 1 2 3 Mettez en place plusieurs LUN avec diffrentes caractristiques de stockage. Crez une banque de donnes VMFS sur chaque LUN, en tiquetant chaque banque de donnes selon ses caractristiques. Crez des disques virtuels qui contiendront les donnes des applications de la machine virtuelle dans les banque de donnes VMFS cres sur les LUN avec le niveau RAID appropri aux conditions requises des applications. Utilisez les partages de disque pour distinguer les machines virtuelles disposant des priorits les plus hautes de celles ayant les priorits les plus basses. REMARQUE Les partages de disque sont uniquement utiles au sein d'un hte dfini. Les partages assigns aux machines virtuelles sur un hte n'exercent aucun effet sur des machines virtuelles sur d'autres htes. 5 Excutez les applications pour dterminer si les performances de la machine virtuelle sont acceptables.

Utilisation du schma adaptatif pour prendre les dcisions de LUN


Lors du dfinition du stockage pour les htes ESX/ESXi, et avant la cration de banque de donnes VMFS, vous devez dcider de la taille et du nombre de LUN mettre en place. Vous pouvez essayer le schma adaptatif. Procdure 1 2 3 4 Mettez en place une LUN (RAID 1+0 ou RAID 5) de grande taille et activez la mise en cache des critures. Crez un VMFS sur cette LUN. Crez quatre ou cinq disques virtuels sur le VMFS. Excutez les applications pour dterminer si les performances du disque sont acceptables.

Si les performances sont acceptables, placez les disques virtuels supplmentaires sur le VMFS. Si les performances ne sont pas acceptables, crez un nouveau LUN de grande taille avec un niveau RAID diffrent et rptez la procdure. Utilisez la migration afin de ne pas perdre les donnes des machines virtuelles lorsque vous recrez la LUN.

Utiliser les partages de disque pour dfinir la priorit des machines virtuelles
Si plusieurs machines virtuelles ont accs la mme banque de donnes VMFS (et donc la mme LUN), utilisez les partages de disque pour tablir un ordre de priorit d'accs au disque partir des machines virtuelles. Les partages de disque distinguent les machines virtuelles haute priorit et basse priorit. Procdure 1 2 3 Dmarrez un vSphere Client et connectez-vous au vCenter Server. Slectionnez la machine virtuelle dans le panneau d'inventaire et cliquez sur [Modifier les paramtres de machine virtuelle] partir du menu. Cliquez sur l'onglet [Ressources] , puis cliquez sur [Disque] .

VMware, Inc.

19

Guide de configuration iSCSI SAN

Cliquez deux fois sur la colonne [Partages] du disque pour modifier et slectionnez la valeur de votre choix partir du menu droulant. Les partages sont une valeur qui reprsente la mesure relative pour la bande passante de contrle de disque toutes les machines virtuelles. Les valeurs Basses, Normales, Hautes et Personnalises sont compares la somme de tous les partages de toutes les machines virtuelles sur le serveur (sur un hte ESX) et sur la console du service. Les valeurs symboliques d'allocation de partages peuvent tre utilises pour configurer leur conversion en valeurs numriques.

Cliquez sur [OK] pour enregistrer votre slection.

REMARQUE Les partages de disque sont appropris seulement dans un hte indiqu d'ESX/ESXi. Les partages assigns aux machines virtuelles sur un hte n'exercent aucun effet sur des machines virtuelles sur d'autres htes.

Accs des machines virtuelles aux donnes sur un SAN


ESX/ESXi stocke les fichiers disque d'une machine virtuelle dans une banque de donnes VMFS se trouvant sur un priphrique de stockage du SAN. Lorsque les systmes d'exploitation invits de la machine virtuelle envoient des commandes SCSI leurs disques virtuels, la couche de virtualisation SCSI traduit ces commandes en oprations de fichier VMFS. Lorsqu'une machine virtuelle interagit avec son disque virtuel stock sur un SAN, le processus suivant a lieu : 1 2 3 4 Lorsque le systme d'exploitation invit sur une machine virtuelle lit ou crit sur le disque SCSI, il envoie des commandes SCSI au disque virtuel. Les pilotes de priphriques dans le systme d'exploitation de la machine virtuelle communiquent avec les contrleurs SCSI virtuels. Le contrleur SCSI virtuel transmet la commande au VMkernel. Le VMkernel effectue les tches suivantes :
n n

Recherche du fichier dans le volume VMFS correspondant au disque de la machine virtuelle invite. Mappage des requtes de blocs sur le disque virtuel sur les blocs sur le priphrique physique appropri. Envoi de la demande d'E/S modifie partir du pilote du priphrique du VMkernel vers l'initiateur iSCS (matriel ou logiciel).

Si l'initiateur iSCSI est un adaptateur iSCSI matriel (indpendant ou dpendant), l'adaptateur effectue les tches suivantes :
n n n

Encapsulation des demandes d'E/S dans les units de donnes de protocole (PDU) iSCSI. Encapsulation des PDU iSCSI dans les paquets TCP/IP. Envoi des paquets IP via Ethernet au systme de stockage iSCSI.

Si l'initiateur iSCSI est un adaptateur iSCSI logiciel, les actions suivantes ont lieu :
n n n n

L'initiateur iSCSI encapsule les demandes d'E/S dans les PDU iSCSI. L'initiateur envoie les PDU iSCSI via des connexions TCP/IP. La pile TCP/IP VMkernel relaie les paquets TCP/IP vers un adapteur rseau (NIC) physique. La carte rseau (NIC) physique envoie les paquets IP via Ethernet au systme de stockage iSCSI.

Selon le port utilis par l'initiateur iSCSI pour se connecter au rseau, les commutateurs et les routeurs Ethernet achemine la demande jusqu'au priphrique de stockage auquel l'hte souhaite accder.

20

VMware, Inc.

Chapitre 1 Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI

Prsentation de la gestion multichemin et du basculement


Pour assurer une connexion constante entre un hte ESX/ESXi et son stockage, ESX/ESXi prend en charge le chemins multiples. Le chemins multiples est une technique permettant d'utiliser plusieurs chemins d'accs physique pour transfrer des donnes entre l'hte et un priphrique de stockage externe. En cas de dfaillance d'un lment sur le rseau SAN, tel qu'un adapteur, un commutateur ou un cble, ESX/ ESXi peut basculer vers un autre chemin d'accs physique, qui n'utilise pas le composant dfaillant. Ce processus de basculement du chemin afin d'viter des composants dfaillants est connu sous le nom de basculement de chemin. En plus du basculement de chemin, le chemins multiples permet d'quilibrer les charges. L'quilibrage de charge est le procd qui consiste distribuer les charges E/S sur diffrents chemins d'accs physiques. L'quilibrage de charge rduit, voire supprime, les goulots d'tranglement potentiels. REMARQUE Les E/S d'une machine virtuelle peuvent tre retards de soixante secondes maximum lors du basculement de chemin. Ces dlais permettent au SAN de stabiliser sa configuration aprs les modifications de topologie. En gnral, les dlais d'E/S peuvent s'avrer plus longs sur les baies actives/passives et plus courts sur les baies actives/actives.

Gestion des chemins multiples


Pour la gestion multivoie de stockage, ESX/ESXi utilise une couche VMkernel spciale nomme Architecture de stockage enfichable (PSA). Le PSA est une structure modulaire ouverte qui coordonne les oprations simultanes de plusieurs plug-ins multichemin (MPP). Le plug-in multichemin VMkernel que ESX/ESXi fournit par dfaut est le VMware Native Multipathing PlugIn (NMP). Le NMP est un module extensible qui gre les sous-plugins. Il existe deux types de sous-plugins NMP : Storage Array Type Plug-Ins (SATP) et Path Selection Plug-Ins (PSP). SATP et PSP peuvent tre intgrs et fournis par VMware ou par un tiers. Si davantage de fonctionnalits de gestion multivoie sont ncessaires, un tiers peut galement fournir un MPP excuter en complment ou en remplacement du NMP par dfaut. Lors de la coordination du VMware NMP et de tous les MPP tiers installs, la PSA effectue les tches suivantes :
n n n

Chargement et dchargement des plug-ins multichemin. Dissimulation des informations dtailles sur la machine virtuelle un plug-in particulier. Routage des demandes d'E/S pour un priphrique logique spcifique vers le MPP qui gre ce priphrique. Traitement des files d'attente d'E/S vers les priphrique logiques. Mise en place du partage de la bande passante du priphrique logique entre les machines virtuelles. Traitement des files d'attente d'E/S vers les HBA de stockage physiques. Traitement de la dtection et de la suppression des chemins physiques. Mise disposition des statistiques d'E/S du priphrique logique et du chemin physique.

n n n n n

Comme Figure 1-4 l'illustre, plusieurs MPP tiers peuvent s'excuter en parallle avec le VMware NMP. Lorsqu'ils sont installs, les MPP tiers remplacent le comportement du NMP et prennent le contrle total du basculement de chemin et des oprations d'quilibrage de charge pour les priphriques de stockage spcifis.

VMware, Inc.

21

Guide de configuration iSCSI SAN

Figure 1-4. Architecture de stockage enfichable


VMkernel architecture de stockage enfichable
tiers MPP tiers MPP VMware NMP VMware SATP VMware SATP VMware SATP SATP tiers PSP tiers VMware PSP VMware PSP

Les modules de gestion multivoie effectuent les oprations suivantes :


n n n n n

Gestion des rclamations et des non rclamations de chemins physiques. Gestion de la cration, de l'enregistrement et de l'annulation d'enregistrement des priphriques logiques. Association des chemins physiques avec les priphriques logiques. Prise en charge de la dtection et de la correction des pannes de chemin. Traitement des demandes d'E/S vers les priphriques logiques :
n n

Slection d'un chemin physique optimal pour la demande. Excution, selon le priphrique de stockage, d'actions spcifiques ncessaires au traitement des dfaillances de chemins et des nouvelles tentatives de commande d'E/S.

Prise en charge des tches de gestion, telles que l'interruption et la rinitialisation des priphriques logiques.

Module de gestion multivoie de VMware


Par dfaut, ESX/ESXi offrent un module multichemin extensible nomm Native Multipathing Plug-In (NMP). De manire gnrale, le VMware NMP prend en charge toutes les baies de stockage rpertories sur la liste de compatibilit matrielle (HCL) de stockage de VMware et fournit un algorithme de slection de chemin par dfaut reposant sur le type de baie. Le NMP associe une srie de chemins physiques un priphrique de stockage spcifique ou une LUN. Les dtails spcifiques du traitement du basculement de chemin pour une baie de stockage spcifique sont dlgus au Storage Array Type Plugin (SATP). Les dtails spcifiques de dtermination du chemin physique utilis pour mettre une demande d'E/S un priphrique de stockage sont traits par un Path Selection Plugin (PSP). Les SATP et les PSP sont des sous-plugins dans le module NMP. Suite l'installation de ESX/ESXi, le SATP appropri correspondant la baie que vous utilisez sera install automatiquement. Il n'est pas ncessaire d'obtenir ou de tlcharger de SATP. SATP de VMware Les Storage Array Type Plug-Ins (SATP) s'excutent avec VMware NMP et sont responsables des oprations spcifiques aux baies. ESX/ESXi offre un SATP pour chaque type de baie pris en charge par VMware. Il fournit galement les SATP par dfaut qui prennent en charge les baies de stockage non-spcifiques actives/actives et ALUA et le SATP local pour les priphriques directement relis. Chaque SATP contient des caractristiques spciales d'une certaine classe de baies de stockage et effectue les oprations spcifiques la baie ncessaires pour dtecter l'tat du chemin et pour activer un chemin inactif. Par consquent, le module NMP peut fonctionner avec de nombreuses baies de stockage sans avoir connatre les informations dtailles du priphrique de stockage.

22

VMware, Inc.

Chapitre 1 Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI

Ds que le NMP dtermine le SATP utiliser pour un priphrique de stockage spcifique et qu'il associe le SATP aux chemins physiques de ce priphrique de stockage, le SATP met en uvre les tches suivantes :
n n n

Surveillance du bon fonctionnement de chaque chemin physique. Rapports sur les modifications d'tat de chaque chemin physique. Excution d'actions spcifiques la baie ncessaires pour le basculement du stockage. Par exemple, pour les priphriques actifs-passifs, il peut activer les chemins passifs.

PSP de VMware Path Selection Plug-Ins (PSP) s'excute avec VMware NMP et choisit un chemin physique pour les demandes d'E/S. VMware NMP affecte un PSP par dfaut pour chaque priphrique logique selon le SATP associ aux chemins physiques de ce priphrique. Vous pouvez remplacer le PSP par dfaut. Par dfaut, le VMware NMP prend en charge les PSP suivants : Dernire utilisation (VMW_PSP_MRU) Slectionne le chemin que l'hte ESX/ESXi a le plus rcemment utilis pour accder au priphrique. Si ce chemin est indisponible, l'hte opte pour un autre chemin et continue d'utiliser le nouveau chemin tant qu'il est disponible. MRU est la rgle de chemin par dfaut pour les baies actives/passives. Utilise le chemin favori s'il a t configur. Sinon, il utilise le premier chemin oprationnel dtect au moment du dmarrage du systme. Si l'hte n'est pas en mesure d'utiliser le chemin favori, il slectionne de manire alatoire un autre chemin disponible. L'hte revient vers le chemin favori ds que celui-ci est disponible. Fixe est la rgle de chemin par dfaut pour les baies actives/ actives. AVERTISSEMENT Si elle est utilise avec des baies actives/passives, la rgle de chemin [Fixe] pourrait causer le vidage du chemin. VMW_PSP_FIXED_AP Round Robin (VMW_PSP_RR) Flux d'E/S de VMware NMP Lorsqu'une machine virtuelle envoie une demande d'E/S un priphrique de stockage gr par le NMP, le processus suivant a lieu : 1 2 3 4 5 6 7 Le NMP appelle le PSP assign ce priphrique de stockage. Le PSP slectionne le chemin physique appropri sur lequel il peut envoyer l'E/S. Le NMP envoie la requte d'E/S sur le chemin slectionn par le PSP. Si l'opration d'E/S russie, le NMP signale qu'elle est termine. Si l'opration d'E/S choue, le NMP appelle le SATP appropri. Le SATP interprte les erreurs de commande d'E/S et, si ncessaire, active les chemins inactifs. Le PSP est appel et slectionne un nouveau chemin sur lequel il peut envoyer l'E/S. tend la fonctionnalit Fixe au baies actives/passives et de mode ALUA. Utilise un algorithme de slection de chemins qui passe en revue tous les chemins actifs disponibles en activant l'quilibrage de charge sur les chemins.

Fixe (VMW_PSP_FIXED)

VMware, Inc.

23

Guide de configuration iSCSI SAN

Basculement de chemin bas sur hte


Lors de la configuration de votre hte ESX/ESXi pour la gestion de chemins multiples et le basculement, vous pouvez utiliser plusieurs HBA iSCSI ou plusieurs cartes rseau selon le type d'initiateurs iSCSI de votre hte. Figure 1-5 montre les configurations chemins multiples possibles avec diffrents types d'initiateurs iSCSI. Figure 1-5. Basculement de chemin bas sur hte
matriel iSCSI hte 1 logiciel carte HBA2 HBA1 NIC2 NIC1 logiciel iSCSI hte 2

Mise en rseau IP

SP

Stockage iSCSI

Basculement avec iSCSI matriel


Avec le iSCSI matriel, l'hte a gnralement plusieurs adaptateurs iSCSI matriels disponibles partir desquels le systme de stockage peut tre atteint l'aide d'un ou plusieurs commutateurs. La configuration peut galement inclure un adaptateur et deux processeurs de stockage afin que l'adaptateur utilise un chemin diffrent pour atteindre le systme de stockage. Sur l'illustration Figure 1-5, Host1 possde deux adaptateurs iSCSI matriels, HBA1 et HBA2, qui fournissent deux chemins physiques vers le systme de stockage. Les plug-ins de chemins multiples sur votre hte, qu'il s'agisse d'un NMP VMkernel ou de MPP tiers, ont accs aux chemins par dfaut et peuvent surveiller la sant de chaque chemin physique. Si, par exemple, le HBA1 ou la liaison entre le HBA1 et le rseau choue, les plugins de chemins multiples peuvent basculer le chemin sur le HBA2.

Basculement avec iSCSI logiciel


Avec le iSCSI logiciel, comme indiqu sur Hte 2 de Figure 1-5, vous pouvez utiliser plusieurs cartes d'interface rseau qui fournissent des fonctions de basculement et d'quilibrage de charge pour les connexions iSCSI entre votre hte et les systmes de stockage. Pour cette configuration, tant donn que les plug-in de chemins multiples n'ont pas un accs direct aux adaptateurs rseau physiques de votre hte, vous devez tout d'abord connecter chaque carte rseau physique un port VMkernel distinct. Vous associez ensuite tous les ports VMkernel l'initiateur iSCSI logiciel l'aide d'une technique de liaison de port. En consquence, chaque port VMkernel connect un adaptateur d'interface rseau spare devient un chemin diffrent que la pile de stockage iSCSI et ses plug-ins de chemins multiples prenant en charge le stockage peuvent utiliser. Pour plus d'informations sur la configuration du chemins multiples pour l'iSCSI logiciel, voir Configuration du rseau pour l'iSCSI logiciel et l'iSCSI matriel dpendant , page 36.

24

VMware, Inc.

Chapitre 1 Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI

Basculement bas sur baie


Certains systmes de stockage iSCSI grent l'utilisation des chemins de leurs ports de manire automatique et transparente vers ESX/ESXi. Lorsque vous utilisez l'un de ces systmes de stockage, ESX/ESXi ne voit pas plusieurs ports sur le stockage et ne peut pas choisir le port de stockage auquel se connecter. Ces systmes disposent d'une seule adresse de port virtuel qu'ESX/ESXi utilise au dpart pour communiquer. Pendant cette communication initiale, le systme de stockage peut rediriger ESX/ESXi pour qu'il communique avec un autre port sur le systme de stockage. Les initiateurs iSCSI dans ESX/ESXi obissent cette demande de reconnexion et se connectent un autre port sur le systme. Le systme de stockage utilise cette technique pour rpartir la charge sur les diffrents ports disponibles. Si ESX/ESXi perd sa connexion l'un de ces ports, il tente automatiquement de se reconnecter avec le port virtuel du systme de stockage et doit tre redirig vers un port utilisable actif. Cette reconnexion et redirection se produit rapidement et n'interrompt gnralement pas l'excution des machines virtuelles. Ces systmes de stockage peuvent galement demander que les initiateurs iSCSI se reconnectent au systme pour modifier le port de stockage auquel ils sont connects. Cela permet une utilisation plus efficace des diffrents ports. Figure 1-6 montre un exemple de redirection de port. ESX/ESXi tente de se connecter au port virtuel 10.0.0.1. Le systme de stockage redirige cette demande vers 10.0.0.2. ESX/ESXi se connecte 10.0.0.2 et utilise ce port pour la communication E/S. REMARQUE Le systme de stockage ne redirige pas toujours les connexions. Le port 10.0.0.1 peut galement tre utilis pour le trafic. Figure 1-6. Redirection de port
ESX/ESXi "Se connecter au stockage 10.0.0.1" 10.0.0.1 "Se reconnecter 10.0.0.2" 10.0.0.2 stockage

ESX/ESXi

Trafic de stockage iSCSI 10.0.0.1 10.0.0.2 stockage

Si le port du systme de stockage qui agit en tant que port virtuel devient indisponible, le systme de stockage rattribue l'adresse du port virtuel un autre port du systme. Figure 1-7 montre un exemple de ce type de rattribution de port. Dans ce cas, le port virtuel 10.0.0.1 devient indisponible et le systme de stockage rattribue l'adresse IP du port virtuel un autre port. Le second port rpond aux deux adresses.

VMware, Inc.

25

Guide de configuration iSCSI SAN

Figure 1-7. Rattribution de port


10.0.0.1 10.0.0.2 stockage

10.0.0.1 10.0.0.1 10.0.0.2 stockage

Avec un basculement bas sur baie, vous pouvez avoir plusieurs chemins d'accs au stockage uniquement si vous utilisez plusieurs ports sur l'hte ESX/ESXi. Ces chemins sont actifs-actifs. Pour plus d'informations, consultez Gestion des sessions iSCSI , page 50.

Choisir l'emplacement des machines virtuelles


Si vous souhaitez optimiser les performances de vos machines virtuelles, l'emplacement du stockage est un facteur important. Il existe toujours un compromis entre un stockage onreux qui offre des performances leves et une grande disponibilit et un stockage moins onreux mais offrant moins de performances. Le stockage peut tre divis en plusieurs niveaux, selon un certain nombre de facteurs :
n

Niveau lev. Offre de hautes performances et une grande disponibilit. Peut offrir des snapshots intgrs pour faciliter les sauvegardes et les restaurations instantanes. Prend en charge la rplication, la redondance SP complte et les lecteurs SAS. Utilise des axes de prix lev. Niveau intermdiaire Offre des performances de milieu de gamme, une disponibilit plus faible, quelques redondances SP et des lecteurs SCSI ou SAS. Peut proposer des snapshots. Utilise des axes de prix moyen. Niveau infrieur Offre des performances faibles, peu de redondance de stockage interne. Utilise des pilotes SCSI ou SATA bas de gamme (axes de srie peu onreux).

Toutes les applications ne doivent pas ncessairement offrir les performances les plus leves ou un stockage la plus grande disponibilit, tout du moins pas tout au long de leur cycle de vie. REMARQUE Si vous avez besoin de certaines fonctionnalits du niveau suprieur, telles que les snapshots, mais que vous ne souhaitez pas en payer le prix, vous pouvez peut-tre obtenir certaines caractristiques de performance leve grce un logiciel. Par exemple, vous pouvez crer des snapshots dans un logiciel. Lorsque vous dcidez de l'emplacement d'une machine virtuelle, posez-vous ces questions :
n n n n n

quel point la machine virtuelle est-elle essentielle ? Quelles sont ses exigences en termes de performances et de disponibilits ? Quelles sont ses exigences en termes de restauration instantane ? Quelles sont ses exigences en termes de sauvegarde ? Quelles sont ses exigences en termes de rplication ?

26

VMware, Inc.

Chapitre 1 Utilisation d'ESX/ESXi avec un rseau de zone de stockage iSCSI

Une machine virtuelle peuvent changer de niveau au cours de son cycle de vie suite des modifications d'importance ou de technologie qui entranent les fonctionnalits de niveau suprieur vers un niveau infrieur. Son importance est relative et peut changer pour diverses raisons, parmi lesquelles les modifications apportes l'organisation, les processus oprationnels, les obligations rglementaires, la planification suite un incident, etc.

Conception pour les pannes de serveur


L'architecture RAID du stockage SAN vous protge par nature des pannes au niveau du disque physique. Un SAN fournit plusieurs chemins entre les serveurs et le stockage, ce qui permet une certaine protection contre les pannes de rseau ou de port. L'tape finale pour la protection complte de votre environnement contre les pannes est la protection contre les pannes de serveur.

Utilisation de VMware HA
L'une des options de basculement proposes par ESX/ESXi est VMware High Availability (HA). VMware HA vous permet d'organiser les machines virtuelles en groupes de basculement. Lorsqu'un hte choue, toutes ses machines virtuelles dmarrent immdiatement sur d'autres htes. Lorsqu'une machine virtuelle est restaure sur un autre hte, elle perd l'tat de sa mmoire, mais l'tat de son disque est exactement le mme qu'au moment de l'chec de l'hte (basculement suite un blocage). Le stockage partag (tel qu'un SAN) est requis pour HA. REMARQUE Vous devez disposer d'une licence pour utiliser VMware HA.

Basculement de serveur et considrations relatives au stockage


Lorsque vous configurez votre hte ESX/ESXi pour qu'il fonctionne conjointement au SAN, l'ensemble de votre environnement doit tre rsistant aux pannes et vous devez le protger contre les dfaillances d'hte. Pour chaque type de basculement de serveur, vous devez suivre ces pratiques :
n

Les approches du basculement de serveur fonctionnent uniquement si chaque serveur a accs au mme stockage. tant donn que plusieurs serveurs ncessitent un espace disque important, et que le basculement pour le systme de stockage s'ajoute au basculement pour le serveur, les SAN sont gnralement utiliss conjointement au basculement de serveur. Lorsque vous configurez un SAN pour qu'il fonctionne conjointement au basculement de serveur, tous les htes ESX/ESXi doivent voir toutes les banques de donnes utilises par les machines virtuelles en cluster. Mme si une banque de donnes est accessible un hte, toutes les machines virtuelles sur cet hte n'ont pas ncessairement accs toutes les donnes de cette banque de donnes. Une machine virtuelle peut accder uniquement aux disques virtuels pour lesquels elle a t configure. En cas d'erreur de configuration, les disques virtuels sont verrouills lorsque la machine virtuelle dmarre pour qu'aucune donne ne soit corrompue.

REMARQUE En rgle gnrale, lorsque vous dmarrez partir d'un SAN, chaque volume de dmarrage doit tre visible uniquement par l'hte qui dmarre partir de ce volume. Il existe cependant une exception, lors d'une rcupration aprs chec en pointant un deuxime hte vers le mme volume. Dans ce cas, le volume SAN en question n'est pas vraiment concern par le dmarrage partir d'un SAN. Aucun hte ne dmarre partir de celui-ci car il est corrompu. Le volume SAN est un volume de non dmarrage standard, rendu visible pour un hte.

VMware, Inc.

27

Guide de configuration iSCSI SAN

Affichage et nouvelle analyse des LUN


Un SAN est dynamique et la disponibilit des LUN sur un hte spcifique change en fonction de nombreux facteurs. Le VMkernel recherche les LUN lors de son dmarrage et celles-ci sont ensuite visibles dans vSphere Client. En cas de modifications des LUN, procdez une nouvelle analyse pour voir ces modifications.
n n n

Nouvelles LUN cres sur le stockage iSCSI Modifications du contrle d'accs aux LUN Modifications de la connectivit

28

VMware, Inc.

Configuration des initiateurs iSCSI et du stockage

ESX/ESXi ne pourra pas fonctionner avec un SAN tant que vous n'aurez pas configur vos initiateurs iSCSI et votre stockage. Pour le faire, vous devez d'abord remplir certaines conditions pralables basiques, puis suivre les directives de meilleures pratiques pour l'installation et la configuration des initiateurs iSCSI matriels ou logiciels pour accder au SAN. Ce chapitre aborde les rubriques suivantes :
n n n n n n n n n n n n n n n n

Conditions requises pour un SAN iSCSI avec ESX/ESXi , page 30 Restrictions d'un SAN iSCSI ESX/ESXi , page 30 Dfinition des allocations de LUN , page 30 Configuration de rseau et authentification , page 31 Configurer des adaptateurs iSCSI matriels indpendants , page 31 Installation et configuration d'adaptateurs iSCSI matriels dpendants , page 32 Installation et configuration d'un adaptateur iSCSI logiciel , page 34 Configuration du rseau pour l'iSCSI logiciel et l'iSCSI matriel dpendant , page 36 Associer des ports iSCSI aux adaptateurs iSCSI , page 40 Utilisation des trames Jumbo avec iSCSI , page 41 Activation des trames Jumbo pour l'iSCSI logiciel et matriel dpendant , page 42 Configurer des adresses de dcouverte pour des initiateurs iSCSI , page 43 Configurer des paramtres CHAP pour des cartes iSCSI , page 44 Configurer des paramtres supplmentaires pour l'iSCSI , page 48 Gestion des sessions iSCSI , page 50 Ajouter du stockage iSCSI , page 52

VMware, Inc.

29

Guide de configuration iSCSI SAN

Conditions requises pour un SAN iSCSI avec ESX/ESXi


Vous devez remplir plusieurs conditions ncessaires pour que votre hte ESX/ESXi fonctionne correctement avec un SAN.
n

Vrifiez que les combinaisons de microprogramme et matriel de stockage SAN que vous utilisez sont prises en charge avec les systmes ESX/ESXi. Pour obtenir une liste jour, consultez la section Stockage/ SAN du Guide de compatibilit matrielle en ligne. Configurez votre systme de faon n'avoir qu'une seule banque de donnes pour chaque LUN. Dans VMFS-3, vous n'avez plus besoin de configurer l'accessibilit. Sauf si vous utilisez des serveurs sans disques (dmarrage partir d'un SAN), ne crez pas de partition de diagnostic sur une LUN de SAN. Dans le cas d'un serveur sans disques dmarrant partir d'un SAN, une partition de diagnostic partage est approprie. Utilisez les RDM pour accder tout disque brut. Dfinissez le pilote de contrleur SCSI dans le systme d'exploitation client sur une file suffisamment grande. Vous pouvez dfinir la profondeur de file d'attente pour le HBA physique lors de la configuration du systme. Sur les machines virtuelles sous Microsoft Windows, augmentez la valeur du paramtre SCSI TimeoutValue pour permettre Windows de mieux tolrer les dlais d'E/S dus un basculement de chemin.

n n

Restrictions d'un SAN iSCSI ESX/ESXi


Cette rubrique numre les restrictions prsentes lorsque vous utilisez ESX/ESXi avec un SAN iSCSI.
n n

ESX/ESXi ne prend en charge pas les priphriques bande connects par iSCSI. Vous ne pouvez pas utiliser le logiciel multi-chemins de machine virtuelle pour raliser un quilibrage E/ S vers une LUN matrielle unique. Un hte ne peut pas accder au mme LUN lorsqu'il utilise des adaptateurs iSCSI matriels dpendants et indpendants simultanment.

Dfinition des allocations de LUN


Lorsque vous prparez votre systme ESX/ESXi afin d'utiliser un stockage SAN en iSCSI, vous devez configurer les allocations de LUN. Notez les points suivants :
n

Provisionnement de stockage. Afin de garantir que l'hte ESX/ESXi reconnaisse bien les LUN au dmarrage, configurez toutes les cibles de stockage iSCSI de faon ce que votre hte puisse y accder et les exploiter. De mme, configurez votre hte de faon ce qu'il puisse dcouvrir toutes les cibles iSCSI. vMotion et VMware DRS. Lorsque vous utilisez vCenter Server et vMotion ou DRS, veillez ce que les LUN des machines virtuelles soient provisionns vers tous les htes ESX/ESXi. Cette configuration vous apporte la plus grande libert dans le dplacement des machines virtuelles. Baies actives/actives ou baies actives/passives. Lorsque vous utilisez vmotion ou DRS avec un priphrique de stockage SAN actif-passif, vrifiez bien que dans tous les systmes ESX/ESXi les chemins sont cohrents avec tous les processeurs de stockage. Sans cette vrification, une migration vMotion peut provoquer un crasement de chemin. Pour les baie de stockage actives/passives non numres dans la section Stockage/SAN du Guide en ligne de compatibilit VMware, VMware ne prend pas en charge le basculement des ports de stockage. Vous devez connecter le serveur au port actif sur le systme de stockage. Cette configuration garantit que les LUN sont prsents l'hte ESX/ESXi.

30

VMware, Inc.

Chapitre 2 Configuration des initiateurs iSCSI et du stockage

Configuration de rseau et authentification


Pour que ESX/ESXi puisse dtecter le stockage iSCSI, les initiateurs iSCSI doivent tre configurs et la configuration d'une authentification peut s'avrer ncessaire.
n

Pour les logiciels iSCSI et le matriel dpendant iSCSI, le rseau du VMkernel doit tre configur. Vous pouvez vrifier la configuration rseau grce l'utilitaire vmkping. Pour le matriel iSCSI, les paramtres rseau tels l'adresse IP, le masque de sous-rseau, et la passerelle par dfaut doivent tre configurs sur le HBA. Vrifiez et changez le nom de l'initiateur par dfaut si ncessaire. L'adresse de dcouverte du systme de stockage doit tre configure et on doit pouvoir la joindre par un ping vmkping. Pour l'autentification CHAP, activez la sur l'initiateur et du ct du systme de stockage. Une fois l'autentification active, elle s'appliquera toutes les cibles non encore dcouvertes, mais pas aux adresses dj contactes. Aprs la dfinition de l'adresse de dcouverte, les nouvelles cibles dcouvertes sont exposes et peuvent dsormais tre utilises.

n n

Pour en savoir plus sur la commande vmkping, cherchez dans la Base de connaissances VMware.

Configurer des adaptateurs iSCSI matriels indpendants


Un adaptateur iSCSI matriel indpendant est un adaptateur tiers spcialis capable d'accder au stockage iSCSI via TCP/IP. Cet adaptateur iSCSI s'occupe de tout le traitement et de toute la gestion iSCSI et rseau de votre systme ESX/ESXi. La procdure complte d'installation et de configuration des adaptateurs iSCSI matriels indpendants comprend les tapes suivantes : 1 Vrifiez si l'adaptateur doit faire l'objet d'une licence. Consultez la documentation du fabricant. 2 Installez l'adaptateur. Pour toute information sur l'installation, consultez la documentation du fabricant. 3 Assurez-vous que l'adaptateur est correctement install. Reportez-vous Afficher des adaptateurs iSCSI matriels indpendants , page 31. 4 Configurez les adresses de dcouverte. Reportez-vous Configurer des adresses de dcouverte pour des initiateurs iSCSI , page 43. 5 Configurez les paramtres CHAP. Reportez-vous Configurer des paramtres CHAP pour des cartes iSCSI , page 44. Pour que votre hte puisse accder au stockage iSCSI, vous devez d'abord installer l'adaptateur iSCSI matriel et configurer l'adresse de dcouverte et les paramtres CHAP.

Afficher des adaptateurs iSCSI matriels indpendants


Affichez un adaptateur iSCSI matriel pour vrifier qu'il est correctement install et prt pour la configuration. Prrequis Une fois que vous avez install un adaptateur iSCSI matriel, il apparat dans la liste des adaptateurs de stockage disponibles pour la configuration. Vous pouvez consulter ses proprits. Privilge ncessaire :Hte.Configuration.Configuration de partition de stockage

VMware, Inc.

31

Guide de configuration iSCSI SAN

Procdure 1 2 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. S'il est install, l'initiateur iSCSI matriel doit figurer dans la liste d'adaptateurs de stockage. 3 Slectionnez l'initiateur consulter. Les dtails par dfaut de l'initiateur apparaissent, y compris le modle, le nom iSCSI, l'alias iSCSI, l'adresse IP ainsi que les informations sur la cible et les chemins. 4 Cliquez sur [Proprits] . La bote de dialogue de proprits d'initiateur iSCSI apparat. L'onglet [Gnral] affiche des caractristiques complmentaires sur l'initiateur. Vous pouvez maintenant configurer votre initiateur matriel ou modifier ses caractristiques par dfaut.

Modifier le nom et l'adresse IP des initiateurs matriels indpendants


Quand vous configurez vos initiateurs de matriel iSCSI indpendants, assurez-vous que leurs noms et adresses IP sont formats correctement. Procdure 1 2 3 Accdez la bote de dialogue de proprits d'initiateur iSCSI. Cliquez sur [Configurer] . Pour changer le nom iSCSI par dfaut pour votre initiateur, entrez le nouveau nom. Assurez-vous que le nom que vous entrez est unique mondialement et correctement format ou certains priphriques de stockage pourraient ne pas identifier l'initiateur du matriel iSCSI. 4 (Facultatif) Entrez l'alias iSCSI. L'alias est un nom que vous utilisez pour identifier l'initiateur du matriel iSCSI. 5 Changez les paramtres IP par dfaut. Vous devez modifier les paramtres IP par dfaut pour qu'ils soient configurs correctement pour le rseau de stockage IP. Travaillez avec votre administrateur rseau pour dterminer le paramtre IP pour le HBA. 6 Cliquez sur [OK] pour enregistrer vos modifications.

Si vous changez le nom iSCSI, celui-ci sera utilis pour de nouvelles sessions iSCSI. Pour des sessions existantes, les nouveaux paramtres ne seront pas utiliss jusqu' la dconnexion et la reconnexion.

Installation et configuration d'adaptateurs iSCSI matriels dpendants


Un adaptateur iSCSI matriel dpendant est un adaptateur tiers qui dpend du rseau VMware et des interfaces de configuration et de gestion iSCSI fournies par VMware. Ce type d'adaptateur peut tre une carte, par exemple Broadcom 5709 NIC, qui fournit un adaptateur rseau standard et la fonctionnalit de dchargement iSCSI pour le mme port. La fonctionnalit de dchargement iSCSI apparat dans la liste des adaptateurs de stockage en tant qu'adaptateur iSCSI. Bien que l'adaptateur iSCSI soit activ par dfaut, pour le rendre fonctionnel, vous devez configurer la mise en rseau pour le trafic iSCSI et lier l'adapateur et un port iSCSI VMkernel iSCSI appropri. Vous pourrez alors configurer l'adaptateur. La procdure complte d'installation et de configuration des adaptateurs iSCSI matriel dpendant comprend les tapes suivantes : 1 Affichez les adaptateurs matriels dpendants.

32

VMware, Inc.

Chapitre 2 Configuration des initiateurs iSCSI et du stockage

Reportez-vous Affichage des adaptateurs de matriel iSCSI dpendants , page 33. Si vos adaptateurs matriels dpendants n'apparaissent pas dans la liste des adaptateurs de stockage, vrifiez s'ils ncessitent une licence. Consultez la documentation du fabricant. 2 Dterminez l'association entre les adaptateurs matriels dpendants et les NIC physiques. Reportez-vous la section Dtermine l'association entre les adaptateurs de matriel iSCSI dpendants et les adaptateurs rseau physiques , page 34 Notez bien les noms des NIC physiques correspondants. Par exemple, l'adaptateur vmhba33 correspond au vmnic1 tandis que vmhba34 correspond au vmnic2. 3 Configurez le rseau iSCSI en crant des ports pour le trafic iSCSI. Reportez-vous Configuration du rseau pour l'iSCSI logiciel et l'iSCSI matriel dpendant , page 36. Ouvrez un port pour chaque NIC. Par exemple, crez le port vmk1 pour le vmnic1, et le port vmk2 pour le vmnic2. 4 Associez les ports iSCSI aux adaptateurs iSCSI matriels dpendants correspondants. Cette tape est ncessaire, que vous disposiez de plusieurs adaptateurs ou d'un seul. Reportez-vous Associer des ports iSCSI aux adaptateurs iSCSI , page 40. Dans cet exemple, le port vmk1 est associ vmhba33, et le port vmk2 est associ vmbh34. 5 Configurez les adresses de dcouverte. Reportez-vous Configurer des adresses de dcouverte pour des initiateurs iSCSI , page 43. 6 Configurez les paramtres CHAP. Reportez-vous Configurer des paramtres CHAP pour des cartes iSCSI , page 44.

Considrations sur l'iSCSI matriel dpendant


Lorsque vous utilisez des adaptateurs iSCSI matriels dpendants avec ESX/ESXi, certaines considrations s'appliquent.
n

Lorsque vous utilisez un adaptateur iSCSI matriel dpendant, le rapport de performances pour une carte rseau associe l'adaptateur ne montre que peu ou pas d'activit, mme lorsque le trafic iSCSI est intense. Cela est d au contournement de la pile rseau habituelle par le trafic iSCSI. L'adaptateur iSCSI Broadcom rassemble les donnes dans le matriel, dont l'espace tampon est limit. Lorsque vous utilisez l'adaptateur iSCSI Broadcom dans un rseau congestionn ou sous chargement, activez le contrle de flux pour viter la dgradation des performances. Le contrle de flux gre la vitesse de transmission des donnes entre deux nuds pour viter qu'un expditeur rapide ne dpasse un rcepteur lent. Pour obtenir de meilleurs rsultats, activez le contrle du flux aux points d'extrmit du chemin E/S, au niveau des htes et des systmes de stockage iSCSI.

Les adaptateurs iSCSI Broadcom ne prennent pas en charge les trames IPv6 et les trames jumbo.

Affichage des adaptateurs de matriel iSCSI dpendants


Affichez un adaptateur iSCSI matriel dpendant pour vrifier qu'il est correctement charg. Si l'adaptateur matriel dpendant ne figure pas dans la liste des adaptateurs de stockage, vrifiez s'il a besoin d'une licence. Consultez la documentation du fabricant.

VMware, Inc.

33

Guide de configuration iSCSI SAN

Procdure 1 2 Ouvrez une session sur vSphere Client et slectionnez un hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. S'il est install, l'adaptateur de matriel iSCSI doit figurer dans la liste d'adaptateurs de stockage. 3 Slectionnez l'adaptateur afficher et cliquez sur [Proprits] . La bote de dialogue Proprits affiche les dtails par dfaut pour l'adaptateur, y compris le nom iSCSI et l'alias iSCSI.

Dtermine l'association entre les adaptateurs de matriel iSCSI dpendants et les adaptateurs rseau physiques
Vous devez dterminer le nom de la carte rseau physique laquelle l'adaptateur iSCSI matriel dpendant est associ. Vous devez connatre l'association pour pouvoir effectuer correctement la liaison de port. Procdure 1 Utilisez la commande vSphere CLI pour dterminer le nom de la carte rseau physique laquelle l'adaptateur iSCSI est associ.
esxcli swiscsi vmnic list -d vmhba#

vmhba# est le nom de l'adaptateur iSCSI. 2 Dans la sortie, trouvez la ligne vmnic name: vmnic#. vmnic# est le nom de la carte rseau qui correspond l'adaptateur iSCSI. Suivant Aprs avoir dtermin le nom de la carte rseau, vous devez crer un port iSCSI sur un vSwitch connect la carte. Vous associez alors ce port l'adaptateur iSCSI matriel dpendant afin que votre hte puisse diriger le trafic iSCSI via la carte.

Installation et configuration d'un adaptateur iSCSI logiciel


Avec l'implmentation iSCSI logiciel, vous pouvez utiliser des cartes rseau standards pour connecter votre hte une cible iSCSI distante sur le rseau IP. L'adaptateur iSCSI logiciel compris dans ESX/ESXi facilite cette connexion en communicant avec les NIC physiques par la pile rseau. Quand vous vous connectez vCenter Server ou un hte avec vSphere Client, l'adaptateur iSCSI logiciel apparat dans la liste de vos adaptateurs de stockage. Un seul adaptateur iSCSI logiciel apparat. Pour pouvoir utiliser l'adaptateur iSCSI logiciel, vous devez d'abord installer le rseau, activer l'adaptateur, et configurer les paramtres tels que les adresses de dcouvertes et le CHAP. Le workflow de configuration de l'adaptateur iSCSI logiciel comprend les tapes suivantes : 1 Configurez le rseau iSCSI en crant des ports pour le trafic iSCSI. Reportez-vous Configuration du rseau pour l'iSCSI logiciel et l'iSCSI matriel dpendant , page 36. 2 Activez l'adaptateur iSCSI. Reportez-vous Activer l'adaptateur iSCSI logiciel , page 35. 3 Si vous utilisez des NIC multiples pour le multichemin iSCSI logiciel, associez les ports en connectant tous les ports iSCSI l'adaptateur iSCSI logiciel. Reportez-vous Associer des ports iSCSI aux adaptateurs iSCSI , page 40.

34

VMware, Inc.

Chapitre 2 Configuration des initiateurs iSCSI et du stockage

4 5

Si ncessare, activez les trames Jumbo. Les Trames jumbo doivent tre actives pour chaque vSwitch par le vSphere CLI. Configurez les adresses de dcouverte. Reportez-vous Configurer des adresses de dcouverte pour des initiateurs iSCSI , page 43.

Configurez les paramtres CHAP. Reportez-vous Configurer des paramtres CHAP pour des cartes iSCSI , page 44.

Activer l'adaptateur iSCSI logiciel


Vous devez activer votre adaptateur iSCSI logiciel avant que votre hte puisse l'utiliser pour accder au stockage iSCSI. Prrequis Avant d'activer l'adaptateur iSCSI logiciel, installez le rseau pour l'iSCSI. REMARQUE Si vous dmarrez depuis iSCSI en utilisant l'adaptateur logiciel iSCSI, l'adaptateur est activ et la configuration du rseau est cre automatiquement au premier dmarrage. Si vous dsactivez l'adaptateur, il est ractiv chaque dmarrage de l'hte. Procdure 1 2 Ouvrez une session sur vSphere Client et slectionnez un serveur dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. La liste des adaptateurs de stockage disponibles apparat. 3 4 5 Slectionnez l'initiateur iSCSI configurer et cliquez sur [Proprits] . Cliquez sur [Configurer] . Pour activer l'initiateur, slectionnez [Activ] et cliquez sur [OK] .

Aprs l'activation de l'initiateur, l'hte lui assigne un nom iSCSI par dfaut. Vous pouvez modifier le nom par dfaut si ncessaire.

VMware, Inc.

35

Guide de configuration iSCSI SAN

Configuration du rseau pour l'iSCSI logiciel et l'iSCSI matriel dpendant


Si vous utilisez l'adaptateur iSCSI logiciel ou les adaptateurs iSCSI matriels dpendants, vous devez configurer le rseau pour l'iSCSI pour pouvoir activer et configurer vos adaptateurs iSCSI. La configuration du rseau pour le iSCSI implique d'ouvrir un port iSCSI VMkernel pour le trafic entre l'adaptateur iSCSI et le NIC physique. Selon le nombre de NIC physiques utiliss par votre trafic iSCSI, la configuration rseau peut varier.
n

Si vous n'avez qu'un seul NIC physique, crez un port iSCSI sur un vSwitch connect au NIC. VMware vous recommande de dsigner un adaptateur rseau spar pour le iSCSI. N'utilisez pas d'iSCSI sur des adaptateurs 100Mbps ou plus lents. Si vous disposez de deux ou plus NIC physiques pour le iSCSI, crez un port iSCSI distinct pour chaque NIC physique et utilisez les NICs pour un multichemin iSCSI. Reportez-vous Figure 2-1. Figure 2-1. Mise en rseau avec iSCSI
Deux NIC physiques connects l'adaptateur logiciel iSCSI Deux NIC physiques avec capacit de dchargement

adaptateur logiciel iSCSI vmhba# vmk1 vSwitch Hte1 Hte1 vmnic1 vmnic2 vmk2 iSCSI ports

adaptateurs matriels iSCSI dpendants vmhba33 vmk1 vSwitch Hte2 vmnic1 vmnic2 virtuel vmhba34 vmk2

Hte2 physique

NIC physiques

NIC physiques avec iSCSI sans charge capacits Mise en rseau IP

Stockage iSCSI

Stockage iSCSI

REMARQUE Lorsque vous utilisez un adaptateur iSCSI matriel dpendant, le rapport de performances pour un NIC associ l'adaptateur ne ne montre que peu ou pas d'activit, mme lorsque le trafic iSCSI est intense. Cela est du au contournement de la pile rseau habituelle par le trafic iSCSI.
n

Crer un port iSCSI pour un NIC unique page 37 Utilisez cette tche pour connecter le VMkernel, qui excute les services pour le stockage iSCSI, une carte rseau physique. Si vous n'avez qu'une seule carte rseau physique exploitable pour le trafic iSCSI, voici la seule procdure suivre pour configurer votre rseau iSCSI.

36

VMware, Inc.

Chapitre 2 Configuration des initiateurs iSCSI et du stockage

Utilisation de plusieurs NIC pour l'iSCSI logiciel et l'iSCSI matriel dpendant page 37 Si votre hte possde plusieurs adaptateurs rseau physiques pour l'iSCSI, crez un port iSCSI distinct pour chaque carte physique avec un mappage 1:1.

Crer des ports iSCSI supplmentaires pour NIC multiples page 38 Utilisez cette tche si vous dispsez de deux cartes rseau ou plus que vous pouvez assigner au iSCSI et si vous voulez connecter toutes vos cartes rseau iSCSI un vSwitch unique. Cette tche vous permet d'associer des ports iSCSI VMkernel aux adaptateurs rseau grce un mappage 1:1.

Crer un port iSCSI pour un NIC unique


Utilisez cette tche pour connecter le VMkernel, qui excute les services pour le stockage iSCSI, une carte rseau physique. Si vous n'avez qu'une seule carte rseau physique exploitable pour le trafic iSCSI, voici la seule procdure suivre pour configurer votre rseau iSCSI. Procdure 1 2 3 4 5 6 Ouvrez une session sur vSphere Client et slectionnez l'hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Mise en rseau] . Dans la vue commutateur virtuel, cliquez sur [Ajouter gestion rseau] . Slectionnez [VMkernel] et cliquez sur [Suivant] . Slectionnez [Crer un commutateur virtuel] pour crer un nouveau vSwitch. Slectionnez le NIC que vous voulez utiliser pour le trafic iSCSI. IMPORTANT Si vous crez un port pour l'adaptateur matriel dpendant iSCSI, assurez-vous de choissir le NIC qui correspond au composant iSCSI. Reportez-vous Dtermine l'association entre les adaptateurs de matriel iSCSI dpendants et les adaptateurs rseau physiques , page 34. 7 8 Cliquez sur [Suivant] . Entrez une tiquette de rseau. L'tiquette de rseau est un nom facilement mmorisable qui identifie le port VMkernel que vous venez de crez, par exemple iSCSI. 9 10 11 Cliquez sur [Suivant] . Configurez l'IP puis cliquez sur [Suivant] . Passez vos informations en revue et cliquez sur [Terminer] .

Utilisation de plusieurs NIC pour l'iSCSI logiciel et l'iSCSI matriel dpendant


Si votre hte possde plusieurs adaptateurs rseau physiques pour l'iSCSI, crez un port iSCSI distinct pour chaque carte physique avec un mappage 1:1. Pour raliser le mappage 1:1, dsignez un vSwitch distinct pour chaque adaptateur rseau et paire de ports iSCSI. Reportez-vous Figure 2-2.

VMware, Inc.

37

Guide de configuration iSCSI SAN

Figure 2-2. Ports iSCSI et NIC sur vSwitch distincts

Il est galement possible d'ajouter tous les NIC et paires de ports un unique vSwitch. Reportez-vous Figure 2-3. Vous devez modifier le rglage par dfaut et vrifier que chaque port soit mapp avec un seul NIC actif correspondant. Figure 2-3. Ports iSCSI et NIC sur vSwitch unique

Pour en savoir plus sur l'ajout de NIC et de paires de ports VMkernel un vSwitch, reportez-vous la section Crer des ports iSCSI supplmentaires pour NIC multiples , page 38. Aprs avoir mapp les ports iSCSI sur les adaptateurs rseau, utilisez la commande esxcli pour associer les ports aux adaptateurs iSCSI. Associez les ports avec les adaptateurs iSCSI matriels dpendants, que vous utilisiez un seul ou de multiples NIC. Pour plus d'informations, consultez Associer des ports iSCSI aux adaptateurs iSCSI , page 40.

Crer des ports iSCSI supplmentaires pour NIC multiples


Utilisez cette tche si vous dispsez de deux cartes rseau ou plus que vous pouvez assigner au iSCSI et si vous voulez connecter toutes vos cartes rseau iSCSI un vSwitch unique. Cette tche vous permet d'associer des ports iSCSI VMkernel aux adaptateurs rseau grce un mappage 1:1. Vous devez prsent connecter les NIC supplmentaires au vSwitch existant et les mapper vers les ports iSCSI correspondants. REMARQUE Si vous utilisez un commutateur distribu par vNetwork avec dvUplinks multiples, pour l'association de ports crez un groupes dvPort distinct pour chaque NIC physique. Puis rglez la politique de groupes de faon ce que chaque dvPort n'ait qu'un seul dvUplink actif. Pour des informations plus dtailles sur les commutateurs distribus par vNetwork, consultez la section Mise en rseau du Guide de Configuration d'ESX/ESXi.

38

VMware, Inc.

Chapitre 2 Configuration des initiateurs iSCSI et du stockage

Prrequis Vous devez crer un vSwitch qui mappe un port iSCSI vers un NIC physique dsign pour le trafic iSCSI. Procdure 1 2 3 4 Ouvrez une session sur vSphere Client et slectionnez l'hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Mise en rseau] . Slectionnez le vSwitch que vous voulez utiliser pour le iSCSI et cliquez sur [Proprits] . Connectez des adaptateurs rseau supplmentaires au vSwitch. a b Dans la bote de dialogue Proprits vSwicth, slectionnez l'onglet [Adaptateurs rseau] puis cliquez sur [Ajouter] . Slectionnez un NIC ou plus dans la liste puis cliquez sur [Suivant] . En cas d'adaptateurs iSCSI matriels dpendants, assurez-vous de choisir seulement les NIC ayant un composant iSCSI correspondant. c Passez en revue les informations sur la page Rsum d'adaptateur, puis cliquez sur [Terminer] . La liste des adaptateurs rseau rapparat, montrant les adaptateurs rseau maintenant revendiqus par le vSwitch. 5 Crez des ports iSCSI pour tous les NIC que vous avez connects. Le nombre de ports iSCSI doit correspondre au nombre de NIC dans le vSwitch. a b c d Dans la bote de dialogue Proprits vSwicth, slectionnez l'onglet [Ports] puis cliquez sur [Ajouter] . Slectionnez [VMkernel] et cliquez sur [Suivant] . Sous [Proprits groupe de ports] , entrez une tiquette de rseau, par exemple iSCSI, puis cliquez sur [Suivant] . Configurez l'IP puis cliquez sur [Suivant] . Lorsque vous entrez un masque de sous-rseau, assurez-vous que le NIC est rgl sur le sous-rseau du systme de stockage auquel il se connecte. e Passez vos informations en revue et cliquez sur [Terminer] .

AVERTISSEMENT Si le NIC que vous utilisez avec votre adaptateur iSCSI, qu'il soit logiciel ou matriel dpendant, ne se trouve pas dans le mme sous-rseau que votre cible iSCSI, votre hte ne pourra pas tablir de sessions de cet adaptateur rseau vers la cible. 6 Mappez chaque port iSCSI sur un seul NIC actif. Par dfaut, pour chaque port iSCSI sur le vSwitch, tous les adaptateurs rseau sont affichs comme actifs. Vous devez ignorer ce rglage par dfaut pour que chaque port soit mapp vers un seul NIC actif correspondant. Par exemple, le port iSCSI vmk1 est mapp sur vmnic1, le port vmk2 est mapp sur vmnic2, etc. a b c 7 Dans l'onglet [Ports] , slectionnez un port iSCSI et cliquez sur [Modifier] . Cliquez sur l'onglet [Association de cartes rseau] puis slectionnez [Remplacer la commande de basculement vSwitch] . Dsignez un seul adaptateur comme actif et dplacez tout le reste vers la catgorie [Adaptateurs inutiliss] .

Rptez cette dernire tape pour chaque port iSCSI sur le vSwitch.

VMware, Inc.

39

Guide de configuration iSCSI SAN

Suivant Une fois cette tche termine, lancez la commande esxcli pour associer les ports iSCSI aux adaptateurs iSCSI logiciels ou matriels dpendants.

Associer des ports iSCSI aux adaptateurs iSCSI


Associez un port iSCSI que vous avez cr pour une carte rseau un adaptateur iSCSI. En cas d'adaptateur iSCSI logiciel, n'effectuez cette tche que si vous avez install deux ou plusieurs NIC pour le multichemin iSCSI. Si vous utilisez des adaptateurs iSCSI matriels dpendants, cette tche est indispensable que vous ayez un seul ou plusieurs adaptateurs. Prrequis Effectuez les tches suivantes :
n

Pour les adaptateurs iSCSI matriels dpendants, associez correctement les NIC physiques et les adaptateurs iSCSI. Reportez-vous Affichage des adaptateurs de matriel iSCSI dpendants , page 33. Configurez le rseau pour le trafic iSCSI. Reportez-vous Configuration du rseau pour l'iSCSI logiciel et l'iSCSI matriel dpendant , page 36. Pour utiliser l'adaptateur logiciel iSCSI, vous devez l'activer. Reportez-vous Activer l'adaptateur iSCSI logiciel , page 35.

Procdure 1 Trouvez le nom du port iSCSI assign au NIC physique. vSphere Client affiche le nom du port sous l'tiquette de rseau. Dans le graphique suivant, les noms des ports sont vmk1 et vmk2.

Utilisez la commande vSphere CLI pour associer le port iSCSI l'adaptateur iSCSI.
esxcli swiscsi nic add -n port_name -d vmhba

IMPORTANT En cas d'iSCSI logiciel, rptez cette commande pour chaque port iSCSI, en connectant tous les ports avec l'adaptateur iSCSI logiciel. En cas d'iSCSI matriel dpendant, assurez-vous d'associer chaque port un adaptateur correspondant appropri. 3 Vrifiez que le port a t ajout l'adaptateur iSCSI.
esxcli swiscsi nic list -d vmhba

Utilisez le vSphere Client pour analyser nouveau l'adaptateur iSCSI.

40

VMware, Inc.

Chapitre 2 Configuration des initiateurs iSCSI et du stockage

Associer des ports iSCSI aux adaptateurs iSCSI


Consultez des exemples sur la faon d'associer des ports multiples que vous aurez crs pour les adaptateurs rseau physiques l'adaptateur iSCSI logiciel ou aux adaptateurs iSCSI matriels dpendants multiples. Exemple 2-1. Connexion de ports iSCSI l'adaptateur iSCSI logiciel Cet exemple montre comment connecter les ports iSCSI vmk1 et vmk2 l'adaptateur iSCSI logiciel vmhba33. 1 2 3 Connectez vmk1 vmhba33 : esxcli swiscsi nic add -n vmk1 -d vmhba33. Connectez vmk2 vmhba33 : esxcli swiscsi nic add -n vmk2 -d vmhba33. Vrifiez la configuration de vmhba33 : esxcli swiscsi nic list -d vmhba33. Vmk1 et vmk2 devraient tous deux se trouver dans la liste. Si vous affichez la vue Chemins pour l'adaptateur vmhba33 dans vSphere Client, vous verrez que l'adaptateur utilise deux chemins pour joindre la mme cible. Les noms d'excution des chemins sont vmhba33:C1:T1:L0 et vmhba33:C2:T1:L0. Dans cet exemple C1 et C2 indiquent les deux adaptateurs rseau utiliss pour le multichemin. Exemple 2-2. Connexion de ports iSCSI des adaptateurs iSCSI matriels dpendants Cet exemple montre comment connecter les ports iSCSI vmk1 et vmk2 aux adaptateurs iSCSI matriels correspondants vmhba33 et vmhba34. 1 2 3 4 Connectez vmk1 vmhba33 : esxcli swiscsi nic add -n vmk1 -d vmhba33. Connectez vmk2 vmhba34 : esxcli swiscsi nic add -n vmk2 -d vmhba34. Vrifiez la configuration de vmhba33 : esxcli swiscsi nic list -d vmhba33. Vrifiez la configuration de vmhba34 : esxcli swiscsi nic list -d vmhba34.

Dconnexion des ports iSCSI des adaptateurs iSCSI


Si vous devez modifier la configuration de mise en rseau que vous utilisez pour le trafic iSCSI, par exemple, supprimez une carte rseau ou un port iSCSI, veillez dconnecter le port iSCSI de l'adaptateur iSCSI. IMPORTANT S'il existe des sessions iSCSI actives entre votre hte et les cibles, vous ne pouvez pas dconnecter le port iSCSI. Procdure 1 Utilisez vSphere CLI pour dconnecter le port iSCSI de l'adaptateur iSCSI.
esxcli swiscsi nic remove -n port_name -d vmhba

Vrifiez que le port a t dconnect de l'adaptateur iSCSI.


esxcli swiscsi nic list -d vmhba

Utilisez vSphere Client pour scanner nouveau l'adaptateur iSCSI.

Utilisation des trames Jumbo avec iSCSI


Les trames Jumbo permettent ESXiESX/ESXi d'envoyer des trames plus grandes sur le rseau physique. Le rseau doit prendre en charger les Trames jumbo d'une extrmit l'autre pour que cette fonction soit active. Les trames Jumbo jusqu' 9 ko (9000 octets) sont prises en charge. Tableau 2-1 dcrit le niveau de prise en charge de ESX/ESXi concernant les trames Jumbo.

VMware, Inc.

41

Guide de configuration iSCSI SAN

Tableau 2-1. Prise en charge des trames Jumbo


Type d'adaptateurs iSCSI iSCSI logiciel Prise en charge des trames Jumbo Pris en charge Commentaire Consultez vos diteurs pour vous assurer que votre carte rseau physique et votre stockage iSCSI prennent en charge les trames Jumbo. Les adaptateurs iSCSI dpendants Broadcom ne prennent pas en charge les trames Jumbo.

Matriel iSCSI dpendant Matriel iSCSI indpendant

Pris en charge Non pris en charge

Activation des trames Jumbo pour l'iSCSI logiciel et matriel dpendant


Utilisez vSphere CLI pour activer des trames Jumbo pour chaque vSwitch ddi au trafic iSCSI. Vous devez galement crer une interface de rseau VMkernel avec ses trames Jumbo actives. 1 2 Activer les Trames jumbo sur un vSwitch page 42 Pour activer les trames Jumbo sur un vSwitch, changez la configuration MTU pour ce vSwitch. Crer une interface VMkernel avec Trames jumbo activ page 42 Utilisez le vSphere CLI pour crer une interface de rseau VMkernel avec Trames jumbo activ.

Activer les Trames jumbo sur un vSwitch


Pour activer les trames Jumbo sur un vSwitch, changez la configuration MTU pour ce vSwitch. Procdure 1 Dans vSphere CLI, excutez la commande vicfg-vswitch -m MTU vSwitch. Cette commande rgle le MTU pour tous les NIC physiques sur ce vSwitch. La taille MTU doit tre rgle sur la taille maximum pour tous les NIC connects au vSwitch. 2 Lancez la commande vicfg-vswitch -l pour afficher une liste de vSwitches sur l'hte, et vrifiez que le vSwitch est correctement configur.

Crer une interface VMkernel avec Trames jumbo activ


Utilisez le vSphere CLI pour crer une interface de rseau VMkernel avec Trames jumbo activ. Procdure 1 Dans le vSphere CLI, lancez la commande vicfg-vmknic pour crer une connexion VMkernel avec support des Trames jumbo.
vicfg-vmknic -a -I ip address -n netmask -m MTU port group name

2 3 4

Lancez la commande vicfg-vmknic -l pour afficher une liste d'interfaces VMkernel et vrifiez que l'interface avec Trames jumbo activ est correctement configure. Vrifiez que l'interface VMkernel est connecte un vSwitch avec Trames jumbo activ. Configurez tous les commutateurs physiques et les machines virtuelles ou physiques auxquelles cette interface VMkernel se connecte pour prendre en charge lesTrames jumbo.

42

VMware, Inc.

Chapitre 2 Configuration des initiateurs iSCSI et du stockage

Configurer des adresses de dcouverte pour des initiateurs iSCSI


Configurez les adresses de dcouverte de cible de sorte que l'initiateur iSCSI puisse dterminer quelle ressource de stockage prsente sur le rseau est disponible pour accs. Le systme ESX/ESXi admet les mthodes de dcouverte suivantes : Dcouverte dynamique galement appele dcouverte SendTargets. Chaque fois que l'initiateur contacte un serveur iSCSI dsign, il envoie la demande de SendTargets au serveur. Le serveur rpond en fournissant une liste de cibles disponibles l'initiateur. Les noms et adresses IP de ces cibles figurent dans l'onglet [Dcouverte statique] . Si vous supprimez une cible statique ajoute par la dcouverte dynamique, il se peut qu'elle soit rintgre la liste la prochaine fois qu'un scannage se produira, que le HBA se rinitialisera ou que l'hte sera redmarr. L'initiateur n'a aucune dcouverte effectuer. L'initiateur dispose d'une liste de cibles qu'il peut contacter, et emploie leurs adresses IP et noms de cible pour communiquer avec elles.

Dcouverte statique

Configurer la dcouverte dynamique


Avec la dcouverte dynamique, chaque fois que l'initiateur contacte un serveur iSCSI prcis, il lui envoie la demande SendTargets. Le serveur rpond en fournissant une liste de cibles disponibles l'initiateur. Quand vous configurez la dcouverte dynamique, vous pouvez seulement ajouter un nouveau serveur iSCSI. Vous ne pouvez changer l'adresse IP, le nom DNS ni le numro de port d'un serveur iSCSI existant. Pour apporter des modifications, supprimez le serveur existant et ajoutez-en un nouveau. Procdure 1 2 Ouvrez une session sur vSphere Client et slectionnez un serveur dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. La liste des adaptateurs de stockage disponibles apparat. 3 4 5 Slectionnez l'initiateur iSCSI configurer et cliquez sur [Proprits] . Dans la bote de dialogue de proprits d'initiateur iSCSI, cliquez sur l'onglet [Dcouverte dynamique] . Pour ajouter une adresse la dcouverte SendTargets, cliquez sur [Ajouter] . La bote de dialogue [Ajouter serveur SendTargets] apparat. 6 Tapez l'adresse IP ou le nom DNS du systme de stockage et cliquez sur [OK] . Ds que votre hte tablit la connexion SendTargets avec ce systme, toutes les cibles nouvellement dcouvertes apparaissent dans la liste Dcouverte statique. 7 Pour supprimer un serveur SendTargets prcis, slectionnez-le et cliquez sur [Supprimer] . Une fois un serveur SendTargets supprim, il se peut qu'il apparaisse encore dans le champ Hritage en tant que parent de cibles statiques. Cette entre, qui signale o les cibles statiques ont t dcouvertes, n'affecte pas la fonctionnalit. Suivant Une fois la dcouverte dynamique configure pour votre adaptateur iSCSI, Ranalysez l'adaptateur.

VMware, Inc.

43

Guide de configuration iSCSI SAN

Configurer la dcouverte statique


Avec les initiateurs iSCSI, outre la mthode de dcouverte dynamique, vous pouvez utiliser la dcouverte statique et saisir manuellement des information pour les cibles. Quand vous configurez la dcouverte statique, vous pouvez seulement ajouter des cibles iSCSI. Vous ne pouvez changer l'adresse IP, le nom DNS, le nom de cible iSCSI ni le numro de port d'une cible existante. Pour apporter des modifications, supprimez la cible existante et ajoutez-en une nouvelle. Procdure 1 2 Ouvrez une session sur vSphere Client et slectionnez un serveur dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Adaptateurs de stockage] dans le panneau Matriel. La liste des adaptateurs de stockage disponibles apparat. 3 4 Slectionnez l'initiateur iSCSI configurer et cliquez sur [Proprits] . Dans la bote de dialogue de proprits d'initiateur iSCSI, cliquez sur l'onglet [Dcouverte statique] . L'onglet affiche toutes les cibles dcouvertes dynamiquement et toutes les cibles statiques dj saisies. 5 6 Pour ajouter une cible, cliquez sur [Ajouter] et saisissez les informations sur la cible. Pour supprimer une cible prcise, slectionnez-la et cliquez sur [Supprimer] .

Suivant Une fois la dcouverte statique configure pour votre adaptateur iSCSI, Ranalysez l'adaptateur.

Configurer des paramtres CHAP pour des cartes iSCSI


Etant donn que les rseaux IP qu'utilise la technologie iSCSI pour se connecter aux cibles distantes ne protgent pas les donnes qu'ils transportent, vous devez scuriser la connexion. L'un des protocoles que l'iSCSI applique est le protocole CHAP, qui vrifie la lgitimit des initiateurs qui accdent des cibles sur le rseau. Le protocole CHAP applique un algorithme de ngociation trois voies pour vrifier l'identit de votre hte et, le cas chant, de la cible iSCSI quand l'hte et la cible tablissent une connexion. La vrification repose sur une valeur prive prdfinie, dite secret CHAP, que l'initiateur et la cible partagent. ESX/ESXi permet l'authentification CHAP au niveau adaptateur. Dans ce cas, toutes les cibles reoivent les mmes nom et secret CHAP de la part de l'initiateur iSCSI. Pour les adaptateurs iSCSI logiciels et matriels dpendants, ESX/ESXi admet galement l'authentification CHAP cible par cible, qui permet de configurer diffrentes informations d'identification pour chaque cible afin de parvenir un niveau de scurit plus lev.

Choisir la mthode d'authentification CHAP


ESX/ESXi permet le CHAP unilatral pour tous les types d'initiateurs iSCSI, et le CHAP mutuel pour l'iSCSI logiciel et matrielle dpendante. Avant de configurer CHAP, vrifiez s'il est activ dans le systme de stockage iSCSI et vrifiez la mthode d'authentification CHAP que le systme permet. Si CHAP est activ, activez-le pour vos initiateurs, en veillant ce que les informations d'identification d'authentification CHAP concordent avec celles du stockage iSCSI.

44

VMware, Inc.

Chapitre 2 Configuration des initiateurs iSCSI et du stockage

ESX/ESXi permet les mthodes d'authentification CHAP suivantes : CHAP unilatral En authentification CHAP unilatrale, galement appele unidirectionnelle, la cible authentifie l'initiateur, mais l'initiateur n'authentifie pas la cible. En authentification CHAP mutuelle, galement appele bidirectionnelle, un niveau de scurit supplmentaire permet l'initiateur d'authentifier la cible. VMware ne permet cette mthode que pour les cartes iSCSI logiciels et matrielles dpendantes.

CHAP mutuel

Pour les cartes iSCSI logiciels et matrielles dpendantes, vous pouvez dfinir le CHAP unilatral et le CHAP mutuel pour chaque initiateur ou au niveau cible. L'iSCSI matrielle ne permet le CHAP qu'au niveau initiateur. Quand vous dfinissez les paramtres CHAP, indiquez un niveau de scurit pour CHAP. REMARQUE Quand vous indiquez le niveau de scurit CHAP, le type de rponse de la baie de stockage dpend de l'implmentation CHAP de la baie et de l'diteur. Par exemple, si vous cochez Utiliser CHAP sauf si la cible l'interdit, certaines baies de stockage appliquent CHAP dans la rponse, alors que d'autres non. Pour plus d'informations sur le comportement de l'authentification CHAP dans diffrentes configurations d'initiateur et de cible, consultez la documentation de la baie. Tableau 2-2. Niveau de scurit CHAP
Niveau de scurit CHAP Ne pas utiliser CHAP Description L'hte n'applique pas l'authentification CHAP. Cochez cette option pour mettre hors tension l'authentification si elle est actuellement active. L'hte prfre une connexion non CHAP, mais peut utiliser une connexion CHAP si la cible l'exige. L'hte prfre CHAP, mais peut utiliser des connexions non CHAP si la cible ne gre pas CHAP. L'hte exige une authentification CHAP russie. La connexion choue si la ngociation CHAP choue. Pris en charge iSCSI logiciel Matriel iSCSI dpendant Matriel iSCSI indpendant iSCSI logiciel Matriel iSCSI dpendant iSCSI logiciel Matriel iSCSI dpendant Matriel iSCSI indpendant iSCSI logiciel Matriel iSCSI dpendant

Ne pas utiliser CHAP sauf si la cible l'exige Utiliser CHAP sauf si la cible l'interdit Utiliser CHAP

Configurer les informations d'identification CHAP pour un initiateur iSCSI


Vous pouvez configurer toutes les cibles pour qu'elles reoivent les mmes nom et secret CHAP de l'initiateur iSCSI au niveau de l'initiateur. Par dfaut, toutes les adresses de dcouverte ou cibles statiques hritent des paramtres CHAP que vous configurez au niveau initiateur. Prrequis Avant de configurer des paramtres CHAP pour l'iSCSI logiciel ou matrielle dpendante, dterminez s'il faut configurer un CHAP unilatral ou mutuel. Les adaptateurs iSCSI matriels indpendants n'admettent pas le CHAP mutuel.
n n

En CHAP unilatral, la cible authentifie l'initiateur. En CHAP mutuel, la cible et l'initiateur s'authentifient rciproquement. Veillez utiliser diffrents secrets pour le CHAP et le CHAP mutuel.

Quand vous configurez des paramtres CHAP, assurez-vous qu'ils concordent avec les paramtres du ct stockage. Le nom CHAP ne doit pas excder 511 et le mot de passe CHAP 255 caractres alphanumriques. Certains adaptateurs, par exemple l'adaptateur QLogic, peuvent avoir des limites plus basses, 255 pour le nom CHAP et 100 pour le secret CHAP.

VMware, Inc.

45

Guide de configuration iSCSI SAN

Procdure 1 2 3 Accdez la bote de dialogue de proprits d'initiateur iSCSI. Dans l'onglet [Gnral] , cliquez sur [CHAP] . Pour configurer le CHAP unilatral, sous CHAP, spcifiez ce qui suit : a Slectionnez le niveau de scurit CHAP.
n n n

[Utilisez CHAP juste si cible le demande] (iSCSI logiciel et matrielle dpendante uniquement) [Utiliser CHAP sauf si interdit par la cible] [Utiliser CHAP] (iSCSI logiciel et matrielle dpendante uniquement) Pour pouvoir configurer le CHAP mutuel, vous devez slection cette option.

Indiquez le nom CHAP. Assurez-vous que le nom que vous indiquez concorde avec celui configur ct stockage.
n n

Pour dsigner comme nom CHAP le nom d'initiateur iSCSI, cochez [Utiliser nom initiateur] . Pour dsigner comme nom CHAP toute autre chose que le nom d'initiateur iSCSI, dcochez [Utiliser nom initiateur] et tapez un nom dans le champ [Nom] .

c 4

Saisissez un secret CHAP unilatral utiliser dans le cadre de l'authentification. Veillez utiliser le mme secret que celui que vous saisissez ct stockage.

Pour configurer le CHAP mutuel, configurez d'abord le CHAP unilatral selon les instructions de tape 3 Veillez cocher [Utiliser CHAP] comme option du CHAP unilatral. Ensuite, spcifiez les paramtres suivants sous [CHAP mutuel] : a b c Cochez [Utiliser CHAP] . Indiquez le nom CHAP mutuel. Tapez le secret CHAP mutuel. Veillez utiliser des secrets diffrents pour le CHAP unilatral et le CHAP mutuel.

5 6

Cliquez sur [OK] . Ranalysez l'initiateur.

Si vous modifiez les paramtres CHAP ou CHAP mutuel, ils sont appliqus aux nouvelles sessions iSCSI. Pour les sessions existantes, les nouveaux paramtres ne sont appliqus qu'une fois que vous vous tes dconnect puis reconnect.

Configurer les informations d'identification CHAP pour une cible


Pour les cartes iSCSI matrielles qui dpendent du logiciel, vous pouvez dfinir des informations d'identification CHAP diffrentes pour chaque adresse de dcouverte ou cible statique. Quand vous configurez des paramtres CHAP, assurez-vous qu'ils concordent avec les paramtres du ct stockage. Le nom CHAP ne doit pas excder 511 et le secret CHAP ne doit pas excder 255 caractres alphanumriques.

46

VMware, Inc.

Chapitre 2 Configuration des initiateurs iSCSI et du stockage

Prrequis Avant de configurer des paramtres CHAP pour l'iSCSI logiciel et matrielle dpendante, dterminez s'il faut configurer un CHAP unilatral ou mutuel.
n n

En CHAP unilatral, la cible authentifie l'initiateur. En CHAP mutuel, la cible et l'initiateur s'authentifient rciproquement. Veillez utiliser diffrents secrets pour le CHAP et le CHAP mutuel.

Procdure 1 2 3 4 Accdez la bote de dialogue de proprits d'initiateur iSCSI. Slectionnez soit l'onglet [Dcouverte dynamique] , soit l'onglet [Dcouverte statique] . Dans la liste de cibles disponibles, slectionnez la cible que vous voulez configurer et cliquez sur [Paramtres] > [CHAP] . Configurez le CHAP unilatral dans la zone CHAP. a b Dcochez [Hriter du parent] . Slectionnez l'une des options suivantes :
n n n

[Ne pas utiliser CHAP sauf si la cible l'exige] [Utiliser CHAP sauf si la cible l'interdit] [Utiliser CHAP] . Pour pouvoir configurer le CHAP mutuel, vous devez slection cette option.

Indiquez le nom CHAP. Assurez-vous que le nom que vous indiquez concorde avec celui configur ct stockage.
n n

Pour dsigner comme nom CHAP le nom d'initiateur iSCSI, cochez [Utiliser nom initiateur] . Pour dsigner comme nom CHAP toute autre chose que le nom d'initiateur iSCSI, dcochez [Utiliser nom initiateur] et tapez un nom dans le champ [Nom] .

d 5

Saisissez un secret CHAP unilatral utiliser dans le cadre de l'authentification. Veillez utiliser le mme secret que celui que vous saisissez ct stockage.

Pour configurer le CHAP mutuel, configurez d'abord le CHAP unilatral selon les instructions de tape 4. Veillez cocher [Utiliser CHAP] comme option du CHAP unilatral. Ensuite, spcifiez les paramtres suivants dans la zone Mutual CHAP : a b c d Dcochez [Hriter du parent] . Cochez [Utiliser CHAP] . Indiquez le nom CHAP mutuel. Tapez le secret CHAP mutuel. Veillez utiliser des secrets diffrents pour le CHAP unilatral et le CHAP mutuel.

6 7

Cliquez sur [OK] . Ranalysez l'initiateur.

Si vous modifiez les paramtres CHAP ou CHAP mutuel, ils sont appliqus aux nouvelles sessions iSCSI. Pour les sessions existantes, les nouveaux paramtres ne sont appliqus qu'une fois que vous vous tes dconnect puis reconnect.

VMware, Inc.

47

Guide de configuration iSCSI SAN

Dsactiver CHAP
Vous pouvez mettre hors tension le protocole CHAP si le systme de stockage ne le ncessite pas. Si vous dsactivez CHAP sur un systme qui exige l'authentification CHAP, les sessions iSCSI existantes demeurent actives jusqu' ce que vous redmarriez votre hte ESX/ESXi ou que le systme de stockage oblige se dconnecter. Une fois la session close, vous ne pouvez plus vous connecter aux cibles qui exigent CHAP. Procdure 1 2 3 Ouvrez la bote de dialogue d'informations d'identification CHAP. Avec les adaptateurs iSCSI logiciels et matriels dpendants, pour ne mettre hors tension que le CHAP mutuel et laisser le CHAP unilatral, cochez [Ne pas utiliser le CHAP] dans la zone CHAP mutuel. Pour mettre hors tension le CHAP unilatral, cochez [Ne pas utiliser le CHAP] dans la zone CHAP. Le CHAP mutuel, s'il est install, passe automatiquement [Ne pas utiliser le CHAP] si vous dsactivez le CHAP unilatral. 4 Cliquez sur [OK] .

Configurer des paramtres supplmentaires pour l'iSCSI


Il se peut que vous deviez configurer des paramtres supplmentaires pour vos initiateurs iSCSI. Par exemple, certains systmes de stockage iSCSI exigent la redirection ARP (Address Resolution Protocol) pour mouvoir le trafic iSCSI dynamiquement d'un port l'autre. Dans ce cas, vous devez activer la redirection ARP sur votre hte. Tableau 2-3 rpertorie les paramtres iSCSI avancs que vous pouvez configurer au moyen de vSphere Client. En outre, vous pouvez utiliser la commande vSphere CLI vicfg-vicfg-iscsi pour configurer certains des paramtres avancs. Pour en savoir plus, reportez-vous Guide d'installation et script de l'interface de ligne de commande vSphere et Rfrence de l'interface de ligne de commande vSphere. N'apportez aucune modification aux paramtres iSCSI avancs moins de travailler avec l'quipe d'assistance VMware ou de disposer par d'autres biais d'informations prcises sur les valeurs attribuer aux paramtres. Tableau 2-3. Paramtres supplmentaires des initiateurs iSCSI
Paramtre avanc Rsum d'en-tte Description Augmente l'intgrit des donnes. Si le prtraitement d'en-tte est activ, le systme effectue un total de contrle sur la partie d'en-tte de chaque unit de donnes de protocole (PDU) iSCSI et le vrifie au moyen de l'algorithme CRC32C. Augmente l'intgrit des donnes. Si le rsum de donnes est activ, le systme effectue un total de contrle sur la partie donnes de chaque unit de donnes de protocole (PDU) et le vrifie au moyen de l'algorithme CRC32C. REMARQUE Les systmes qui utilisent des processeurs Intel Nehalem dlestent les calculs de rsum iSCSI pour l'iSCSI logiciel, en rduisant ainsi l'incidence sur les performances. Dfinit le nombre d'units de donnes de protocole (PDU) prtes envoyer qui peut tre en transition avant qu'une PDU d'accus de rception ne soit reue. Configurable sur iSCSI logiciel Matriel iSCSI dpendant iSCSI logiciel Matriel iSCSI dpendant

Rsum de donnes

Maximum Outstanding R2T (Maximum d'units de donnes de protocole en suspend prtes envoyer) First Burst Length (Longueur de premire salve)

iSCSI logiciel Matriel iSCSI dpendant

Indique la quantit maximum de donnes non sollicites qu'un initiateur iSCSI peut envoyer la cible pendant l'excution d'une commande SCSI, en octets.

iSCSI logiciel Matriel iSCSI dpendant

48

VMware, Inc.

Chapitre 2 Configuration des initiateurs iSCSI et du stockage

Tableau 2-3. Paramtres supplmentaires des initiateurs iSCSI (suite)


Paramtre avanc Maximum Burst Length (Longueur maximum de salve) Maximum Receive Data Segment Length (Longueur maximum de segment de donnes en rception) Session Recovery Timeout (Dlai de rcupration de session) No-Op Interval (Intervalle sans opration) Description Charge utile de donnes maximum dans une squence iSCSI d'entre de donnes ou de sortie de donnes sollicite, en octets. Longueur maximum de segment de donnes, en octets, qui peut tre reu dans une PDU iSCSI. Configurable sur iSCSI logiciel Matriel iSCSI dpendant iSCSI logiciel Matriel iSCSI indpendant

Indique le laps de temps, en secondes, qui peut s'couler pendant que s'excute une rcupration de session. Si le dlai dpasse sa limite, l'initiateur iSCSI termine la session. Indique l'intervalle, en secondes, entre les demandes en sortie sans opration envoyes par votre initiateur iSCSI une cible iSCSI. Les demandes en sortie sans opration servent de mcanisme ping pour vrifier qu'une connexion entre l'initiateur iSCSI et la cible iSCSI est active. Indique le laps de temps, en secondes, qui peut s'couler avant que votre hte ne reoive un message d'entre sans opration (NOP-In). Le message est envoy par la cible iSCSI en rponse la demande en sortie sans opration. Ds que la limite de dlai sans opration est dpasse, l'initiateur clt la session actuelle et en dmarre une nouvelle. Permet aux systmes de stockage de mouvoir le trafic iSCSI dynamiquement d'un port l'autre. L'ARP est exig par les systmes de stockage qui appliquent le basculement bas sur baie. Permet aux systmes de retarder l'accus de rception des paquets de donnes.

iSCSI logiciel Matriel iSCSI dpendant iSCSI logiciel Matriel iSCSI dpendant

No-Op Timeout (Dlai de demande sans opration)

iSCSI logiciel Matriel iSCSI dpendant

ARP Redirect (Redirection ARP)

iSCSI logiciel et matriel indpendant (Configurable via vSphere CLI) iSCSI logiciel Matriel iSCSI dpendant

Accus de rception retard

Configurer les paramtres avancs d'iSCSI


Les paramtres iSCSI avancs contrlent des paramtres tels que le rsum de l'en-tte et des donnes, la redirection ARP, l'accus de rception diffr, etc. Gnralement, vous n'avez pas besoin de modifier ces paramtres, car votre hte ESX/ESXi fonctionne avec les valeurs prdfinies. AVERTISSEMENT N'apportez aucune modification aux paramtres iSCSI avancs moins de travailler avec l'quipe d'assistance VMware ou de disposer par d'autres biais d'informations prcises sur les valeurs attribuer aux paramtres. Procdure 1 2 Accdez la bote de dialogue de proprits d'initiateur iSCSI. Pour configurer les paramtres avancs au niveau initiateur, dans l'onglet Gneral, cliquez sur [Avanc] . Passez tape 4.

VMware, Inc.

49

Guide de configuration iSCSI SAN

Configurez les paramtres avancs au niveau cible. Au niveau cible, les paramtres avancs ne peuvent tre configurs que pour les adaptateurs iSCSI logiciels et matriels dpendants. a b Slectionnez soit l'onglet [Dcouverte dynamique] , soit l'onglet [Dcouverte statique] . Dans la liste de cibles disponibles, slectionnez une cible configurer et cliquez sur [Paramtres] > [Avanc] .

Saisissez toute valeur obligatoire des paramtres avancs que vous voulez modifier et cliquez sur [OK] pour enregistrer vos modifications.

Gestion des sessions iSCSI


Pour communiquer entre eux, les initiateurs iSCSI et les cibles tablissent des sessions iSCSI. Vous pouvez consulter et grer les sessions iSCSI grce vSphere CLI. Par dfaut, les initiateurs iSCSI logiciel et matriels dpendants lancent une session iSCSI entre chaque port d'initiateur et chaque port cible. Si votre initiateur ou cible iSCSI possde plus d'un seul port, votre hte peut tablir plusieurs sessions. Le nombre de sessions par dfaut pour chaque cible est gal au nombre de ports sur les adaptateurs iSCSI multipli par le nombre de ports cibles. Vous pouvez afficher toutes les sessions en cours afin de les analyser et les dboguer. Pour crer davantage de chemins vers les systmes de stockage, augmentez le nombre de sessions par dfaut en dupliquant les sessions existantes entre l'adaptateur iSCSI et les ports cibles. Vous pouvez aussi tablir une session avec un port cible spcifique. Une telle session peut tre utile si votre hte se connecte un systme de stockage port unique, qui prsente par dfaut un port cible unique votre initiateur, mais qui peut rediriger des sessions supplmentaires vers un port cible diffrent. L'tablissement d'une nouvelle session entre votre initiateur iSCSI et un autre port cible cre un chemin supplmentaire vers le systme de stockage. AVERTISSEMENT Certains systmes de stockage ne prennent pas en charge les sessions multiples partir du mme nom d'initiateur ou point terminal. Dans un tel cas, les tentatives de crer les sessions multiples vers telles cibles peuvent provoquer une instabilit de votre environnement iSCSI.

Passer en revue les sessions iSCSI


Utilisez le vSphere CLI pour passer en revue les sessions iSCSI entre un adaptateur iSCSI et un systme de stockage. Procdure 1 Pour lister les sessions d'un adaptateur, lancez la commande esxcli swiscsi session list -d vmhbaXX. vmhbaXX est le nom de votre adaptateur iSCSI.. 2 Pour lister les sessions d'une cible, utilisez la commande esxcli swiscsi session list -t iqnXX -d vmhbaXX. iqnXX est le nom de la cible laquelle l'adaptateur iSCSI se connecte. Exemple 2-3. Passer en revue les sessions pour une cible spcifique
# esxcli swiscsi session list -t iqn.2001-05.com.equallogic:0-8a0906-cbcde0d02-6a445baadf44ab92vcli7 -d vmhba36

50

VMware, Inc.

Chapitre 2 Configuration des initiateurs iSCSI et du stockage

Ajouter une session iSCSI pour une cible spcifique


Utilisez le vSphere CLI afin d'ajouter une session iSCSI pour une cible que vous spcifierez. Procdure 1 Pour ajouter une session au niveau de l'adaptateur iSCSI, utilisez esxcli swiscsi session add -d vmhbaXX. vmhbaXX est le nom de votre adaptateur iSCSI.. 2 Pour ajouter une session au niveau de la cible, utilisez la commande esxcli swiscsi session add -t iqnXX -d vmhbaXX. iqnXX est le nom de la cible laquelle l'adaptateur iSCSI se connecte. Exemple 2-4. Ajouter une session iSCSI pour une cible spcifique
# esxcli swiscsi session add -t iqn.2001-05.com.equallogic:0-8a0906-42f9b0401-7d40d28af2a4ade1vcli7 -d vmhba36

Suivant Scannez nouveau l'adaptateur iSCSI

Dupliquer des sessions iSCSI


Utilisez le vSphere CLI pour dupliquer une session iSCSI entre un adaptateur iSCSI et une cible. En dupliquant les sessions, vous augmentez le nombre de sessions par dfaut, et vous crez des chemins supplmentaires pour les systmes de stockage. Procdure
u

Pour dupliquer une session, lancez la commande


n n n

esxcli swiscsi session add -d vmhbaXX -t iqnXX -s session_isid.

d -- Le nom de votre adaptateur iSCSI, tel que vmhbaXX. t -- Le nom de la cible laquelle se connecter, tel que iqnXX. s -- L'ISID d'une session dupliquer, telle que session_isid. Vous pouvez la trouver en listant toutes les sessions.

Exemple 2-5. Dupliquer une session iSCSI


# esxcli swiscsi session add -t iqn.2001-05.com.equallogic:0-8a0906-cbcde0d02-6a445baadf44ab92vcli7 -s '00:02:3d:00:00:01' -d vmhba36

Suivant Analysez nouveau l'adaptateur iSCSI

VMware, Inc.

51

Guide de configuration iSCSI SAN

Supprimer des sessions iSCSI


Utilisez le vSphere CLI pour fermer une session iSCSI entre un adaptateur iSCSI et une cible. Procdure
u

Pour supprimer une session, utilisez esxcli swiscsi session remove. La commande prend en charge les options suivantes.
n n n

d -- Le nom de votre adaptateur iSCSI, tel que vmhbaXX. t -- Le nom de la cible laquelle se connecter, tel que iqnXX. s -- L'ISID d'une session dupliquer, telle que session_isid. Vous pouvez la trouver en listant toutes les sessions.

Exemple 2-6. fermer une session iSCSI


# esxcli swiscsi session remove -t iqn.2001-05.com.equallogic:0-8a0906-cbcde0d02-6a445baadf44ab92vcli7 -s '00:02:3d:01:00:01'

Suivant Scannez nouveau l'adaptateur iSCSI

Ajouter du stockage iSCSI


Lorsque vous crez une banque de donnes sur un priphrique de stockage iSCSI, l'assistant Ajouter stockage vous guide dans votre configuration. Procdure 1 2 3 4 Ouvrez une session sur vSphere Client et slectionnez un serveur dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] . Cliquez sur [Ajouter stockage] . Slectionnez le type de stockage [Disque/LUN] et cliquez sur [Suivant] . La page [Choisir disque/LUN] apparat alors. Cela peut prendre quelques secondes, selon le nombre de cibles. 5 6 7 Slectionnez un priphrique iSCSI utiliser pour votre banque de donnes et cliquez sur [Suivant] . Vrifiez la disposition du disque concern et cliquez sur [Suivant] . Entrez un nom de banque de donnes et cliquez sur [Suivant] . Le nom de la banque de donnes apparat dans vSphere Client, et l'tiquette doit demeurer unique dans cette instance de VMware vSphere. 8 Ajustez au besoin les valeurs systmes du fichier et la capacit exploite pour la banque de donnes. Par dfaut, l'espace libre entier disponible sur le priphrique de stockage est votre disposition. 9 Cliquez sur [Suivant] . La page [Prt terminer] apparat alors. 10 Passez en revue les informations de configuration de la banque de donnes et cliquez sur [Terminer] .

Une banque de donnes est prsent disponible sur le priphrique de stockage iSCSI.

52

VMware, Inc.

Modification des systmes de stockage SAN pour ESX/ESXi

Aprs avoir configur vos initiateurs iSCSI et votre stockage, il se peut que vous deviez modifier votre systme de stockage pour vous assurer qu'il fonctionnera correctement avec votre mise en oeuvre ESX/ESXi. Cette section prsente de nombreux systmes de stockage iSCSI pris en charge avec VMware ESX/ESXi. Pour chaque priphrique, elle rpertorie les problmes potentiels principaux connus, pointe vers des informations spcifiques chaque fournisseur (le cas chant) et inclut des informations provenant d'articles de la base de connaissances VMware. REMARQUE Les informations de cette section sont mises niveau uniquement chaque nouvelle version. De nouvelles informations peuvent dj tre disponibles. Par ailleurs, d'autres systmes de stockage iSCSI sont pris en charge mais ne sont pas abords dans ce chapitre. Consultez le Guide de compatibilit de stockage/SAN le plus rcent, vrifiez auprs de votre fournisseur de stockage et explorez les articles de la base de connaissances VMware. Ce chapitre aborde les rubriques suivantes :
n n n n n n n n n n n

Test des configurations SAN de l'ESX/ESXi , page 53 Considrations gnrales pour les systmes de stockage SAN iSCSI , page 54 Systmes de stockage EMC CLARiiON , page 54 Systmes de stockage EMC Symmetrix , page 55 Activation du HP StorageWorks MSA1510i pour communiquer avec l'ESX/ESXi , page 55 Systmes de stockage EVA HP StorageWorks , page 57 Systmes de stockage NetApp , page 57 Systmes de stockage EqualLogic , page 59 Systmes de stockage LeftHand Networks SAN/iQ , page 59 Systmes de stockage Dell PowerVault MD3000i , page 60 Cibles iSCSI dans vApp , page 60

Test des configurations SAN de l'ESX/ESXi


L'ESX/ESXi prend en charge divers systmes de stockage SAN dans diffrentes configurations. En gnral, VMware teste l'ESX/ESXi avec les systmes de stockage pris en charge pour une connectivit de base, le basculement HBA, etc. Tous les priphriques de stockage ne sont pas certifis pour toutes les fonctionnalits et capacits de l'ESX/ ESXi et les fournisseurs peuvent avoir des positions spcifiques de prise en charge l'gard de l'ESX/ESXi.

VMware, Inc.

53

Guide de configuration iSCSI SAN

VMware teste l'ESX/ESXi avec les systmes de stockage dans les configurations suivantes : Connectivit de base Teste si l'ESX/ESXi peut reconnatre et fonctionner avec le systme de stockage. Cette configuration ne permet pas le chemins multiples ou tout autre type de basculement. Le serveur est quip de plusieurs HBA iSCSI ou cartes rseau. Le serveur est rsistant aux pannes de HBA ou de carte rseau. Le serveur est associ plusieurs ports de stockage et est rsistant aux pannes de port de stockage et aux pannes de commutateur. L'hte ESX dmarre partir d'un LUN configur sur le SAN plutt qu' partir du serveur lui-mme.

Basculement iSCSI Basculement de port de stockage Dmarrage partir d'un SAN (avec htes ESX uniquement)

Considrations gnrales pour les systmes de stockage SAN iSCSI


Lorsque vous prparez votre systme de stockage SAN iSCSI pour qu'il fonctionne avec ESX/ESXi, vous devez suivre les conditions gnrales spcifiques qui s'appliquent tous les systmes de stockage. Pour tous les systmes de stockage, il existe les conditions gnrales suivantes :
n

Les LUN doivent tre prsents chaque HBA de chaque hte avec le mme ID de LUN. Si des numros diffrents sont utiliss, les htes ESX/ESXi ne reconnaissent pas diffrents chemins d'accs au mme LUN. tant donn que les instructions sur la configuration des ID de LUN SAN identiques sont spcifiques chaque fournisseur, consultez votre documentation de stockage pour obtenir plus d'informations. Sauf mention particulire pour des systmes de stockage individuels dcrits dans ce chapitre, dfinissez le type d'hte des LUN prsents l'ESX/ESXi sur Linux or Linux Cluster, si applicable votre systme de stockage. La mthode utilise par l'ESX/ESXi pour accder au systme de stockage est la plus compatible avec un accs Linux. Toutefois, cela peut varier en fonction du systme de stockage que vous utilisez. Si vous utilisez vMotion, DRS ou HA, veillez ce que les htes source et cible des machines virtuelles puissent voir les mmes LUN avec des ID de LUN identiques. Les administrateurs SAN peuvent trouver peu intuitif que plusieurs htes voient les mmes LUN car ils peuvent alors tre concerns par la corruption des donnes. Toutefois, VMFS empche que plusieurs machines virtuelles n'crivent sur le mme fichier au mme moment. Il est donc appropri de fournir les LUN tous les systmes ESX/ESXi requis. Si l'authentification CHAP n'est pas configure sur les LUN auxquels vous accdez, vous devez galement mettre hors tension CHAP sur l'hte ESX/ESXi. Sinon, l'authentification du systme de stockage choue, mme si les LUN n'ont aucune exigence CHAP.

Systmes de stockage EMC CLARiiON


Les systmes de stockage EMC CLARiiON fonctionnent avec les htes ESX/ESXi dans les configurations SAN iSCSI. Gnralement, vous utilisez le logiciel EMC pour effectuer ces configurations. Pour plus d'informations, reportez-vous la documentation EMC. Il s'agit d'une baie de disques actives/passives. Par consquence, toutes les questions associes qui s'appliquent aux baies de disques actives/passives sont pertinentes. De plus, gardez ce qui suit l'esprit :
n

Pour viter la possibilit d'une annulation de chemin, la rgle de multivoie par dfaut est Rcemment utilis, et non Fixe. Le systme ESX/ESXi dfinit la rgle par dfaut lorsqu'il identifie le systme de stockage. Pour dmarrer partir d'un SAN, slectionnez le processeur de stockage actif pour la cible du LUN de dmarrage dans le BIOS HBA.

54

VMware, Inc.

Chapitre 3 Modification des systmes de stockage SAN pour ESX/ESXi

Sur les systmes EMC CLARiiON AX100i et AX150i, les RDM sont pris en charge uniquement si vous utilisez Navisphere Management Suite pour l'administration du SAN. Navisphere Express ne garantit pas une configuration correcte. Pour utiliser correctement les RDM, un LUN donn doit tre prsent avec le mme ID de LUN chaque hte ESX/ESXi du cluster. Les systmes AX100i et AX150i ne le font pas par dfaut.

Lorsque vous utilisez un systme de stockage AX100i ou AX150i, aucun agent hte ne vrifie priodiquement la configuration de l'hte et reproduit les modifications sur le systme de stockage. L'utilitaire axnaviserverutil cli est utilis pour mettre niveau les modifications. Il s'agit d'une opration manuelle qui doit tre effectue selon vos besoins. La prise en charge de la liaison de port sur les systmes de stockage EMC CLARiiON ncessite des initiateurs dans des sous-rseaux diffrents. Pour plus de dtails, consultez la documentation du fournisseur. Pour qu'ESX/ESXi prenne en charge EMC CLARiiON avec ALUA, vrifiez les HCL pour vous assurer que vous utilisez bien la bonne version de microprogramme sur la baie de stockage. Pour plus d'informations, contactez votre fournisseur de stockage.

Systmes de stockage EMC Symmetrix


Pour fonctionner avec ESX/ESXi, les systmes de stockage EMC Symmetrix ncessitent certains paramtres spcifiques. Utilisez le logiciel EMC pour configurer le systme de stockage. Pour plus d'informations, reportez-vous votre documentation EMC. Les paramtres suivants sont requis pour les oprations ESX/ESXi sur le systme de stockage en rseau Symmetrix.
n n n n n

Numro de srie commun (C) Auto-ngociation (EAN) active SCSI 3 (SC3) activ Nom mondial unique (UWN) L'indicateur SPC-2 (Decal) (SPC2) SPC-2 est requis

REMARQUE L'hte ESX/ESXi considre tous les LUN partir d'un systme de stockage Symmetrix qui a une capacit de 50 Mo maximum comme des LUN de gestion. Ces LUN sont galement appels pseudo LUN ou LUN de contrle d'accs. Ces LUN apparaissent dans l'interface de gestion EMC Symmetrix et ne doivent pas tre utiliss pour contenir des donnes.

Activation du HP StorageWorks MSA1510i pour communiquer avec l'ESX/ESXi


Cette section dcrit les tapes d'installation et de configuration ncessaires pour permettre un systme de stockage HP StorageWorks MSA1510i de communiquer avec les htes ESX/ESXi. Procdure 1 2 Installez, connectez et allumez les priphriques rseau comme dcrit dans la documentation d'installation du fournisseur. Obtenez l'adresse IP attribue au port de gestion du contrleur MSA1510i. a b Faites dfiler les messages sur l'cran LCD jusqu' ce que le message suivant apparaisse : 603 Port
MA0 IP address

Enregistrez l'adresse IP du port de gestion qui apparat dans [Informations de base de MSA1510i] .

VMware, Inc.

55

Guide de configuration iSCSI SAN

3 4

partir du serveur ou d'un poste de travail sur le segment LAN du MSA1510i, ouvrez un navigateur Web et saisissez l'adresse obtenue dans tape 2. Lorsque vous y tes invit, saisissez les autorisations d'accs par dfaut.
n n

Nom d'utilisateur : root Mot de passe : root

5 6

Lorsque vous y tes invit, dfinissez un nom d'utilisateur et un mot de passe unique. l'aide de l'assistant, effectuez les actions suivantes.
Option Configuration de stockage Configuration iSCSI (configurez un portail iSCSI) Description a b a b c Dfinissez le mode de tolrance aux pannes (mode RAID). Attribuez un disque disponible pour le niveau RAID appropri. Slectionnez un port de donnes. Attribuez une adresse IP au port de donnes.

Les VLAN sont configurs sur le commutateur et sont utiliss pour contrler l'accs au stockage. Si vous utilisez des VLAN, saisissez l'ID de VLAN utiliser (0 = non utilis). d L'assistant suggre un nom cible iSCSI et un alias cible iSCSI par dfaut. Acceptez les valeurs par dfaut ou saisissez des valeurs dfinies par l'utilisateur. REMARQUE Pour configurer les autres ports de donnes, suivez le processus de l'assistant de configuration initiale du systme, puis utilisez les tches disponibles dans l'onglet [Configurer] . Paramtres de connexion Paramtres de gestion Entrez les paramtres de connexion. Entrez les paramtres de gestion.

Cliquez sur [Terminer] pour appliquer les paramtres de configuration.

REMARQUE Les assistants sont disponibles uniquement pour les tches de configuration de base. Utilisez les onglets [Grer] et [Configurer] pour afficher et modifier votre configuration. Suivant Aprs la configuration initiale, effectuez les tches suivantes pour terminer la configuration :
n n n n n n n n

Crez une baie. Crez un lecteur logique. Crez une cible. Crez un groupes de portail. Associez ou attribuez les portails crs l'aide de l'assistant avec le groupes de portail cr. Mappez les lecteurs logiques sur la cible. Ajoutez des initiateurs (nom IQN et alias de l'initiateur). Mettez niveau les ACL des lecteurs logiques pour fournir un accs aux initiateurs (slectionnez la liste des initiateurs pour accder au lecteur logique).

56

VMware, Inc.

Chapitre 3 Modification des systmes de stockage SAN pour ESX/ESXi

Systmes de stockage EVA HP StorageWorks


Les deux types de systmes EVA HP StorageWorks sont EVA_GL, un systme actif-passif, et EVA_XL, un systme actif-actif. Pour que les systmes puissent fonctionner avec l'ESX/ESXi, certains paramtres spcifiques sont requis. Dfinissez le type de connexion sur [Personnaliser] lorsque vous prsentez un LUN un hte ESX/ESXi. La valeur est l'une des suivantes :
n n

Pour HP EVAgl 3000/5000 (actif-passif), utilisez le type de mode d'hte 000000002200282E. Pour HP EVAgl firmware 4.001 (microprogramme actif-actif pour la srie GL) et versions ultrieures, utilisez le type de mode d'hte VMware. Pour les baies actives/actives EVA4000/6000/8000 avec microprogramme antrieur 5.031, utilisez le type de mode d'hte 000000202200083E. Pour les baies actives/actives EVA4000/6000/8000 avec microprogramme 5.031 et versions ultrieures, utilisez le type de mode d'hte VMware.

Sinon, les systmes EVA ne ncessitent aucune modification spciale de la configuration pour fonctionner avec un systme ESX/ESXi.

Systmes de stockage NetApp


Pour que les systmes de stockage NetApp puissent communiquer dans un environnement ESX/ESXi, vous devez effectuer des tapes de configuration spcifiques. Pour obtenir de la documentation supplmentaire sur NetApp, sur les meilleures pratiques VMware et sur les solutions SAN, consultez la page Web NetApp. Tableau 3-1. tapes de configuration
tape de configuration Dsactivez ALUA. Configurez le chemins multiples. Description Si l'un de vos initiateurs iSCSI fait partie d'un groupes d'initiateur (igroup), dsactivez ALUA sur le filtre NetApp. Lorsque vous configurez le chemins multiples entre deux HBA iSCSI et plusieurs ports sur un systme de stockage NetApp, attribuez aux deux HBA des adresses de dcouverte dynamiques ou statiques diffrentes pour la connexion au stockage. Le systme de stockage NetApp n'autorise qu'une connexion chaque cible et chaque initiateur. Toute connexion supplmentaire fait chouer la premire connexion. Par consquent, un seul HBA ne doit pas tenter de se connecter plusieurs adresses IP associes la mme cible NetApp. Dfinissez le type de LUN et le type de groupes d'initiateur appropris pour le systme de stockage : n Type de LUN : VMware (si le type VMware n'est pas disponible, utilisez Linux). n Type de groupes d'initiateur : VMware (si le type VMware n'est pas disponible, utilisez Linux). Utilisez FilerView ou CLI.

Dfinissez le type de LUN et le type de groupes d'initiateur.

Provisionnez le stockage.

VMware, Inc.

57

Guide de configuration iSCSI SAN

Provisionnement de stockage via la gestion de stockage FilerView


Vous pouvez utiliser FilerView pour provisionner le stockage sur un systme de stockage NetApp. Procdure 1 2 Connectez-vous la gestion de systme de stockage NetApp (FilerView). Crez un volume. a b c d e f 3 Slectionnez [Volumes] et cliquez sur [Ajouter] . Cliquez sur [Suivant] . Slectionnez [Flexibilit] (par dfaut) ou [Traditionnel] , puis cliquez sur [Suivant] . Saisissez un [Nom de volume] , slectionnez une [Langue] , puis cliquez sur [Suivant] . Saisissez des valeurs pour [Contenant des agrgats] , [Taille totale du volume] et [Espace garantie] , puis cliquez sur [Suivant] . Cliquez sur [Valider] pour crer le volume.

Crez des LUN. a b Slectionnez [LUN] et cliquez sur [Ajouter] . Saisissez le texte suivant :
n n n n

[Chemin] : saisissez un chemin, par exemple /vol/vol1/lun1. [Type de protocole LUN] : VMware. [Description] : une description brve. [Taille et unit] : saisissez une taille, par exemple 10 Go, et slectionnez [Espace rserv] .

Crez un groupes initiateur. a b Slectionnez [LUN] > [groupes de l'initiateur] et cliquez sur [Ajouter] . Saisissez le texte suivant :
n n n n

[Nom de groupes] : Saisissez un nom de groupes [Type] : Slectionnez [iSCSI] . [Systme d'exploitation] : Saisissez VMware. [Initiateur] : Saisissez des noms d'initiateur complets. S'il existe plusieurs initiateurs, chaque initiateur doit tre spar par un retour chariot.

c 5

Cliquez sur [Ajouter] .

Mappez le LUN sur le groupes initiateur. a Slectionnez [LUN] et cliquez sur [Grer] . Une liste des LUN s'affiche. b c d e Dans cette liste, cliquez sur l'tiquette de la ligne [Mappages] pour les LUN spcifiques. Cliquez sur [Ajouter des groupes mappage] . Slectionnez le groupes d'initiateur et cliquez sur [Ajouter] . Lorsque vous y tes invit, saisissez l'ID du LUN (un nombre entre 0 et 255) et cliquez sur [Appliquer] .

58

VMware, Inc.

Chapitre 3 Modification des systmes de stockage SAN pour ESX/ESXi

Provisionnement du stockage en utilisant l'interface de ligne de commande


Vous pouvez utiliser l'interface de ligne de commande pour provisionner le stockage sur un systme de stockage NetApp. Procdure 1 Utilisez l'interface de ligne de commande pour crer un agrgat si ncessaire.
aggr create vmware-aggrnumber of disks

Crez un volume flexible.


vol create aggregate namevolume size

Crez un Qtree pour stocker chaque LUN.


qtree create path

Crez un LUN.
lun create -s size -t vmware path

Crez un groupes initiateur.


igroup create -f -t vmware igroup name

Mappez le LUN vers le groupes d'initiateur que vous avez cr.


lun map (path) igroup nameLUN ID

Systmes de stockage EqualLogic


Lors de la configuration de vos systmes de stockage EqualLogic pour qu'ils fonctionnent dans une mise en oeuvre ESX/ESXi, vous devez poser certaines questions spcifiques. Vous trouverez ci-dessous les conditions requises spcifiques pour que les systmes de stockage EqualLogic fonctionnent avec ESX/ESXi :
n

chemins multiples. Aucune configuration spciale n'est ncessaire car les systmes de stockage EqualLogic prennent en charge le basculement de processeur de stockage, transparent pour iSCSI. Plusieurs HBA iSCSI ou cartes rseau peuvent se connecter la mme cible ou LUN ct stockage. Cration de LUN iSCSI. partir du portail Web d'EqualLogic, cliquez avec le bouton droit sur [Volumes] , puis slectionnez [Crer un volume] . Activez la redirection ARP pour les HBA iSCSI de matriel ESX/ESXi. Les systmes de stockage EqualLogic imposent une limite maximale de 512 connexions iSCSI par pool de stockage et 2048 connexions par groupes de stockage.

n n

Pour plus d'informations sur la configuration et l'utilisation des systmes de stockage EqualLogic, consultez la documentation de l'diteur.

Systmes de stockage LeftHand Networks SAN/iQ


Les SAN SAN/iQ prennent en charge les connexions iSCSI ESX/ESXi partir d'un initiateur logiciel et d'un initiateur matriel. Lors de la configuration de SAN/iQ, activez la resignature de volume automatique pour les priphriques de stockage SAN/iQ pour autoriser l'accs aux snapshots SAN/iQ et aux copies distantes. Pour plus d'informations sur la configuration des SAN LeftHand Networks pour VMware vSphere, consultez la documentation du fournisseur relative VMware.

VMware, Inc.

59

Guide de configuration iSCSI SAN

Les tapes de configuration de base incluent plusieurs tches. 1 2 3 4 5 Installez les nuds de stockage SAN/iQ. Crez des groupes de gestion et des clusters SAN/iQ. Crez des volumes. Attribuez des volumes aux groupes d'authentification et aux listes de volume. Activez la redirection ARP sur les HBA iSCSI matriels.

Il est galement prfrable de configurer l'quilibrage de charge IP virtuelle dans SAN/iQ pour tous les groupes d'authentification ESX/ESXi.

Systmes de stockage Dell PowerVault MD3000i


Lorsque vous configurez le CHAP mutuel pour les systmes de stockage iSCSI MD3000i, certaines considrations spciales s'appliquent. Lorsque vous configurez le CHAP mutuel pour la baie iSCSI MD3000i, suivez ces instructions :
n

Sur le systme de stockage MD3000i, la configuration du CHAP mutuel ncessite uniquement un secret CHAP. Sur l'hte ESX/ESXi, la configuration du CHAP mutuel ncessite la fois le nom et le secret CHAP. Lors de la configuration du CHAP mutuel sur l'hte ESX/ESXi, saisissez le nom IQN de la cible comme nom CHAP mutuel. Veillez ce que le secret CHAP corresponde celui dfini sur la baie.

Cibles iSCSI dans vApp


Si vous utilisez une cible iSCSI dans un botier virtuel, par exemple HP LeftHand P4000 VSA, l'hte doit se connecter la cible via l'adaptateur iSCSI logiciel plutt que via un adaptateur iSCSI matriel.

60

VMware, Inc.

Dmarrage partir du SAN iSCSI

Lorsque vous paramtrez votre hte pour qu'il dmarre depuis un SAN, l'image de dmarrage de votre hte est archive sur une ou plusieurs numros d'unit logique (LUN) du systme de stockage du SAN. Lorsque l'hte dmarre, il se lance partir de la LUN se trouvant sur le SAN et non pas partir du disque local. Vous pouvez utiliser le dmarrage partir du SAN si vous ne souhaitez pas effectuer de maintenance de l'archivage local ou si vous avez des configurations matrielles sans disques comme des systmes lame. Les htes ESX et ESXi prennent en charge diffrentes mthodes de dmarrage partir du SAN. Tableau 4-1. Prise en charge du dmarrage partir du SAN iSCSI
Type d'hte Hte ESX Matriel iSCSI indpendant Pris en charge. Un adaptateur de bus hte (HBA) du logiciel iSCSI doit dmarrer partir du SAN. Non pris en charge. iSCSI logiciel et iSCSI matrielle dpendante Non pris en charge.

Hte ESXi

Pris en charge. L'adaptateur rseau doit prendre en charge l'iBFT.

Le dmarrage de votre hte partir d'un SAN apporte de nombreux avantages.


n

Cot moins lev des serveurs. Les serveurs sont plus denses et leur temprature de fonctionnement beaucoup moins leve sans stockage interne. Remplacement plus facile des serveurs. Vous pouvez remplacer les serveurs par un nouveau serveur que vous pointez vers l'ancien emplacement de dmarrage. Gain d'espace. Processus de sauvegarde plus faciles. Les images de dmarrage du systme dans le SAN peuvent tre sauvegardes dans le cadre de la procdure de sauvegarde gnrale du SAN. Gestion amliore. La cration et la gestion de l'image du systme d'exploitation sont encore plus faciles et plus efficaces.

n n

Ce chapitre aborde les rubriques suivantes :


n n n n n

Recommandations gnrales de dmarrage partir du SAN iSCSI , page 62 Prparation du SAN iSCSI , page 62 Configuration des htes ESX pour un dmarrage partir du SAN iSCSI , page 63 Prsentation de iBFT iSCSI Boot , page 64 Collecte des informations de diagnostic pour les htes ESXi , page 69

VMware, Inc.

61

Guide de configuration iSCSI SAN

Recommandations gnrales de dmarrage partir du SAN iSCSI


Si vous prvoyez de paramtrer et d'utiliser un numro d'unit logique (LUN) iSCSI en tant que priphrique de dmarrage pour votre hte, vous devez suivre certaines instructions gnrales. Ces directives s'appliquent au dmarrage partir de l'iSCSI logiciel et matrielle dpendante et l'iSCSI matrielle indpendante.
n

Consultez les recommandations de l'diteur du matriel que vous utilisez dans votre configuration de dmarrage. Pour connatre les exigences et les conditions pralables d'installation, consultez le Guide d'installation appropri ESX/ESXi. Utilisez des adresses IP statiques afin de rduire les risques de conflits DHCP. Utilisez des LUN diffrentes pour les banques de donnes VMFS et les partitions de dmarrage. Configurez correctement les ACL sur votre systme de stockage.
n

n n n

La LUN de dmarrage doit uniquement tre visible pour l'hte qui utilise la LUN. Aucun autre hte sur le SAN ne doit tre autoris voir cette LUN de dmarrage. Si une LUN est utilise pour une banque de donnes VMFS, elle peut tre partage par plusieurs htes. Les ACL sur les systmes de stockage vous permettent d'effectuer ceci.

Configurez une partition de diagnostic.


n

Vous pouvez placer la partition de diagnostic sur le LUN de dmarrage uniquement avec l'iSCSI matrielle indpendante. Si vous configurez la partition de diagnostic dans la LUN de dmarrage, cette LUN ne peut pas tre partage sur plusieurs htes. Si un LUN spar est utilis pour la partition de diagnostic, il peut tre partag par de multiples htes. Si vous dmarrez un hte ESXi partir de SAN en utilisant iBFT, vous ne pouvez pas configurer une partition de diagnostic sur un LUN SAN. Au lieu de cela, vous utilisez vSphere Management Assistant (vMA) pour collecter les informations de diagnostic partir de votre hte et les stocker en vue d'une analyse. Reportez-vous Collecte des informations de diagnostic pour les htes ESXi , page 69.

Prparation du SAN iSCSI


Avant de configurer votre hte ESX/ESXi pour qu'il dmarre partir d'une LUN du logiciel iSCSI, prparez et configurez votre rseau de zone de stockage. AVERTISSEMENT Si vous utilisez une installation base sur des scripts pour installer ESX lors du dmarrage partir d'un SAN, prenez des mesures spciales afin d'viter toutes pertes de donnes non intentionnelles.

62

VMware, Inc.

Chapitre 4 Dmarrage partir du SAN iSCSI

Procdure 1 2 Connectez les cbles rseau en vous rfrant au guide de cblage s'appliquant votre configuration. Vrifiez la connectivit IP entre votre systme de stockage et votre serveur. Ceci inclut la configuration correcte de tous les routeurs ou commutateurs de votre rseau de stockage. Les systmes de stockage doivent tre en mesure de vrifier la connexion aux adaptateurs iSCSI de vos htes. 3 Configurez le systme de stockage. a b Crez un volume (ou une LUN) sur le systme de stockage depuis lequel votre hte va dmarrer. Configurez le systme de stockage afin que votre hte puisse accder la LUN qui lui est assigne. Il pourrait tre ncessaire de mettre niveau les ACL avec les adresses IP, les noms des logiciels iSCSI et avec le paramtre d'authentification CHAP utilis sur l'hte. Certains systmes de stockage, en plus de devoir fournir les informations d'accs l'hte ESX/ESXi, exigent galement d'associer de manire explicite la LUN assigne avec l'hte. c d e Assurez-vous que la LUN est prsente correctement l'hte. Assurez-vous qu'aucun autre systme n'a accs la LUN configure. Notez le nom du logiciel iSCSI et les adresses IP des cibles assigne l'hte. Vous devez avoir ces informations pour configurer vos adaptateurs iSCSI.

Configuration des htes ESX pour un dmarrage partir du SAN iSCSI


Grce l'hte ESX, vous pouvez dmarrer partir du SAN iSCSI uniquement si l'hte utilise un adaptateur matriel indpendant iSCSI tel que QLogic HBA. Vous devez configurer l'adaptateur matriel indpendant iSCSI pour le dmarrage partir du SAN. Cette procdure vous explique comment activer le QLogic iSCSI HBA pour qu'il dmarre partir du SAN. Pour plus d'informations et plus de dtails sur les paramtres de configuration de l'adaptateur QLogic, rendezvous sur le site Web de QLogic. Prrequis tant donn que vous devez d'abord dmarrer partir du support d'installation de VMware, configurez votre hte pour qu'il dmarre partir du CD-ROM. Pour effectuer cette opration, modifiez la squence de dmarrage du systme dans votre configuration BIOS systme. Procdure 1 2 3 4 Insrez le DVD d'installation dans le lecteur de DVD-ROM et redmarrez partir de l'hte. Utilisez le BIOS pour paramtrer l'hte afin qu'il dmarre d'abord partir du DVD-ROM. Au cours du POST du serveur, appuyez sur les touches Ctrl+q pour entrer dans le menu de configuration de QLogic iSCSI HBA. Slectionnez le port d'E/S configurer. Par dfaut, le mode Adaptateur dmarrage est paramtr sur Dsactiver. 5 Configurez le HBA. a b Depuis le menu [Options Fast!UTIL] , slectionnez [Paramtres de configuration] > [Paramtres de l'adaptateur hte] . Configurez les paramtres suivants pour l'adaptateur de votre hte : adresse IP initiatrice, masque de sous-rseau, passerelle, nom iSCSI initiateur et CHAP (si ncessaire).

VMware, Inc.

63

Guide de configuration iSCSI SAN

Configurez les paramtres iSCSI. Reportez-vous Configuration des paramtres de dmarrage de iSCSI , page 64.

Enregistrez vos changements et redmarrez le systme.

Configuration des paramtres de dmarrage de iSCSI


Lors de la configuration de votre hte ESX pour qu'il dmarre depuis iSCSI, vous devez configure les paramtres de dmarrage iSCSI. Procdure 1 2 3 Depuis le menu [Options Fast!UTIL] , slectionnez [Paramtres de configuration] > [Paramtres de dmarrage iSCSI] . Avant de dfinir SendTargets, dfinissez le mode Adaptateur dmarrage sur [Manuel] . Slectionnez [Paramtres du priphrique de dmarrage principal] . a b Saisissez la dcouverte [IP cible] et [Port cible] . Laissez les champs [Dmarrage LUN] et [Nom iSCSI] vides uniquement si une cible iSCSI et une LUN sont l'adresse de dmarrage spcifie. Autrement, spcifiez ces champs afin de vous assurer de ne pas dmarrer partir du volume d'un autre systme. Ds que le systme de stockage cible est atteint, ces champs seront remplis aprs une nouvelle recherche. Enregistrez vos changements.

c 4 5

Depuis le menu [Paramtres de dmarrage iSCSI] , slectionnez le priphrique de dmarrage principal. Une nouvelle recherche du HBA est effectue automatiquement pour retrouver de nouvelles LUN cibles. Slectionnez la cible iSCSI. REMARQUE S'il y a plusieurs LUN dans la cible, vous pouvez choisir un ID LUN spcifique en appuyant sur [Entre] aprs avoir localis le priphrique iSCSI.

Retournez dans le menu [Paramtres du priphrique de dmarrage principal] . Aprs une nouvelle recherche, les champs [Dmarrage LUN] et [Nom iSCSI] sont renseigns. Changez la valeur de [Dmarrage LUN] sur l'ID LUN de votre choix.

Prsentation de iBFT iSCSI Boot


Les htes ESXi peuvent dmarrer depuis un SAN iSCSI en utilisant les adaptateurs iSCSI logiciels ou matriels dpendants et les cartes rseau. Pour dployer ESXi et dmarrer depuis le SAN iSCSI, l'hte doit avoir une carte rseau compatible iSCSI Boot qui prend en charge le format iBFT (iSCSI Boot Firmware Table). L'iBFT permet de communiquer les paramtres du priphrique iSCSI Boot au systme d'exploitation. Avant d'installer ESXi et de dmarrer depuis le SAN iSCSI, configurez les paramtres rseau et de dmarrage iSCSI sur la carte rseau et activez la carte pour le dmarrage iSCSI. tant donn que la configuration de la carte rseau est propre au fournisseur, consultez la documentation correspondante pour obtenir des instructions. Lors du premier dmarrage partir de iSCSI, le microprogramme de dmarrage iSCSI de votre systme se connecte une cible iSCSI. En cas de connexion russie, le microprogramme enregistre les paramtres rseau et de dmarrage du logiciel iSCSI dans l'iBFT et stocke la table dans la mmoire du systme. Le systme utilise cette table pour configurer sa connexion et son rseau iSCSI ainsi que son dmarrage.

64

VMware, Inc.

Chapitre 4 Dmarrage partir du SAN iSCSI

La liste suivante dcrit la squence de iBFT iSCSI boot. 1 2 3 Une fois redmarr, le BIOS du systme dtecte le microprogramme iSCSI Boot sur la carte rseau. Le microprogramme iSCSI Boot utilise les paramtres de dmarrage prconfigurs pour se connecter la cible iSCSI spcifie. En cas de connexion russie la cible iSCSI, le microprogramme iSCSI Boot crit les paramtres rseau et de dmarrage iSCSI dans l'iBFT et stocke la table dans la mmoire du systme. REMARQUE Le systme utilise cette table pour configurer sa connexion et son rseau iSCSI ainsi que son dmarrage. 4 5 6 7 Le BIOS dmarre le priphrique de dmarrage. Le VMkernel commence le chargement et reprend l'opration de dmarrage. Le VMkernel utilise les paramtres de dmarrage depuis l'iBFT pour se connecter la cible iSCSI. Une fois la connexion iSCSI tablie, le systme dmarre.

Considrations sur iBFT iSCSI Boot


Si vous dmarrez un hte ESXi partir de iSCSI en utilisant les cartes rseau iBFT, certaines considrations s'appliquent. iBFT iSCSI Boot ne prend pas en charge les lments suivants :
n n

IPv6 Basculement sur les cartes rseau iBFT

REMARQUE Actualisez le code de dmarrage de vos cartes rseau et le microprogramme iBFT en utilisant les outils du fournisseur avant d'installer et de dmarrer la version VMware ESXi 4.1. Consultez la documentation du fournisseur et le guide VMware HCL pour connatre le code de dmarrage pris en charge et les versions de microprogramme iBFT pour le dmarrage VMware ESXi 4.1 iBFT. Il se peut que le code de dmarrage et le microprogramme iBFT publis par les fournisseurs avant la version ESXi 4.1 ne fonctionnent pas. Une fois votre hte configur pour qu'il dmarre depuis iBFT iSCSI, les restrictions suivantes s'appliquent :
n

Vous ne pouvez pas dsactiver l'adaptateur logiciel iSCSI. Si la configuration iBFT est prsente dans le BIOS, l'hte ractive l'adaptateur logiciel iSCSI lors de chaque redmarrage. Vous ne pouvez pas supprimer la cible de iBFT iSCSI boot en utilisant vSphere Client. La cible apparat sur la liste de cibles statiques d'adaptateurs.

Dfinition de l'hte ESXi pour dmarrer depuis iSCSI


Grce aux htes ESXi, vous pouvez redmarrer depuis iSCSI l'aide de l'adaptateur de logiciel iSCSI ou d'un adaptateur de matriel iSCSI dpendant et d'une carte rseau. Lorsque vous configurez votre hte pour qu'il dmarre depuis iSCSI, vous effectuez plusieurs tches. 1 Configuration des paramtres de dmarrage iSCSI page 66 Pour lancer un processus de dmarrage iSCSI, votre hte doit possder une carte rseau dote d'un microprogramme de dmarrage iSCSI spcialement configur. Lorsque vous configurez le microprogramme, vous spcifiez les paramtres rseau et iSCSI et activez la carte pour le dmarrage iSCSI. 2 Modification de la squence de dmarrage dans le BIOS page 66 Lors de la configuration de votre hte pour qu'il dmarre depuis iBFT iSCSI, changez la squence de dmarrage pour forcer votre hte dmarrer dans l'ordre appropri.

VMware, Inc.

65

Guide de configuration iSCSI SAN

Installation de ESXi sur la cible iSCSI page 67 Lors de la configuration de votre hte pour qu'il dmarre depuis iSCSI, installez l'image ESXi sur le LUN cible.

Dmarrage de ESXi partir de la cible iSCSI page 67 Aprs avoir prpar l'hte pour un dmarrage iSCSI et copi l'image ESXi sur la cible iSCSI, procdez au dmarrage.

Configuration des paramtres de dmarrage iSCSI


Pour lancer un processus de dmarrage iSCSI, votre hte doit possder une carte rseau dote d'un microprogramme de dmarrage iSCSI spcialement configur. Lorsque vous configurez le microprogramme, vous spcifiez les paramtres rseau et iSCSI et activez la carte pour le dmarrage iSCSI. La configuration sur la carte rseau peut tre dynamique ou statique. Si vous utilisez la configuration dynamique, vous indiquez que tous les paramtres de dmarrage de la cible et de l'initiateur sont acquis l'aide de DHCP. Pour la configuration statique, vous entrez manuellement les donnes, savoir l'adresse IP de votre hte et l'initiateur IQN, et les paramtres de la cible. Procdure
u

Sur la carte rseau que vous utilisez pour le dmarrage depuis iSCSI, spcifiez les paramtres rseau et iSCSI. tant donn que la configuration de la carte rseau est propre au fournisseur, consultez la documentation correspondante pour obtenir des instructions.

Modification de la squence de dmarrage dans le BIOS


Lors de la configuration de votre hte pour qu'il dmarre depuis iBFT iSCSI, changez la squence de dmarrage pour forcer votre hte dmarrer dans l'ordre appropri. Pour une installation ESXi, changez la squence de dmarrage du BIOS selon l'ordre suivant :
n n

iSCSI DVD-ROM

La modification de la squence de dmarrage dans le BIOS tant propre au fournisseur, reportez-vous la documentation du fournisseur pour plus d'instructions. La procdure type suivante dcrit comment changer la squence de dmarrage sur un hte Dell avec une carte rseau Broadcom. Procdure 1 2 3 4 5 6 7 Mettez l'hte sous tension. Lors du POST (Power-On Self-Test), appuyez sur F2 pour entrer dans la configuration du BIOS. Dans la configuration du BIOS, slectionnez la [Squence de dmarrage] et appuyez sur Entre. Dans le menu Squence de dmarrage, ordonnez les lments de dmarrage de faon ce que iSCSI prcde le DVD-ROM. Appuyez sur chap pour quitter le menu Squence de dmarrage. Appuyez sur chap pour quitter la Configuration du BIOS. Slectionnez [Enregistrer les changements] et cliquez sur [Quitter] pour quitter le menu Configuration du BIOS.

66

VMware, Inc.

Chapitre 4 Dmarrage partir du SAN iSCSI

Installation de ESXi sur la cible iSCSI


Lors de la configuration de votre hte pour qu'il dmarre depuis iSCSI, installez l'image ESXi sur le LUN cible. Prrequis
n

Configurez le microprogramme iSCSI Boot sur votre carte rseau de dmarrage de faon le diriger vers le LUN cible que vous souhaitez utiliser comme LUN de dmarrage. Changez la squence de dmarrage dans le BIOS afin que iSCSI prcde le DVD-ROM. Si vous utilisez des cartes Broadcom, dfinissez [Dmarrer sur la cible iSCSI] comme [Dsactiv] .

n n

Procdure 1 2 3 Insrez le support d'installation dans le lecteur de DVD et redmarrez l'hte. Lorsque le programme d'installation dmarre, suivez la procdure d'installation type. Lorsque vous y tes invit, slectionnez le LUN iSCSI comme cible d'installation. Le programme d'installation copie l'image de dmarrage ESXi sur le LUN iSCSI. 4 Suite au redmarrage du systme, retirez le DVD d'installation.

Dmarrage de ESXi partir de la cible iSCSI


Aprs avoir prpar l'hte pour un dmarrage iSCSI et copi l'image ESXi sur la cible iSCSI, procdez au dmarrage. Prrequis
n

Configurez le microprogramme iSCSI Boot sur votre carte rseau de dmarrage de faon le diriger vers le LUN de dmarrage. Changez la squence de dmarrage dans le BIOS afin que iSCSI prcde le priphrique de dmarrage. Si vous utilisez les cartes Broadcom, dfinissez [Dmarrage vers la cible iSCSI] comme [Activ]

n n

Procdure 1 Redmarrez l'hte. L'hte dmarre partir de la LUN du logiciel iSCSI l'aide des donnes iBFT. Lors du dmarrage initial, le script d'initialisation iSCSI paramtre le rseau par dfaut. La configuration du rseau ne change pas suite aux prochains redmarrages. 2 (Facultatif) Ajustez la configuration du rseau en utilisant vSphere Client.

Meilleures pratiques de mise en rseau


Pour dmarrer un hte ESXi partir de iSCSI en utilisant iBFT, vous devez configurer le rseau correctement. Pour une scurit renforce et des performances optimales, utilisez des cartes rseau redondantes sur l'hte. La manire dont vous paramtrez toutes les cartes rseau dpend de l'utilisation par votre environnement de rseaux partags ou isols pour le trafic iSCSI et le trafic de gestion de l'hte.

Rseaux iSCSI et de gestion partags


Configurez la mise en rseau et les paramtres iSCSI sur la premire carte rseau sur l'hte. Une fois que l'hte a dmarr, vous pouvez ajouter des cartes rseau secondaires au groupes de ports par dfaut.

VMware, Inc.

67

Guide de configuration iSCSI SAN

Rseaux iSCSI et de gestion isols


Lorsque vous configurez des rseaux iSCSI et de gestion isols, suivez ces directives pour viter des problmes de bande passante.
n n

Vos rseaux isols doivent tre dans des sous-rseaux diffrents. Si vous utilisez des VLAN pour isoler les rseaux, ceux-ci doivent avoir des sous-rseaux diffrents afin d'assurer que les tables de routage sont paramtres correctement. VMware recommande de configurer l'adaptateur iSCSI et la cible de faon ce qu'ils se trouvent dans le mme sous-rseau. Si vous configurez l'adaptateur iSCSI et la cible afin qu'ils se trouvent dans diffrents sous-rseaux, les restrictions suivantes s'appliquent :
n n

La passerelle VMkernel par dfaut doit pouvoir acheminer le trafic iSCSI et le trafic de gestion. Aprs avoir dmarr votre hte ESXi, vous pouvez utiliser la carte rseau compatible iBFT seulement pour iBFT. Vous ne pouvez pas utiliser la carte pour le trafic iSCSI.

n n n

Utilisez la premire carte rseau physique pour le rseau de gestion. Utilisez la deuxime carte rseau physique pour le rseau iSCSI. Assurez-vous d'avoir configur l'iBFT. Une fois que l'hte a dmarr, vous pouvez ajouter des cartes rseau secondaires aux rseaux de gestion et rseaux iSCSI.

Modification des paramtres iBFT iSCSI Boot


Si les paramtres, tels que le nom IQN, l'adresse IP et autres, changent sur le stockage du logiciel iSCSI ou sur votre hte, mettez niveau l'iBFT. Cette tche suppose que la LUN de dmarrage et les donnes stockes sur la LUN demeurent intactes. Procdure 1 2 3 4 Arrtez l'hte ESXi. Changez les paramtres de stockage iSCSI. Mettez niveau l'iBFT sur l'hte avec les nouveaux paramtres. Redmarrez l'hte. L'hte dmarre en utilisant les nouvelles informations stockes dans l'iBFT.

Dpannage de iBFT iSCSI Boot


Les rubriques dans cette section vous permettent d'identifier et de rsoudre les problmes que vous pourriez rencontrez lors de l'utilisation de iBFT iSCSI Boot.

La perte de passerelle du systme provoque la perte de connectivit du rseau


Vous perdez la connectivit du rseau lorsque vous supprimez un groupe de ports associ la carte rseau iBFT. Problme Une perte de connectivit se produit suite une suppression d'un groupe de ports. Cause Lorsque vous spcifiez une passerelle dans la carte rseau iBFT lors de l'installation ESXi, cette passerelle devient la passerelle par dfaut du systme. Si vous supprimez le groupe de ports associ la carte rseau, la passerelle par dfaut du systme est perdue. Cette action provoque la perte de connectivit du rseau.

68

VMware, Inc.

Chapitre 4 Dmarrage partir du SAN iSCSI

Solution Ne dfinissez pas une passerelle iBFT sauf si elle est requise. Si la passerelle est requise, aprs l'installation, dfinissez manuellement la passerelle par dfaut du systme celle utilise par le rseau de gestion.

La modification des paramtres de dmarrage du systme iSCSI fait dmarrer ESXi en mode sans tat
La modification des paramtres de dmarrage iSCSI sur la carte rseau aprs le dmarrage initial ne met pas jour la configuration iSCSI et du rseau sur l'hte ESXi. Problme Si vous changez les paramtres de dmarrage iSCSI sur la carte rseau aprs le premier dmarrage de ESXi depuis iSCSI, l'hte dmarrera en mode sans tat. Cause Le microprogramme utilise la configuration de dmarrage mise jour et peut se connecter la cible iSCSI et charger l'image ESXi. Toutefois, lorsque le systme est charg, il ne capte pas les nouveaux paramtres, mais continue utiliser les paramtres rseau et iSCSI persistants du dmarrage prcdent. De ce fait, l'hte ESXi ne peut pas se connecter la cible et dmarre en mode sans tat. Solution 1 2 3 Utilisez vSphere Client pour la connexion l'hte ESXi. Reconfigurez iSCSI et la mise en rseau sur l'hte de faon faire correspondre les paramtres aux paramtres iBFT. Effectuez une nouvelle analyse.

Collecte des informations de diagnostic pour les htes ESXi


Si vous dmarrez partir de SAN en utilisant iBFT et si votre hte ESXi n'a pas de partition locale de diagnostic, vous devez configurer vSphere Management Assistant (vMA) pour collecter les informations de diagnostic partir de votre hte et les stocker en vue d'une analyse. Si votre hte ESXi connat de graves problmes, il cre un fichier avec les informations de diagnostic qui peuvent tre analyses ultrieurement pour dterminer la cause des problmes. Vous configurez votre hte ESXi de faon ce qu'il serve de client net dump qui transfre le fichier de diagnostic par le rseau. vMA fait office de serveur net dump qui collecte les informations de diagnostic et les enregistre dans /var/core sur le serveur. Lorsque vous configurez l'environnement net dump, suivez ces directives :
n n

N'installez pas vMA sur le mme hte physique que celui sur lequel vous configurez le client net dump. Si vous avez de multiples htes ESXi qui ncessitent la configuration net dump, configurez chaque hte sparment. Une instance vMA est suffisante pour la collecte des fichiers de vidage mmoire partir de multiples htes ESXi.

VMware, Inc.

69

Guide de configuration iSCSI SAN

Configuration de vSphere Management Assistant


vSphere Management Assistant (vMA) est une machine virtuelle que vous configurez de faon ce qu'elle serve de serveur net dump qui collecte des informations de diagnostic de votre hte ESXi. Prrequis Dployez et configurez vMA sur un serveur physique diffrent du serveur sur lequel vous configurez le client net dump. Pour plus d'informations, consultez le Guide vSphere Management Assistant sur http://www.vmware.com/support/pubs. Procdure 1 2 Connectez-vous vMA en tant qu'administrateur. Activez le serveur net dump sur vMA.
# sudo chkconfig vmware-netdumper on

Dmarrez le serveur net dump.


# sudo/etc/init.d/vmware-netdumper start # sudo lokkit --quiet --port=6500:udp

Configuration de l'hte ESXi


Configurez un hte ESXi de faon ce qu'il serve de client net dump qui transfre les informations de diagnostic par le rseau. Utilisez vSphere CLI pour configurer votre hte ESXi. Prrequis Configurez vMA en tant que serveur net dump et obtenez son adresse IP. Procdure 1 Entrez l'adresse IP de l'hte ESXi.
# esxcfg-advcfg -s IP_address_ESXi /Net/NetdumpVmkIP

Spcifiez la carte rseau utiliser.


# esxcfg-advcfg -s vmnic /Net/NetdumpVmkNic

Spcifiez le groupe de ports attach la carte rseau.


# esxcfg-advcfg -s portgroup /Net/NetdumpVmkPG

Spcifiez l'adresse IP du serveur net dump.


# esxcfg-advcfg -s IP_address_netdump /Net/NetdumpServerIP

(Facultatif) Entrez l'adresse IP de la passerelle pour accder au serveur net dump.


# esxcfg-advcfg -s IP_address_gateway /Net/NetdumpServerGateway

70

VMware, Inc.

Gestion des systmes ESX/ESXi utilisant le stockage SAN

Cette section vous aide administrer votre systme ESX/ESXi, exploiter efficacement le stockage SAN, et rsoudre les problmes. Il y est aussi expliqu comment trouver les informations sur les priphriques de stockage, les adaptateurs, le multichemin, etc. Ce chapitre aborde les rubriques suivantes :
n n n n n n n n n n n n

Affichage des informations sur les adaptateurs de stockage , page 71 Affichage des informations sur les priphriques de stockage , page 72 Affichage des informations sur les banque de donnes , page 75 Rsolution des problmes d'affichage du stockage , page 76 Analyse et rclamation des chemins , page 80 Partage de partitions de diagnostic , page 86 Prvention et rsolution des problmes de SAN , page 86 Optimisation des performances du stockage SAN , page 87 Rsolution des problmes de performances , page 91 Considrations sur la sauvegarde de stockage SAN , page 94 Administration des banques de donnes VMFS dupliques , page 96 Acclration matrielle du stockage , page 99

Affichage des informations sur les adaptateurs de stockage


Dans vSphere Client, vous pouvez afficher les adaptateurs de stockage que votre hte utilise et vrifier leurs informations. Lorsque vous affichez la liste des adpatateurs disponibles, vous voyez leur modle, type (comme Fibre Channel, SCSI parallle ou SCSI), et si disponible leur identificateur unique. Les adaptateurs iSCSI utilisent comme identificateur unique leurs noms iSCSI. Lorsque vous affichez les dtails d'un adaptateur iSCSI, vous voyez les informations suivantes. Certains adaptateurs, par exemple les iSCSI logiciels et matriels dpendants, doivent tre configurs ou activs avant de pouvoir en consulter les informations.

VMware, Inc.

71

Guide de configuration iSCSI SAN

Tableau 5-1. Informations sur les adaptateurs de stockage


Informations sur les adaptateurs Modle nom iSCSI Alias iSCSI Adresse IP (iSCSI matriel indpendant) Cibles connectes Priphriques Chemins d'accs Description Modle de l'adaptateur. Nom unique form selon les normes iSCSI qui identifie l'adaptateur iSCSI. Surnom utilis au lieu du nom iSCSI. Adresse assigne l'adaptateur iSCSI. Nombre de cibles auxquelles il a t accd via l'adaptateur. Tous les priphriques de stockage ou LUN auxquels l'adaptateur peut accder. Tous les chemins que l'adaptateur l'utilise pour accder aux priphriques de stockage.

Affichage d'informations sur les adaptateurs de stockage


Utilisez vSphere client pour afficher les adaptateurs de stockage et pour examiner leurs informations. Procdure 1 2 3 4 5 6 Dans l'inventaire, slectionnez [Htes et clusters] . Slectionnez un hte et cliquez sur l'onglet [Configuration] . Dans Matriel, slectionnez [Adaptateurs de stockage] . Pour afficher les dtails sur un adaptateur particulier, slectionnez-le dans la liste d'adaptateurs de stockage. Pour rpertorier tous les priphriques de stockage auxquels l'adaptateur peut accder, cliquez sur [Priphriques] . Pour rpertorier tous les chemins qu'utilise l'adaptateur, cliquez sur [Chemins] .

Copie des noms des adaptateurs de stockage dans le presse-papiers


Vous pouvez copier le nom d'un adaptateur dans le presse-papiers, directement partir de l'interface utilisateur. Procdure 1 2 3 4 5 Dans l'inventaire, slectionnez [Htes et clusters] . Slectionnez un hte et cliquez sur l'onglet [Configuration] . Dans Matriel, slectionnez [Adaptateurs de stockage] . Slectionnez l'adaptateur dans la liste d'adaptateurs de stockage. Dans le panneau Dtails, mettez en surbrillance la valeur dans le champ Nom et slectionnez [Copier] dans le menu contextuel.

Affichage des informations sur les priphriques de stockage


Vous pouvez utiliser vSphere Client pour afficher tous les priphriques de stockage ou tous les LUN disponibles sur votre hte (priphriques locaux et rseau) Si vous utilisez des plug-ins multichemin tiers, les priphriques de stockage disponibles via les plug-ins apparaissent galement dans la liste. Pour tout adaptateur de stockage, vous pouvez afficher une liste distincte de priphriques de stockage accessibles uniquement par cet adaptateur. Lorsque vous contrlez une liste de priphriques de stockage, typiquement vous voyez les informations suivantes :

72

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Tableau 5-2. Informations du priphrique de stockage


Informations de priphrique Nom Identificateur Nom d'excution LUN Type Transport Capacit Propritaire Acclration matrielle Description Un nom intuitif que l'hte assigne au priphrique, sur la base du type et du fabricant du stockage. Vous pouvez changer ce nom par le nom de votre choix. Un identifiant universel unique qui reste intrinsque au priphrique de stockage. Nom du premier chemin d'accs au priphrique. Numro de LUN montrant la position du LUN dans la cible. Type de priphrique, par exemple, disque ou CD-ROM. Protocole de transport utilis par votre hte pour accder au priphrique. Capacit totale du priphrique de stockage. Plug-in, comme le NMP ou un plug-in tiers, utilis par l'hte pour grer le priphrique de stockage. Prcise si le priphrique de stockage assiste l'hte ou non dans diverses oprations d'administration de machine virtuelle. Le statut peut tre Pris en charge, Non pris en charge ou Inconnu. Chemin d'accs au priphrique de stockage dans l'inventaire /vmfs/devices/. Partitions logiques et principales, y compris une banque de donnes VMFS, si configure.

Emplacement Partitions

Explication du nommage de priphriques de stockage


Dans vSphere Client, chaque priphrique de stockage, ou LUN, est identifi par plusieurs noms. Nom Un nom convivial attribu par l'hte un priphrique en fonction du type de stockage et du fabricant. Vous pouvez modifier le nom l'aide de vSphere Client. Un identificateur universellement unique que l'hte extrait du stockage. En fonction du type de stockage, l'hte utilise diffrents algorithmes pour extraire l'identificateur. Nom du premier chemin d'accs au priphrique. Le nom d'excution est cr par l'hte. Le nom d'excution n'est pas un identificateur fiable pour le priphrique et n'est pas permanent. Le nom d'excution a le format suivant : vmhba#:C#:T#:L#, o
n

Identificateur

Nom d'excution

vmhba# est le nom de l'adaptateur de stockage. Le nom fait rfrence la carte physique sur l'hte et non au contrleur SCSI utilis par les machines virtuelles. C# est le numro de canal de stockage. Les initiateurs iSCSI logiciels utilisent le numro de canal pour prsenter plusieurs chemins menant la mme cible.

VMware, Inc.

73

Guide de configuration iSCSI SAN

T# est le numro cible. La numrotation de la cible est choisie par l'hte et peut tre modifie en cas de changement de mappages des cibles visibles par l'hte. Les cibles qui sont partages par diffrents htes n'ont pas ncessairement le mme numro cible. L# est le numro de LUN qui indique la position du LUN dans la cible. Le numro de LUN est fourni par le systme de stockage. Si une cible possde un seul LUN, le numro de LUN est toujours zro (0).

Par exemple, vmhba1:C0:T3:L1 reprsente LUN1 sur la cible 3 accessible via l'adaptateur de stockage vmhba1 et le canal 0.

Affichage des priphriques de stockage d'un hte


Vous pouvez utiliser vSphere Client pour afficher tous les priphriques de stockage ou tous les LUN disponibles sur votre hte, y compris tous les priphriques locaux et en rseau. Si vous utilisez des plug-ins multichemin tiers, les priphriques de stockage disponibles via les plug-ins apparaissent galement dans la liste. Procdure 1 2 3 4 5 Dans l'inventaire, slectionnez [Htes et clusters] . Slectionnez un hte et cliquez sur l'onglet [Configuration] . Dans Matriel, slectionnez [Stockage] . Cliquez sur [Priphriques] . Pour afficher des informations complmentaires sur un priphrique spcifique, slectionnez le priphrique partir de la liste.

Affichage des priphriques de stockage d'un adaptateur


Vous pouvez afficher la liste des priphriques de stockage accessibles partir de chaque adaptateur de stockage de votre hte. Procdure 1 2 3 4 5 Dans l'inventaire, slectionnez [Htes et clusters] . Slectionnez un hte et cliquez sur l'onglet [Configuration] . Dans Matriel, slectionnez [Adaptateurs de stockage] . Slectionnez l'adaptateur dans la liste d'adaptateurs de stockage. Cliquez sur [Priphriques] .

Copie d'identifiants de priphriques de stockage dans le Presse-papiers


Un identifiant de priphrique de stockage reprsente un ID unique universel universel affect par l'hte un priphrique de stockage (ou LUN). Selon le type de stockage concern, l'hte utilise diffrents algorithmes pour crer l'identifiant. Cette opration peut tre longue et complexe. Vous pouvez directement copier l'identificateur de priphrique de stockage depuis l'interface utilisateur. Procdure 1 2 Affichez la liste des priphriques de stockage. Cliquez avec le bouton droit de la souris sur un priphrique, puis slectionnez [Copier identifiant dans le presse-papier] .

74

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Affichage des informations sur les banque de donnes


Vous pouvez afficher toutes les banque de donnes disponibles pour vos htes et analyser leurs proprits. Les banques de donnes sont ajoutes vSphere Client de la faon suivante :
n n

banque de donnes cres sur un priphrique de stockage disponible. Reconnaissance en cas d'ajout d'hte l'inventaire. Lorsque vous ajoutez un hte l'inventaire, vSphere Client affiche les banque de donnes disponibles pour l'hte.

Si votre vSphere Client est connect un systme vCenter Server, vous pouvez afficher des informations sur les banque de donnes dans la vue banque de donnes. Cette vue affiche tous les banques de donnes de l'inventaire, organises par centre de donnes. Grce cette vue, vous pouvez organiser les banque de donnes en hirarchies de dossiers, crer de nouvelles banque de donnes, modifier leurs proprits, ou encore supprimer des banque de donnes existantes. Cette vue est complte et affiche toutes les informations de vos banque de donnes, y compris les htes et machines virtuelles les utilisant, les informations de rapports de stockage, les autorisations, les alarmes, les tches et vnements, la topologie de stockage, et les rapports de stockage. Des informations de configuration pour chaque banque de donnes sur tous les htes qui y sont connects sont fournies dans l'onglet Configuration de la vue banque de donnes. REMARQUE La vue banque de donnes n'est pas disponible quand le vSphere Client se connecte directement votre hte. Dans ce cas, consultez les informations de banque de donnes via l'onglet de configuration de stockage de l'hte. Le tableau suivant fournit des informations dtailles sur les banque de donnes que vous pouvez afficher lorsque vous effectuez une analyse de banque de donnes. Tableau 5-3. Informations sur les banque de donnes
Informations sur les banque de donnes Identification Priphrique Description Nom modifiable affect la banque de donnes. Priphrique de stockage sur lequel se trouve la banque de donnes. Si la banque de donnes s'tend sur plusieurs priphriques de stockage, seul le premier priphrique s'affiche. Capacit totale formate de la banque de donnes. libre disponible. Systme de fichiers utilis par la banque de donnes (VMFS ou NFS). Permet d'affecter des priorits d'E/S de stockage l'chelle du cluster. Voir le Guide de gestion des ressources de vSphere. Informations indiquant si la banque de donnes aide l'hte excuter diffrentes oprations de gestion de machines virtuelles. Le statut peut tre Pris en charge, Non pris en charge ou Inconnu. Chemin d'accs la banque de donnes dans l'inventaire /vmfs/volumes/. Extensions de la banque de donnes et capacit correspondante (banque de donnes VMFS uniquement). Rgles de slection de chemin d'accs utilises par l'hte pour accder aux espaces de stockage (banque de donnes VMFS uniquement). Nombre de chemins d'accs utiliss pour accder au stockage et leur statut (banque de donnes VMFS uniquement).

Capacit Espace Type Contrle d'E/S de stockage Acclration matrielle

Emplacement Extensions Slection de chemin d'accs Chemins d'accs

VMware, Inc.

75

Guide de configuration iSCSI SAN

Consulter les proprits des banque de donnes


Utilisez vSphere Client pour examiner les proprits de la banque de donnes. Procdure 1 2 3 4 Slectionnez un hte dans l'inventaire et cliquez sur l'onglet [Configuration] . Dans Matriel, slectionnez [Stockage] . Cliquez sur la vue [banque de donnes] . Pour afficher les informations sur une banque de donnes spcifique, slectionnez la banque de donnes partir de la liste.

Rsolution des problmes d'affichage du stockage


Lorsque vous utilisez le vSphere Client pour afficher les priphriques de stockage disponibles sur votre hte ESX/ESXi et que le rsultat diffre de ce que vous attendiez, effectuez les tches de rsolution des problmes Effectuez les tches suivantes de rsolution des problmes si vous avez des problmes d'affichage. Tableau 5-4. Rsolution des problmes d'affichage de LUN iSCSI
Tche de rsolution des problmes Vrifiez la connectivit du cble. Description Si vous ne voyez pas de port, le problme peut venir de la connectivit du cble ou du routage. Vrifiez les cbles en priorit. Assurez-vous que les cbles sont connects aux ports et que la LED indique une bonne connexion. Si une extrmit d'une cble ne montre pas de LED positive, remplacez le cble. Contrlez la connectivit entre les diffrents sous-rseaux de votre configuration ethernet. Si votre systme ESX/ESXi et votre stockage iSCSI ne se trouvent pas sur le mme sousrseau, assurez-vous qu'un routage appropri a lieu entre les diffrents sous-rseaux. De plus, assurez-vous que le masque de sous-rseau et l'adresse de la passerelle sont correctement paramtrs sur le stockage iSCSI et l'initiateur iSCSI sur l'hte ESX/ESXi. Si les LUN attendus ne s'affichent pas aprs ranalyse, il se peut que le contrle d'accs ne soit pas correctement configur du ct du systme de stockage : n Si CHAP est configur, assurez-vous qu'il est activ sur l'hte ESX/ESXI, et qu'il correspond la configuration du systme de stockage. n Si un filtrage base d'IP est utilis, vrifiez que les adresses IP du HBA iSCSI ou du groupes de ports VMkernel ainsi que l'adresse IP de la console de service sont autorises. n Si vous utilisez un filtrage bas sur les noms d'intiateurs, vrifiez que le nom est bien un nom iSCSI qualifi, et qu'il correspond la configuration du ct stockage. n Pour dmarrer depuis un SAN, assurez-vous que chaque hte voit uniquement les LUN requis. N'autorisez pas un hte voir tout LUN de dmarrage autre que le sien. Utilisez le logiciel du systme de stockage pour vrifier que l'hte ne voit que les LUN qu'il est cens voir. n Assurez-vous que le paramtre [Disk.MaxLUN] vous permet de voir les LUN attendus. Si un systme de stockage possde plus d'un seul processeur de stockage, assurez-vous que le commutateur SAN possde une connexion vers le SP qui gre les LUN auxquels vous voulez accder. Dans Certains systmes de stockage, seul un SP est actif et l'autre reste passif jusqu' ce qu'une panne survienne. Si vous tes connect au SP incorrect (celui avec le chemin passif), il est alors possible que vous ne voyiez pas les LUN attendus, ou que vous voyiez les LUN mais avec des erreurs en tentant d'y accder.

Vrifiez les paramtres de routage.

Vrifiez la configuration du contrle d'accs.

Vrifiez la configuration du processeur de stockage.

76

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Tableau 5-4. Rsolution des problmes d'affichage de LUN iSCSI (suite)


Tche de rsolution des problmes Pour un iSCSI logiciel, vrifiez la configuration du rseau. Ranalysez votre initiateur iSCSI. Description L'initiateur iSCSI logiciel dans ESX/ESXi ncessite qu'un port rseau VMware ait accs au stockage iSCSI. L'initiateur logiciel utilise le VMkernel pour le transfert des donnes entre le systme ESX/ESXi et le stockage iSCSI. Ranalysez chaque fois que vous aurez achev les tches suivantes : n Cration de nouveaux LUN sur un SAN n Changer le masquage d'un LUN sur un systme de stockage hte ESX/ESXi. n Reconnecter un cble n Modifier un hte dans un cluster. n Modifier les paramtres CHAP ou ajouter de nouvelles adresses dcouvrir.

Actualisation de la banque de donnes et oprations de ranalyse du stockage


L'opration d'actualisation de la banque de donnes met niveau les listes de la banque de donnes et les informations de stockage, comme la capacit de la banque de donnes, affiches dans vSphere Client. Lorsque vous effectuez des tches de gestion de la banque de donnes ou que vous modifiez la configuration SAN, il se peut que vous deviez ranalyser le stockage. Lorsque vous effectuez des oprations de gestion de la banque de donnes VMFS, comme la cration d'une banque de donnes VMFS ou d'un RDM, l'ajout d'une extension et l'augmentation ou la suppression d'une banque de donnes VMFS, votre hte ou le vCenter Server ranalyse automatiquement le stockage et le met niveau. Vous pouvez mettre hors tension la fonction de ranalyse automatique en dsactivant le filtre de ranalyse de l'hte. Reportez-vous Dsactiver les filtres de stockage vCenter Server , page 79. Dans certains cas, vous devez effectuer une ranalyse manuel. Vous pouvez ranalyser tous les stockages disponibles sur votre hte ou, si vous utilisez le vCenter Server, sur tous les htes d'un dossier, d'un cluster et d'un centre de donnes. Si les modifications que vous apportez ne concernent que le stockage connect un adapteur spcifique, effectuez une ranalyse pour cette carte. Effectuez la ranalyse manuelle chaque fois que vous apportez les modifications suivantes.
n n n n n n

Cration de nouveaux LUN sur un SAN. Modification du masquage de chemin sur un hte. Reconnecter un cble Modification des paramtres CHAP Ajout ou suppression de la dtection ou des adresses statiques. Ajout d'un seul hte dans le vCenter Server aprs la modification ou la suppression du vCenter Server d'une banque de donnes partage par les htes du vCenter Server et un seul hte.

IMPORTANT Si vous ranalysez quand un chemin n'est pas disponible, l'hte le supprime de la liste de chemins sur le priphrique. Ce chemin rapparat dans la liste ds qu'il devient disponible et recommence fonctionner.

VMware, Inc.

77

Guide de configuration iSCSI SAN

Rescanner le stockage
Lorsque vous apportez des modifications la configuration de votre SAN, vous pouvez avoir besoin de ranalyser votre stockage. Vous pouvez ranalyser tout le stockage disponible de votre hte. Si les modifications que vous apportez ne concernent que le stockage accessible par un adaptateur spcifique, effectuez une ranalyse seulement pour cet adaptateur. Appliquez cette procdure si vous voulez limiter la ranalyse au stockage disponible pour un hte particulier ou un hte auquel on accde par un adaptateur particulier. Si vous voulez ranalyser le stockage disponible tous les htes grs par votre systme vCenter Server, vous pouvez le faire en cliquant avec le bouton droit sur un centre de donnes, un cluster ou un dossier qui contient les htes et en slectionnant [ranalyse banques de donnes] . Procdure 1 2 Dans vSphere Client, slectionnez un hte et cliquez sur l'onglet [Configuration] . Dans le panneau Matriel, slectionnez [Adaptateurs de stockage] , et cliquez sur [ranalyse] au-dessus du panneau Adaptateurs de stockage. Vous pouvez galement cliquer avec le bouton droit sur un adaptateur individuel et cliquer sur [Ranalyser] pour ne ranalyser que cet adaptateur. IMPORTANT Sur ESXi, il n'est pas possible de ne ranalyser qu'un seul adaptateur de stockage. Si vous ranalysez un seul adaptateur, tous les adaptateurs sont ranalyss. 3 Pour dtecter les nouveaux disques ou LUN, cochez [Analyser nouveau priphrique stockage] . Si de nouveaux LUN sont dcouverts, ils apparaissent dans la liste de priphriques. 4 Pour dtecter les nouvelles banque de donnes ou mettre niveau une banque de donnes aprs que sa configuration a t modifie, cochez [Analyser nouveaux volumes VMFS] . Si de nouvelles banques de donnes ou de nouveaux volumes VMFS sont dcouverts, ils apparaissent dans la liste de banque de donnes.

Modification du nombre de LUN analyss


Par dfaut, VMkernel analyse pour chaque cible les LUN allant de LUN 0 LUN 255 (soit un total de 256 LUN). Vous pouvez modifier le paramtre [Disk.MaxLUN] pour acclrer la dtection de LUN. IMPORTANT Vous ne pouvez pas effectuer de reconnaissance de LUN avec un nombre d'ID de LUN suprieur 255. Si vous diminuez cette valeur, cela permet de raccourcir la dure de ranalyse et d'amorage. Toutefois, la dure de ranalyse de LUN peut dpendre de plusieurs facteurs (type de baie de stockage, prise en charge ou non des LUN clairsems). Procdure 1 2 3 4 Dans le panneau d'inventaire de vSphere Client, slectionnez l'hte, puis cliquez sur l'onglet [Configuration] ; ensuite, cliquez sur [Paramtres avancs] dans logicielle. Slectionnez [Disque] . Recherchez [Disk.MaxLUN] . Modifiez sa valeur selon vos besoins, puis cliquez sur [OK] . La valeur que vous spcifiez est celle du LUN suivant le dernier LUN reconnatre. Par exemple, pour effectuer la reconnaissance des LUN 0 31, affectez [Disk.MaxLUN] la valeur 32.

78

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Dsactivation de la prise en charge des LUN clairsems


Vous pouvez mettre hors tension la prise en charge par dfaut des LUN clairsems pour diminuer la dure d'analyse des LUN effectue par ESX/ESXi. Par dfaut, VMkernel prend en charge les LUN clairsems. La prise en charge des LUN clairsems permet VMkernel d'effectuer une analyse de LUN ininterrompue lorsqu'un systme de stockage contient des LUN numrots par ordre non squentiel (0, 6 et 23, par exemple). Mais si tous les LUN de votre systme de stockage figurent en ordre squentiel, vous pouvez mettre hors tension la prise en charge des LUN clairsems. Procdure 1 2 3 Dans le panneau d'inventaire de vSphere Client, slectionnez l'hte, puis cliquez sur l'onglet [Configuration] ; ensuite, cliquez sur [Paramtres avancs] dans Logiciel. Dans la bote de dialogue paramtres avancs, slectionnez [Disque] . Recherchez [Disk.SupportSparseLUN] dans la liste, puis entrez la valeur 0 et cliquez sur [OK] .

Dsactiver les filtres de stockage vCenter Server


Lorsque vous effectuez des oprations de gestion de banque de donnes VMFS, vCenter Server utilise des filtres de stockage par dfaut. Les filtres vous aident viter une corruption du stockage en extrayant uniquement les priphriques de stockage, ou LUN, pouvant tre utiliss pour une opration particulire. Les LUN non conformes ne sont pas affichs pour la slection. Vous pouvez mettre hors tension les filtres pour afficher tous les LUN. Avant d'apporter des modifications aux filtres des LUN, contactez l'quipe de support de VMware. Vous pouvez mettre hors tension les filtres uniquement si vous avez d'autres moyens d'empcher une corruption des LUN. Procdure 1 2 3 Dans vSphere Client, slectionnez [Administration] > [Paramtres vCenter Server] . Dans la liste des paramtres, slectionnez [Paramtres avancs] . Dans la zone de texte [Touche] , entrez une cl.
Touche config.vpxd.filter.vmfsFilter config.vpxd.filter.rdmFilter config.vpxd.filter.SameHostAndTra nsportsFilter config.vpxd.filter.hostRescanFilter Nom du filtre Filtre VMFS Filtre RDM Filtre d'hte et de transports identique Filtre de ranalyse d'hte REMARQUE Si vous dsactivez le filtre de ranalyse de l'hte, vos htes continuent d'excuter une ranalyse chaque fois que vous prsentez un nouveau LUN un hte ou un cluster.

4 5 6

Dans la zone de texte [Valeur] , tapez Faux pour la cl spcifie. Cliquez sur [Ajouter] . Cliquez sur [OK] . Vous n'avez pas besoin de redmarrer le systme vCenter Server.

VMware, Inc.

79

Guide de configuration iSCSI SAN

Filtrage du stockage de vCenter Server


vCenter Server fournit des filtres de stockage pour vous aider viter la corruption des priphriques de stockage ou des dgrations de performances pouvant tre provoques par une utilisation non prise en charge des LUN. Ces filtres sont disponibles par dfaut. Tableau 5-5. Filtres de stockage
Nom du filtre Filtre VMFS Description limine les priphriques de stockage, ou LUN, qui sont dj utiliss par une banque de donnes VMFS ou un hte gr par vCenter Server. Les LUN ne s'affichent pas comme des candidats au formatage avec une autre banque de donnes VMFS ou pour une utilisation en tant que RDM. limine les LUN dj rfrencs par un RDM sur un hte gr par vCenter Server. Les LUN ne s'affichent pas comme des candidats au formatage avec VMFS ou pour une utilisation par un RDM diffrent. Si vos machines virtuelles doivent accder au mme LUN, celles-ci doivent partager le mme fichier de mappage RDM. Pour plus d'informations sur ce type de configuration, voir Configuration d'un cluster de basculement et du service de cluster de Microsoft. limine les LUN inligibles pour une utilisation comme extensions de banque de donnes VMFS en raison d'incompatibili d'hte ou de stockage. Vous empche d'ajouter les LUN suivants comme extensions : n LUN non exposs tous les htes qui partagent la banque de donnes VMFS d'origine. n LUN utilisant un type de stockage diffrent de celui utilis par la banque de donnes d'origine. Par exemple, vous ne pouvez pas ajouter une extension Fibre Channel une banque de donnes VMFS sur un priphrique de stockage local. Ranalyse automatiquement et met niveau les banque de donnes VMFS aprs que vous avez effectu des oprations de gestion de banque de donnes. Ce filtre aide fournir une vue cohrente de toutes les banque de donnes VMFS sur tous les htes grs par vCenter Server. REMARQUE Si vous prsentez un nouveau LUN un hte ou un cluster, les htes excutent automatiquement une ranalyse que le filtre de ranalyse d'hte soit activ ou non. Touche config.vpxd.filter.vmfsFilter

Filtre RDM

config.vpxd.filter.rdmFilter

Filtre d'hte identique et de transports

config.vpxd.filter.SameHostAndTransportsFilter

Filtre de ranalyse d'hte

config.vpxd.filter.hostRescanFilter

Analyse et rclamation des chemins


Lorsque vous dmarrez votre hte ESX/ESXi ou ranalysez votre adaptateur de stockage, l'hte dcouvre tous les chemins physiques aux priphriques de stockage disponibles sur l'hte. En se basant sur un ensemble de rgles de rclamation dfinies dans le fichier /etc/vmware/esx.conf, l'hte dtermine quel plug-in multichemin (MPP) doit rclamer les chemins un priphrique particulier et devenir responsable de la gestion de cette prise en charge multichemin pour ce priphrique. Par dfaut, l'hte effectue une valuation priodique des chemins toutes les 5 minutes, faisant rclamer par le PPP appropri tous les chemins non rclams.

80

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Les rgles de rclamation sont numrotes. Pour chaque chemin physique, l'hte parcourt les rgles de rclamation en commenant par le plus petit nombre. Les attributs du chemin physique sont compars la spcification de chemin dans la rgle de rclamation. S'il trouve une correspondance, l'hte assigne le MPP spcifi dans la rgle de rclamation pour l'administration du chemin physique. Ce processus continue jusqu' ce que tous les chemins physiques soient rclams par les MPP correspondants, soit des plug-ins multichemin tiers, soit le plug-in multichemin natif (NMP). Pour en savoir plus sur les plug-ins multichemin, reportez-vous Gestion des chemins multiples , page 21. Pour les chemins administrs par le module NMP, un second ensemble de rgles s'applique. Ces rgles dterminent quel Storage Array Type Plug-In (SATP) doit tre utilis pour grer les chemins pour un type spcifique de baie et quel Path Selection Plug-In (PSP) doit tre utilis pour chaque priphrique de stockage. Par exemple, pour un priphrique de stockage qui appartient la famille de stockage EMC ClARiiON CX et n'est pas configur comme matriel ALUA, le SATP par dfaut est VMW_SATP_CX et le PSP par dfaut est le plus rcemment utilis (Most Recently Used). Utilisez le vSphere Client pour affciher le SATP et le PSP que l'hte utilise pour un priphrique de stockage spcifique et le statut de tous les chemins disponibles pour ce priphrique de stockage. Au besoin, vous pouvez modifier le PSP VMware par dfaut grce au vSphere Client. Pour modifier le SATP par dfaut, vous devez diter les rgles de rclamation dans vSphere CLI. Vous pourrez trouver quelques informations sur la modification des rgles de rclamation dans Gestion des chemins de stockage et des plug-ins multichemin , page 107. Pour plus d'informations sur les commandes disponibles pour grer PSA, consultez le Guide d'installation et de script de l'interface de ligne de commande de vSphere et la Rfrence de l'interface de ligne de commande vSphere.

Affichage des informations sur les chemins


Utilisez le vSphere Client pour afficher le SATP et le PSP que l'hte ESX/ESXi utilise pour un support de stockage spcifique et le statut de tous les chemins disponibles pour ce priphrique de stockage. Vous pouvez accder aux informations sur les chemins la fois dans les fentres banque de donnes et Priphriques. Pour les banque de donnes, vous consultez les chemins connects au priphrique hbergeant la banque de donnes. Les informations du chemin comprennent le SATP assign pour administrer le priphrique, la politique de slection de chemins (PSP), et une liste de chemins avec leurs caractristiques physiques, comme l'adaptateur et la cible utiliss, et le statut de chaque chemin. Les informations de statut du chemin suivantes peuvent s'afficher : Active Les chemins disponibles pour E/S avec un LUN. Un ou plusieurs chemins actifs en cours d'utilisation pour le transfert de donnes sont marqus comme Actifs (E/S). REMARQUE Pour les htes faisant tourner ESX/ESXi 3.5 ou plus anciens, le terme "Actif" dsigne le chemin unique que l'hte utilise pour E/S avec un LUN. Veille Dsactiv Mort Le chemin est oprationnel et peut tre utilis pour E/S si les chamins actifs tombent en panne. Le chemin est dsactiv et aucune donne ne peut tre transfre. Le logiciel ne peut joindre le disque par ce chemin.

Si vous utilisez la politique de chemin [Fixe] , vous pouvez voir quel est le chemin prfr. Le chemin prfr est marqu par une astrisque (*) dans la colonne Prfr.

VMware, Inc.

81

Guide de configuration iSCSI SAN

Affichage des chemins d'accs aux banque de donnes


Utilisez vSphere Client pour examiner les chemins qui connectent les banque de donnes aux priphriques de stockage qui y sont dploys. Procdure 1 2 3 4 Ouvrez une session sur vSphere Client et slectionnez un serveur dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Cliquez sur [banque de donnes] dans Vue. Dans la liste des banque de donnes configures, slectionnez le datastore dont vous voulez afficher ou configurer les chemins. Le volet Dtails indique le nombre total de chemins pouvant accder au priphrique et si l'un d'eux est cass ou dsactiv. 5 Cliquez sur [Proprits] > [Grer les chemins] pour ouvrir la bote de dialogue Grer les chemins. Vous pouvez utiliser la bote de dialogue Grer les chemins pour activer ou mettre hors tension vos chemins, dfinir des rgles de chemins multiples et spcifier le chemin prfr.

Affichage des chemins d'accs aux priphriques de stockage


Utilisez vSphere Client pour afficher quel SATP et PSP est utilis par l'hte pour un priphrique de stockage spcifique, et l'tat de tous les chemins disponibles pour ce priphrique de stockage. Procdure 1 2 3 4 Ouvrez une session sur vSphere Client et slectionnez un serveur dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Cliquez sur [Priphriques] dans Vue. Cliquez sur [Grer les chemins] pour ouvrir la bote de dialogue Grer les chemins.

Dfinition d'une rgle de slection de chemin


Pour chaque priphrique de stockage, l'hte ESX/ESXi dfinit la rgle de slection de chemin d'accs base sur les rgles de rclamation dfinies dans le fichier /etc/vmware/esx.conf. Par dfaut, VMware prend en charge les rgles de slection de chemin d'accs suivantes. Si un PSP tiers est install sur votre hte, sa rgle figure aussi dans la liste. Fixe (VMW_PSP_FIXED) L'hte utilise toujours le chemin d'accs prfr au disque quand ce chemin d'accs est disponible. Si l'hte ne peut pas accder au disque par le chemin d'accs prfr, il essaye les autres chemins d'accs. La rgle par dfaut pour les priphriques de stockage actifs-actifs est Fixe. tend la fonctionnalit Fixe aux baies actives/passives et de mode ALUA.

AP fixe (VMW_PSP_FIXED_AP)

82

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Dernire utilisation (VMW_PSP_MRU)

L'hte slectionne le chemin d'accs qui a t utilis rcemment. Quand le chemin d'accs devient non disponible, l'hte slectionne un autre chemin d'accs. L'hte ne retourne pas au chemin d'accs d'origine quand ce chemin d'accs devient de nouveau disponible. Il n'y a aucun paramtre de chemin d'accs prfr avec la rgle MRU. MRU est la rgle par dfaut pour les priphriques de stockage actifs-passifs. L'hte utilise un algorithme de slection automatique de chemin d'accs qui effectue une permutation circulaire sur tous les chemins d'accs actifs lors de la connexion des baies actives/passives ou sur tous les chemins d'accs disponibles lors de la connexion des baies actives/actives. Cette option met en uvre l'quilibrage de charge sur tous les chemins d'accs physiques disponibles pour l'hte. L'quilibrage de charge est le processus de distribution des requtes d'E/S sur les chemins d'accs. Le but est d'optimiser les performances en termes de dbit (E/S par seconde, mgaoctets par seconde ou temps de rponse).

Round Robin (VMW_PSP_RR)

Tableau 5-6 rsume les changements de comportement de l'hte en fonction du type de baie et des rgles de basculement. Tableau 5-6. Effets de la rgle de chemin d'accs
Rgle/Carte Most Recently Used Active/Active L'intervention de l'administrateur est requise pour la restauration suite une dfaillance sur un chemin d'accs. VMkernel reprend en utilisant le chemin d'accs prfr lorsque la connectivit est restaure. Active/Passive L'intervention de l'administrateur est requise pour la restauration suite une dfaillance sur un chemin d'accs. VMkernel tente de reprendre en utilisant le chemin d'accs prfr. Cela peut provoquer l'annulation ou la dfaillance du chemin d'accs si un autre SP possde maintenant le LUN. Le chemin d'accs suivant dans la planification Round Robin est slectionn.

Fixe

Round Robin AP fixe

Pas de restauration.

Pour les baies ALUA, VMkernel choisit le chemin d'accs dfini comme chemin d'accs prfr. Pour les baies A/A, A/P et ALUA, VMkernel reprend en utilisant le chemins d'accs prfr, mais uniquement si l'algorithme vitant l'annulation des chemins d'accs autorise la restauration.

VMware, Inc.

83

Guide de configuration iSCSI SAN

Modification de la rgle de slection de chemin d'accs


Gnralement, vous ne devez pas changer les paramtres multivoie par dfaut que votre hte utilise pour un priphrique de stockage spcifique. Cependant, si vous voulez faire des modifications, vous pouvez utiliser la bote de dialogue Grer Chemins d'accs pour modifier une rgle de slection de chemin d'accs et spcifier le chemin par dfaut comme rgle Fixe. Procdure 1 2 Ouvrez la bote de dialogue Grer les chemins depuis la vue banque de donnes ou Priphriques. Slectionnez une rgle de slection de chemin d'accs. Par dfaut, VMware prend en charge les rgles de slection de chemin d'accs suivantes. Si un PSP tiers est install sur votre hte, sa rgle figure aussi dans la liste.
n n n n

[Fixe (VMW_PSP_FIXED)] [AP fixe (VMW_PSP_FIXED_AP)] [Dernire utilisation (VMW_PSP_MRU)] [Round Robin (VMW_PSP_RR)]

3 4

Pour la rgle fixe, spcifiez un chemin d'accs en cliquant avec le bouton droit de la souris sur le chemin considrer comme votre chemin prfr, et slectionnez [Prfr] . Cliquez sur [OK] pour sauvegarder vos paramtres et quitter la bote de dialogue.

Dsactiver des chemins


Vous pouvez mettre hors tension temporairement certains chemins d'accs, pour des raisons de maintenance notamment. Pour cela, vous pouvez utiliser vSphere Client. Procdure 1 2 3 Ouvrez la bote de dialogue Grer les chemins depuis la vue banque de donnes ou Priphriques. Dans le panneau Paths, cliquez avec le bouton droit sur le chemin d'accs mettre hors tension, puis slectionnez [Dsactiver] . Cliquez sur [OK] pour sauvegarder vos paramtres et quitter la bote de dialogue.

Vous pouvez galement dsactiver un chemin partir de la vue Chemins de l'adaptateur : dans la liste, cliquez sur le chemin l'aide du bouton droit de la souris, puis slectionnez [Dsactiver] .

Administration de chemins et quilibrage manuel ou statique des charges


L'quilibrage des charges parmi les chemins disponibles amliore les performances. Si votre baie prend en charge le protocole ALUA, votre hte utilisera ce protocole pour effectuer l'quilibrage des charges. Si votre baie ne prend en charge pas le protocole ALUA at que vous souhaitez que votre hte effectue un quilibrage de charge automatique, configurez vos priphriques de faon utiliser le PSP Round Robin. Si vous voulez effectuer l'quilibrage des charges vous-mme, vous pourrez le faire manuellement. Avec les baies de stockage actives/actives et actives/passives, vous pouvez configurer votre hte pour qu'il utilise des chemins diffrents vers des LUN diffrents afin que vos cartes soient utilises de manire gale. Si un chemin tombe en panne, les chemins restants se chargent de la totalit du trafic. Le basculement de chemin prend une minute ou plus, du fait que le SAN peut converger avec une nouvelle topologie afin de restaurer le service. Ce dlai est ncessaire pour permettre au SAN de stabiliser sa configuration aprs les changements de topologie. Vous pouvez configurer votre hte ESX/ESXi pour qu'il quilibre le trafic sur de multiples adaptateurs en assignant des chemins prfrs vers vos LUN. La politique de chemin doit tre rgle sur Fixe.

84

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

L'exemple suivant illustre comment effectuer un quilibrage de charge manuel avec une baie active/active. En supposant l'installation montre dans Figure 5-1.
n n n

SPs actifs/actifs Un systme ESX/ESXi Deux HBAs iSCSI


ESX/ESXi HBA1 HBA2

Figure 5-1. Equlibrage manuel des charges avec iSCSI

Mise en rseau IP

SP1

SP2

baie de stockage

Pour l'quilibrage des charges, spcifiez les chemins prfrs comme suit.
n n n n

For LUN 1: HBA1-SP1-LUN1 For LUN 2: HBA2-SP1-LUN2 For LUN 3: HBA1-SP2-LUN3 For LUN 4: HBA2-SP2-LUN4

Avec les baies actives/passives, vous pouvez effectuer un quilibrage de charge si la baie prend en charge deux chemins actifs et que les ports HBA peuvent accder aux deux SP dans une baie. Vous pouvez utiliser les politiques de slection de chemin VMW_PSP_FIXED_AP pour arriver un quilibrage de charge statique sur les baies actives/passives.

Dfinition du dlai d'expiration du systme d'exploitation invit


Augmentez les valeurs standard de dlai d'expiration de disque pour que le systme d'exploitation Windows invit ne soit pas excessivement interrompu pendant le basculement d'un chemin. Les basculements de chemin se produisent lorsque le chemin actif vers un LUN est chang pour un autre chemin, habituellement cause d'une panne de certains composants SAN sur le chemin en cours. E/S doivent s'arrter pour 30 60 secondes jusqu' ce que le pilote iSCSI dtermine que le lien n'est pas disponible et jusqu' ce que le basculement soit termin. Par consquent, les machines virtuelles (avec leurs disques virtuels installs sur un stockage SAN) peuvent apparatre comme ne rpondant plus. Si vous essayez d'afficher l'hte, ses priphriques de stockage ou ses adaptateurs, le fonctionnement peut apparatre fig. Lorsque le basculement est termin, l'E/S reprend normalement. En cas de ruptures multiples, toutes les connexions des priphriques de stockage SAN seront perdues. Si aucune des connexions au priphrique de stockage ne fonctionne, certaines machines virtuelles peuvent rencontrer des erreurs d'E/S sur leurs disques SCSI virtuels. Pour des systmes d'exploitation Windows 2000 et Windows Server 2003, vous pouvez dfinir le dlai d'expiration systme en fusionnant le registre.

VMware, Inc.

85

Guide de configuration iSCSI SAN

Procdure 1 2 3 4 5 Faites une sauvegarde de votre registre. Slectionnez [Dmarrer] > [Excuter] . partir de l'invite de commande, saisissez regedit.exe, et cliquez sur [OK] . Dans la vue hirarchique du volet de gauche, faites un double clic sur [HKEY_LOCAL_MACHINE] , puis sur [Systme] , puis sur [CurrentControlSet] , puis sur [Services] , et sur [Disque] . Slectionnez [TimeOutValue] et dfinissez la valeur de la donne x03c (hexadcimal) or 60 (dcimal). Aprs avoir effectu cette modification, Windows attend au moins 60 secondes pour que les oprations de disque puissent se terminer avant de gnrer des erreurs. 6 Cliquez sur [OK] pour quitter [diteur du Registre] .

Partage de partitions de diagnostic


En gnral, le disque dur local de l'hte ESX/ESXi est utilis comme partition de diagnostic. En cas d'utilisation de serveurs ESX sans disque qui dmarre partir d'un SAN, plusieurs htes peuvent partager une partition de diagnostic sur le mme SAN LUN. Si plusieurs systmes ESX/ESXi utilisent le mme LUN comme partition de diagnostic, ce LUN doit tre rparti en zones de faon ce que tous les serveurs puissent y accder. Chaque serveur ncessite 100 Mo d'espace, de sorte que la taille du LUN dtermine le nombre de serveurs pouvant le partager. Chaque systme ESX/ESXi est mapp sur un slot de diagnostic. VMware recommande au moins 16 slots (1 600 Mo) d'espace disque si les serveurs partagent une partition de diagnostic. S'il n'y a qu'un seul slot de diagnostic sur le priphrique, tous les systmes ESX/ESXi qui partagent ce priphrique sont mapps sur le mme slot. Cette configuration peut facilement crer des problmes. Si deux systmes ESX/ESXi excutent un vidage mmoire au mme moment, les vidages mmoire sont remplacs dans la partition de diagnostic.

Prvention et rsolution des problmes de SAN


Lorsque vous utilisez ESX/ESXi en conjonction avec un SAN, vous devez suivre des directives spcifiques afin d'viter des problmes de SAN. Vous devriez observer ces conseils, afin d'viter et de rsoudre des problmes dans votre configuration SAN.
n

Placez une seule banque de donnes VMFS sur chaque LUN. Avoir plusieurs banques de donnes VMFS sur un seul LUN n'est pas recommand. Ne changez pas la politique de chemin que le systme dfinit, sauf si vous comprenez les implications de tels changements. Documentez tout ce que vous faites. Incluez des informations sur la configuration, le contrle d'accs, le stockage, le commutateur, le serveur et la configuration HBA iSCSI, les versions de logiciel et microprogramme, et le plan des cbles de stockage. Plan en cas de panne :
n

Fates plusieurs copies de vos mappages topologiques. Pour chaque lment, envisagez les consquences sur votre SAN si cet lment tombe en panne. Rayez chaque lien, commutateurs, HBA et autres lments pour vrifier que vous n'avez omis aucun point de panne critique dans votre architecture.

Assurez-vous que les HBAs iSCSI sont installs dans les slots corrects de l'hte ESX/ESXI, selon la vitesse du slot et du bus. Equilibrez la charge de bus PCI entre les divers bus du serveur.

86

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Familiarisez-vous avec les diffrents points de contrle de votre rseau de stockage, sur tous les points de visibilit, y compris les graphiques de performance ESX/ESXi, des commutateurs ethernet, et des performances de stockage. Soyez prudent lorsque vous modifiez les IDs des LUN qui prennent en charge des banques de donnes en cours d'utilisation par votre hte ESX/ESXi. Si vous modifiez les ID, ces machines virtuelles en fonction sur les banque de donnes VMFS tomberont en panne. Si aucune machine virtuelle ne se trouve en fonction sur la banque de donnes VMFS, aprs avoir modifi l'ID du LUN vous devez ranalyser pour rinitialiser l'ID de votre hte. Pour plus d'informations sur la fonction ranalyse, consultez Rescanner le stockage , page 78.

Optimisation des performances du stockage SAN


Plusieurs facteurs contribuent l'optimisation d'un environnement SAN classique. Si l'environnement de rseau est correctement configur, les composants iSCSI fournissent un dbit adquat et une latence suffisamment basse pour les initiateurs et les cibles iSCSI. Si le rseau est congestionn et que les liens, commutateurs et routeurs sont saturs, la performance iSCSI en souffre et peut ne plus convenir un environnement ESX/ESXi.

Performances des systmes de stockage


Les performances des systmes de stockage sont l'un des principaux facteurs contribuant aux performances de la totalit de l'environnement iSCSI. En cas de problme de performances des systmes de stockage, consultez la documentation de votre diteur de systmes de stockage. Lors de l'attribution des LUN, souvenez-vous que chaque LUN partag est accessible par plusieurs htes ESX/ ESXi et que plusieurs machines virtuelles peuvent excuter sur chaque hte. Un LUN utilis par un hte ESX/ ESXi peut servir des E/S provenant d'applications trs varies et excutes sur diffrents systmes d'exploitation. En raison de ces charges de travail trs varies, le groupes RAID contenant les LUN ESX/ESXi ne doit pas inclure de LUN utiliss par d'autres htes qui n'excutent pas d'ESX/ESXi pour des applications fortes E/S. Activez le cache de lecture et le cache d'criture. L'quilibrage de charge est le processus distribution des requtes d'E/S serveur sur tous les SP disponibles et les chemins d'accs au serveur d'hte associ. Le but est d'optimiser les performances en termes de dbit (E/S par seconde, mga-octets par seconde ou temps de rponse). Les systmes de stockage SAN ncessitent des modifications et des ajustements permanents pour s'assurer que les charges d'E/S sont rparties sur tous les chemins d'accs des systmes de stockage. Pour rpondre cette exigence, rpartissez les chemins d'accs vers les LUN entre tous les SP pour assurer un quilibrage de charge optimal. Une surveillance attentive permet de savoir quand il est ncessaire de rquilibrer manuellement la rpartition des LUN. L'ajustement des systmes de stockage quilibres de manire statique implique la surveillance de statistiques de performance spcifiques (nombre d'oprations d'entre-sortie par seconde, blocs par seconde et temps de rponse) et la rpartition de la charge de travail des LUN pour rpartir la charge de travail sur tous les SP. REMARQUE L'quilibrage de charge dynamique n'est pas pris en charge actuellement avec ESX/ESXi.

VMware, Inc.

87

Guide de configuration iSCSI SAN

Performances des serveurs


Vous devez tenir compte de diffrents facteurs pour garantir des performances optimales des serveurs. Chaque application de serveur doit avoir accs son stockage dsign aux conditions suivantes :
n n n

Vitesse d'E/S leve (nombre d'oprations d'entre-sortie par seconde) Rendement lev (mgaoctets par seconde) Latence minimale (temps de rponse)

Comme chaque application a diffrentes exigences, ces objectifs peuvent tre remplis en choisissant un groupes RAID appropri sur le systme de stockage. Pour atteindre les objectifs de performance, effectuez les tches suivantes :
n

Placez chaque LUN sur un groupes RAID qui offre les niveaux de performance ncessaires. Faites attention aux activits et l'utilisation des ressources d'autres LUN dans le groupes RAID associ. Un groupes RAID haute performance ayant un nombre excessif d'applications effectuant des E/S risque de ne pas satisfaire aux exigences de performance requises par une application excute sur l'hte ESX/ESXi. Prvoyez un nombre suffisant de cartes rseau ou de cartes iSCSI matrielles pour autoriser un dbit maximum pour toutes les applications hberges sur le serveur pendant la priode de pointe. Une entre/ sortie rpartie sur plusieurs ports prsente un dbit suprieur et moins de latence pour chaque application. Pour assurer la redondance d'iSCSI logiciel, vrifiez que l'initiateur est connect tous les adaptateurs rseau utiliss pour la connectivit iSCSI. Lors de l'allocation de groupes LUN ou RAID aux systmes ESX/ESXi, plusieurs systmes d'exploitation utilisent et partagent cette ressource. Par consquent, les performances requises de la part de chaque LUN du sous-systme de stockage peuvent tre nettement suprieures en cas d'utilisation de systmes ESX/ ESXi qu'avec des machines physiques. Par exemple, si vous pensez exploiter quatre applications fortes E/S, allouez quatre fois les capacits de performance aux LUN ESX/ESXi. En cas d'utilisation de plusieurs systmes ESX/ESXi avec vCenter Server, les performances requises pour le sous-systme de stockage augmentent en consquence. Le nombre d'E/S en attente requises par applications excutes sur un systme ESX/ESXi doit correspondre au nombre d'E/S pouvant tre traites par SAN.

Performances du rseau
Gnralement, un SAN consiste en un ensemble d'ordinateurs connects un ensemble de systmes de stockage par un rseau de commutateurs. Il arrive souvent que plusieurs ordinateurs accdent au mme stockage. Figure 5-2 montre plusieurs systmes informatiques connects un systme de stockage par un commutateur ethernet. Dans cette configuration, chaque systme est connect par un lien ethernet unique au commutateur, qui est galement connect au systme de stockage par un lien ethernet unique. Dans la plupart des configurations, avec des commutateurs modernes et un trafic classique, cela ne constitue pas un problme.

88

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Figure 5-2. Connexion au stockage par lien ethernet unique

Lorsque les systmes lisent les donnes du stockage, la rponse maximum du stockage consiste envoyer suffisamment de donnes pour remplir le lien entre les systmes de stockage et le swicth ethernet. Il est peu probable qu'un systme ou machine virtuelle seuls exploite totalement la vitesse du rseau, mais cependant cette situation peut survenir lorsque de nombreux systmes partage un mme priphrique de stockage. Lorsqu'ils crivent des donnes sur le stockage, des systmes ou machines virtuelles multiples peuvent tenter d'exploiter totalement la vitesse de leurs liens. Comme le montre Figure 5-3, lorsque cela survient le commutateur entre les systmes et le systme de stockage se trouve oblig d'abandonner des donnes. En effet, bien que sa connexion au systme de stockage soit unique, le commutateur a plus de trafic envoyer au systme de stockage qu'un seul lien peut en prend en charger. Dans ce cas, le commutateur abandonne des paquets rseau parce que la quantit de donnes qu'il peut transmettre est limite par la vitesse du lien entre lui et le systme de stockage. Figure 5-3. Paquets abandonns
1 Gbit 1 Gbit

1 Gbit paquets abandonns

La restauration de paquets rseau abandonns provoque une forte dtrioration des performances. En plus du temps pass dterminer quelles donnes ont t abandonnes, leur retransmission utilise la bande passante qui pourrait autrement servir aux transactions actuelles. Le trafic iSCSI est assur sur le rseau par le protocole de contrle de transmission TCP. TCP est un protocole de transmission fiable, qui veille ce que les paquets abandonns soient reprsents, et enfin atteignent leur destination. TCP est conu pour restaurer les paquets abandonns, et les retransmettre rapidement et sans coupure. Toutefois, lorsque le commutateur abandonne des paquets rgulirement, la performance rseau peut en souffrir nettement. Le rseau est alors congestionn par les requtes de rexpdition de donnes en plus des paquets renvoys, ce qui permet de transmettre moins de donnes que dans un rseau non congestionn. La plupart des commutateurs ethernet peuvent conserver en mmoire tampon ou stocker les donnes et attribuer chaque priphrique tentant d'envoyer des donnes une chance gale de joindre la destination. Cette capacit conserver en mmoire tampon certaines transmissions, combine avec plusieurs systmes limitant le nombre de commandes en suspend, permet de petites rafales de plusieurs systmes d'tre achemins leur tour vers un systme de stockage.

VMware, Inc.

89

Guide de configuration iSCSI SAN

Si les transactions sont volumineuses et que de nombreux serveurs tentent d'envoyer des donnes par un port de commutation unique, la capacit de ce commutateur conserver en mmoire tampon une requte pendant qu'il en traite une autre peut se retrouver dpasse. Dans un tel cas, le swicth abandonne les donnes qu'il ne peut pas envoyer, et le systme de stockage doit demander la retransmission du paquet abandonn. Par exemple, si un commutateur ethernet peut placer en tampon 32 ko sur un port d'entre, mais que le serveur auquel il est connect pense pourvoir en envoyer 256 Ko au priphrique de stockage, certaines donnes seront abandonnes. La plupart des commutateurs administrables fournissent des informations sur les paquets abandonns, qui ressemblent ceci :
*: interface is up IHQ: pkts in input hold queue OHQ: pkts in output hold queue RXBS: rx rate (bits/sec) TXBS: tx rate (bits/sec) TRTL: throttle count IQD: pkts dropped from input queue OQD: pkts dropped from output queue RXPS: rx rate (pkts/sec) TXPS: tx rate (pkts/sec)

Tableau 5-7. Exemple d'information du commutateur


Interface * GigabitEt hernet0/1 IHQ 3 IQD 9922 OHQ 0 OQD 0 RXBS 47630300 0 RXPS 62273 TXBS 47784000 0 TXPS 63677 TRTL 0

Dans cet exemple provenant d'un commutateur Cisco, la bande passante utilise est de 476303000 bits/seconde, moins de la moiti de la bande passante physique. Et malgr cela, le port plaait en mmoire tampon des paquets arrivant et en abandonnait un nombre certain. La ligne finale de ce rsum d'interface indique dans la colonne IQD que le port a dj abandonn presque 10 000 paquets arrivants. Pour vieter ce problme il est ncessaire de modifier la configuration en s'assurant que plusieurs liens ethernet arrivants ne se retrouve en goulot d'tranglement sur un seul lien sortant, provoquant une surcharge du lien trop abonn. Lorsqu'un certain nombre de liens transmettant quasi saturation sont redirigs vers un plus petit nombre de liens, le surabonnement devient possible. Gnralement, les applications ou systmes qui crivent beaucoup de donnes sur le stockage, tels que l'acquisition ou les systmes de journalisation des transactions, ne doivent pas partager le mme lien vers le priphrique de stockage. Ces types d'applications sont les plus efficaces avec des connexions multiples aux priphriques de stockage. Figure 5-4 montre des connexions multiples du switch au stockage. Figure 5-4. Connexions multiples du commutateur au stockage
1 Gbit 1 Gbit 1 Gbit 1 Gbit

L'utilisation de VLANs ou de VPNs n'apporte pas de solution adquate au problme du surabonnement des liens en configurations partages. Les VLANs et autres partitionnements virtuels d'un rseau fournissent une conception logique du rseau, mais ne modifient pas les capacits physiques des liens et des transmissions entre les commutateurs. Lorsque le trafic de stockage et autres trafics rseau partagent des connexions physiques, comme dans un VPN, la possibilit de surabonnement et de paquets perdus est relle. Cela est aussi vrai pour les VLANs qui partagent des transmissions interwitchs. La conception des performances pour un SAN doit prendre en compte les limitations physiques du rseau, pas les allocations logiques.

90

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Rsolution des problmes de performances


vSphere Client offre une gamme extensive de moyens pour collecter d'informations sur les performances. Les informations sont affiches de manire graphique dans vSphere Client. vSphere Client met niveau son affichage priodiquement. Vous pouvez aussi lancer la commande vSphere CLI resxtop pour examiner la faon dont les htes ESX/ESXi exploitent les ressources. Pour plus d'informations sur resxtop, consultez le Guide de gestion de ressources ou le Guide d'installation et de script de l'interface de ligne de commande de vSphere.

Consultation des statistiques des commutateurs Ethernet


Souvent les commutateurs ethernet fournissent des moyens de surveiller leur bon fonctionnement. Les commutateurs dont certains ports oprent dbit maximal souvent n'assurent pas une performance optimale. Si vous avez des ports dans votre SAN iSCSI oprant presque au maximum, rduisez leur charge. Si le port est connect un systme ESX/ESXi ou un stockage iSCSI, vous pouvez rduire sa charge par quilibrage de charge manuel. Si le port est connect entre de nombreux commutateurs ou routeurs, pensez installer des liens supplmentaires entre ces composants afin de pouvoir grer une plus grande charge. Les commutateurs ethernet fournissent aussi frquemment des informations sur les erreurs de transmission, les paquets en file d'attente, et les paquets ethernet abandonns. Si le commutateur rapporte rgulirement de telles conditions pour les ports utiliss par le trafic iSCSI, la performance du SAN iSCSI sera rduite.

Rsolution de l'annulation de chemins d'accs


Si votre serveur ne peut accder un LUN, ou que l'accs est trs lent, il se peut que vous ayez un problme d'annulation de chemin, appel aussi crasement de LUN. Une annulation de chemin peut survenir lorsque deux htes accdent au LUN par diffrents SP, et qu'en consquence le LUN n'est jamais vraiment disponible. Seules certaines configurations SAN dans les conditions suivantes peuvent provoquer une annulation de chemin :
n

Vous travaillez avec une baie de stockage active-passive. L'annulation de chemin ne survient que sur les baiesactives/passives. Pour les baies actives/actives ou celles qui assurent un basculement transparent, l'annulation de chemin n'est pas possible. Deux htes accdent un mme LUN par diffrents processeurs de stockage (SPs). Cela peut se produire de deux faons.
n

Par exemple, le LUN est configur pour utilisation avec le PSP rgl sur Fixe. Sur l'hte A, le chemin prfr vers le LUN est rgl pour passer par SP A. Sur l'hte B, le chemin prfr vers le LUN est rgl pour passer par SP B. Une annulation de chemin peut aussi survenir si l'hte A ne peut accder au LUN qu'en utilisant des chemins par SP A, tandis que l'hte B ne peut accder au LUN qu'en utilisant des chemins par SP B.

Ce problme peut aussi survenir sur une baie directement connecte (comme une AX100) avec basculement de HBA sur un noeud ou plus. L'annulation de chemin est un problme qu'on ne rencontre pas habituellement dans les autres systmes d'exploitation. Aucun autre systme d'exploitation courant n'utilise de LUN partags pour plus de deux serveurs. Cette architecture est typiquement rserve au clustering. Si un seul serveur produit des E/S vers le LUN la fois, l'annulation de chemin ne constitue plus un problme. A l'inverse, des systmes ESX/ESXi multiples peuvent produire des E/S vers le mme LUN simultanment.

VMware, Inc.

91

Guide de configuration iSCSI SAN

Explication de l'annulation de chemins d'accs


Les SP d'une baie de stockage sont comparables des ordinateurs indpendants qui ont accs des stockages partags. Des algorithmes dterminent le traitement des accs simultans. Pour les baies actives/passives, un seul SP la fois peut accder tous les secteurs du stockage qui constituent un LUN donn. La proprit est transmise entre les processeurs de stockage. Les systmes de stockage utilisent des caches et SP A ne doit rien crire sur le disque qui invalide le cache SP B. Comme le SP doit purger le cache lorsqu'il termine l'opration, le dplacement de la proprit prend quelques instants. Pendant ce temps, aucun SP ne peut traiter les E/S du LUN. Pour les baies actives/actives, les algorithmes autorisent un accs prcis au stockage et synchronisent les caches. L'accs peut se produire de manire simultane via tout SP sans dlai supplmentaire. Examinons le fonctionnement de la slection des chemins d'accs :
n

Sur une baie active/active, le systme ESX/ESXi commence transmettre des E/S sur le nouveau chemin d'accs. Sur une baie active/passive, le systme ESX/ESXi vrifie tous les chemins d'accs en veille. Le SP du chemin d'accs en cours d'examen transmet des informations au systme pour indiquer s'il possde actuellement le LUN.
n

Si le systme ESX/ESXi trouve un SP qui possde le LUN, ce chemin d'accs est slectionn et les E/S sont transmises sur ce chemin d'accs. Si l'hte ESX/ESXi ne parvient pas trouver ce chemin d'accs, l'hte ESX/ESXi choisit l'un des chemins d'accs en veille et transmet une commande au SP de ce chemin d'accs pour dplacer la proprit LUN au SP.

L'annulation des chemins d'accs peut tre le rsultat du choix de chemins d'accs suivants : Si le serveur A peut uniquement atteindre un LUN via un SP et si le serveur B atteint uniquement le mme LUN via un SP diffrent, ils provoquent le dplacement permanent de la proprit entre les deux SP, ce qui correspond des allers-retours de la proprit du LUN. Comme le systme dplace rapidement la proprit, la baie de stockage ne peut pas traiter d'E/S (ou peut uniquement en traiter trs peu). Par consquent, tous les serveurs qui dpendent du LUN subissent des baisses de dbit en raison de la dure ncessaire l'excution de chaque requte d'E/S.

Rsolution d'une annulation de chemin


Utilisez cette procdure pour rsoudre une annulation de chemin. L'annulation de chemin se produit sur des baies actives/passives lorsque deux htes accdent au LUN par des SP diffrents, ce qui fait que le LUN n'est jamais actuellement disponible. Procdure 1 2 3 Vrifiez que tous les htes partageant le mme ensemble de LUN sur les baies actives/passives utilisent le mme processeur de stockage. Corrigez d'ventuelles incohrences de cblage ou de masquage entre les diffrents htes ESX/ESXi et les cibles SAN pour que tous les HBA voient les mmes cibles. Configurez le chemin pour qu'il utilise le PSP le plus rcemment utilis (celui par dfaut) ou VMW_PSP_FIXED_AP.

92

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

galisation de l'accs aux disques entre machines virtuelles


Dans vSphere Client, vous pouvez modifier le nombre maximum de requtes de disque en attente l'aide du paramtre Disk.SchedNumReqOutstanding. Lorsque deux machines virtuelles ou plus accdent au mme LUN, ce paramtre permet de contrler le nombre de requtes en attente que chaque machine virtuelle peut envoyer au LUN. L'ajustement de cette limite permet de rpartir de faon gale l'accs au disque entre les diffrentes machines virtuelles. Cette limite ne s'applique pas lorsqu'une seule machine virtuelle est active sur un LUN. Dans ce cas, la bande passante est limite par la profondeur de file d'attente de l'adaptateur de stockage. Procdure 1 2 3 4 Dans vSphere Client, slectionnez l'hte dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Paramtres avancs] dans Logiciel. Cliquez sur [Disque] dans le panneau de gauche, puis recherchez [Disk.SchedNumReqOutstanding] dans la liste. Modifiez sa valeur selon vos besoins, puis cliquez sur [OK] .

Cette modification peut avoir un impact sur la planification de bande passante, mais l'exprience a prouv les amliorations obtenues en cas de charges de travail impliquant une grande quantit de disque. Suivant Si vous rglez cette valeur dans VMkernel, vous pouvez galement rgler la profondeur de file d'attente de votre adaptateur de stockage.

Dfinition de la profondeur de file d'attente maximum pour iSCSI


Si vous remarquez des performances peu satisfaisantes sur les LUN de votre logiciel ISCSI, vous pouvez modifier la profondeur maximum de leur file d'attente l'aide de la commande vicfg-module. Procdure 1 Sur le CLI vSphere, excutez la commande suivante : module vicfg-s iscsivmk_LunQDepth=value iscsi_vmk Le paramtre iscsivmk_LunQDepth dfinit le nombre maximum de commandes en attente, ou la profondeur de file d'attente, pour chaque LUN accessible par l'adaptateur ISCSI logiciel. La valeur par dfaut est 128. 2 Redmarrez votre systme.

AVERTISSEMENT Dfinir une profondeur de file d'attente suprieure celle par dfaut peut diminuer le nombre total de LUN pris en charge.

Rduction des rservations SCSI


Les oprations ncessitant l'obtention d'un verrouillage de fichier ou un verrouillage de mtadonnes dans VMFS provoquent des rservations iSCSI dure de vie limite. Les rservations iSCSI verrouillent un LUN entier. Les rservations iSCSI excessives par un serveur peuvent causer une dgradation des performances sur d'autres serveurs accdant au mme VMFS. Exemples d'oprations ncessitant l'obtention d'un verrouillage de fichier ou de mtadonnes :
n n

Mise sous tension de la machine virtuelle. vMotion.

VMware, Inc.

93

Guide de configuration iSCSI SAN

n n

Machines virtuelles fonctionnant sur des snapshots de disques virtuels. Les oprations de fichiers qui ncessitent d'ouvrir les fichiers ou la mise niveau de leurs mtadonnes.

REMARQUE ESX/ESXi utilise le mcanisme de rservation SCSI seulement lorsqu'un LUN n'est pas compatible VAAI. Si un LUN est compatible VAAI et prend en charge l'acclration matrielle, ESX/ESXi utilise un test atomique et dfinit l'algorithme (ATS) pour verrouiller le LUN. Une dgradation des performances peut survenir si de telles oprations sont frquemment rptes sur de multiples serveurs accdant au mme VMFS. Par exemple, VMware recommande de ne pas lancer de nombreuses machines virtuelles depuis de multiples serveurs utilisant les snapshots de disque virtuel sur le mme VMFS. Limitez le nombre des oprations de fichiers VMFS lorsque de nombreuses machines tournent sur le VMFS.

Considrations sur la sauvegarde de stockage SAN


Dans un environnement SAN, les sauvegardes ont deux objectifs. Le premier objectif est d'archiver des donnes en ligne sur des supports hors ligne. Ce processus est rpt rgulirement pour toutes les donnes en ligne, selon un calendrier. Le second objectif est de fournir un accs aux donnes hors ligne pour une restauration en cas de problme. Par exemple, la restauration de bases de donne ncessite souvent la rcupration des fichiers de journalisation qui ne sont pas en ligne ce moment. La programmation des sauvegardes dpend de plusieurs facteurs :
n

L'identification des applications critiques ncessitant des cycles de sauvegarde plus rapprochs dans une priode donne. Les points de restauration et les objectifs de priode restaure. Dfinissez la prcison ncessaire de vos points de restauration, et la dure d'attente qui vous est permise. Le taux de changement (RoC) associ aux donnes. Par exemple, si vous utilisez une rplication synchrone/ asynchrone, le RoC affecte la quantit de bande passante requise entre les priphriques de stockage primaires et secondaires. L'impact global sur l'environnement SAN, les performances de stockage (lors de sauvegarde), et les autres applications. L'identification des horaires de pointe sur le SAN (les sauvegardes prvues pendant ces heures de pointe peuvent ralentir les aplications et le processus de sauvegarde). Le temps pass programmer toutes les sauvegardes dans la centre de donnes. Le temps pass sauvegarder une application spcifique. La disponibilit des ressources pour l'archivage des donnes, typiquement des supports hors ligne (cassettes).

n n n

Incluez un objectif de temps de restauration pour chaque application lorsque vous concevez votre stratgie de sauvegarde. C'est--dire que vous devez envisager le temps et les ressources ncessaires pour le rapprovisionnement des donnes. Par exemple, si une sauvegarde programme stocke tant de donnes que leur restauration cause un dlai considrable, rexaminez la programmation des sauvegardes. Vous pouvez effectuer des sauvagardes plus frquemment, de faon sauvagrder moins de donnes la fois, et diminuer ainsi le dlai de restauration. Si une application partciulire ncessite une restauration dans un dlai prcis, le processus de sauvegarde devra fournir un horaire et un traitement des donnes convenant ce dlai. Une restauration rapide peut exiger l'utilisation des volumes de sauvegarde dans le stockage en ligne afin de minimiser ou supprimer le besoin d'un accs des donnes hors ligne lentes pour des composants de donnes manquantes.

94

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Logiciel de snapshot
Le logiciel de snapshots permet un administrateur de crer une copie instantane d'un seul disque virtuel dfini dans le sous-systme des disques. Le logiciel de snapshot est disponible diffrents niveaux :
n

Les htes ESX/ESXi permettent de crer des snapshots des machines virtuelles. Ce logiciel est inclus dans le module ESX/ESXi de base. Les logiciels de sauvegarde tiers autorisent parfois des procdures de sauvegarde plus compltes et peuvent contenir des options de configuration avances.

Les administrateurs prennent des snapshots pour diffrentes raisons :


n n n n

sauvegarde Rcupration d'urgence Disponibilit de plusieurs configurations, versions ou les deux Lgistes (examen d'un instantan pour dcouvrir les causes de problmes en cours de fonctionnement du systme) Exploration de donnes (examen d'une copie des donnes pour rduire la charge de systmes de production)

Utilisation d'un module de sauvegarde tiers


L'utilisation d'un module de sauvegarde tiers prsente l'avantage de l'uniformit de l'environnement. Mais les cots supplmentaires engendrs par le logiciel de prise de snapshot tiers risquent d'augmenter au fil de la croissance du SAN. Si vous utilisez un logiciel de sauvegarde tiers, vrifiez qu'il est pris en charge par les htes ESX/ESXi. Si vous utilisez des snapshots pour sauvegarder vos donnes, tenez compte des remarques suivantes :
n

Certains fournisseurs autorisent les snapshots pour VMFS et RDM. Si les deux sont pris en charge, vous pouvez prendre un snapshot de tout le systme de fichiers de la machine virtuelle d'un hte ou des snapshots pour les diffrentes machines virtuelles (une par disque). Certains fournisseurs autorisent uniquement les snapshots pour une configuration utilisant RDM. Si seul le RDM est pris en charge, vous pouvez prendre des snapshots de diffrentes machines virtuelles.

Consultez la documentation de l'diteur du stockage. REMARQUE Les systmes ESX/ESXi incluent aussi un composant Consolidated Backup.

Applications par couches


Les administrateurs SAN utilisent souvent un logiciel spcial baies pour la sauvegarde, la reprise aprs sinistre, l'exploration de donnes, les examens juridiques et les tests de configuration. Les fournisseurs de stockage fournissent de faon classique deux types de services avancs pour leurs LUN : la capture et la rplication. Lorsque vous utilisez un systme ESX/ESXi en conjonction avec un SAN, vous devez dcider si les outils pour baies ou htes conviennent plus votre situation.

VMware, Inc.

95

Guide de configuration iSCSI SAN

Solution (tierce) base de baie


Lorsque vous utilisez un systme ESX/ESXi en conjonction avec un SAN, vous devez dcider si les outils pour baies conviennent plus votre situation. Lorsque vous envisagez une solution base de baie, gardez l'esprit les points suivants :
n

Les solutions base de baie permettent souvent des statistiques plus exhaustives. Avec RDM, les donnes prennent toujours le mmce chemin, ce qui facilite l'administration des performances. La scurit devient plus transparente pour l'administrateur de stockage lorsque vous utilisez un RDM et une solution base de baie, car avec RDM les machines virtuelles ressemblent plus des machines physiques. Si vous utilisez une solution base de baie, des RDM de compatibilit physique servent souvent de stockage pour des machines virtuelles. Si vous n'envisagez pas d'utiliser de RDM, consultez la documentation du fournisseur de stockage pour vrifier si les oprations sur des LUN avec volumes VMFS sont prises en charge. Si vous utilisez des oprations de baie sur des LUN VMFS, lisez attentivement la section sur la resignature.

Solution base sur les fichiers (VMFS)


Lorsque vous utilisez un systme ESX/ESXi en conjonction avec un SAN, vous devez dcider si les outils bass sur l'hte conviennent plus votre situation. Si vous envisagez une solution base de fichiers utilisant les outils VMware et VMFS au lieu des outils de baie, gardez l'esprit les points suivants.
n

L'utilisation des outils VMware et de VMFS est meilleure pour le provisionnement. Un grand LUN est allou, et de multiples fichiers .vmdk peuvent tre placs sur ce LUN. Avec RDM, un LUN diffrent est ncessaire pour chaque machine virtuelle. La prise de snapshot est comprise dans votre ESX/ESXi, sans cots supplmentaire La solution base de fichiers est donc plus conomiquement effciente que la solution base de baie. Utiliser VMFS est plus facile pour les administrateurs ESX/ESXi. Les administrateurs ESX/ESXI qui choisissent la solution base de fichiers deviennent plus indpendants de l'administrateur SAN.

n n

Administration des banques de donnes VMFS dupliques


Lorsqu'un LUN contient une copie de banque de donnes VMFS, vous pouvez monter la banque de donnes avec sa signature existante, ou lui assigner une nouvelle signature. Chaque banque de donnes VMFS cre dans un LUN a un UUID unique qui est stock dans le super-bloc de systme de fichiers. Lorsque le LUN est rpliqu ou captur, la copie rsultante identique, octet par octet, au LUN original. En consquence, si le LUN initial contient une banque de donnes VMFS avec UUID X, la copie de LUN semble contenir une banque de donnes identique VMFS ou une copie de la banque de donnes VMFS, avec exactement le mme UUID X.. ESX/ESXi est capable de dterminer si un LUN contient une copie de banque de donnes VMFS, et peut monter la copie soit avec son UUID d'origine, ou changer l'UUID par re-signature de la banque de donnes.

96

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Montage des banques de donnes VMFS avec des signatures existantes


Vous n'aurez peut-tre pas besoin de procder la resignature d'une copie VMFS de banque de donnes. Vous pouvez monter une copie de banque de donnes sans modifier sa signature. Par exemple, vous pouvez maintenir des copies synchronises des machines virtuelles sur un site secondaire, dans le contexte d'un plan de rcupration aprs sinistre. En cas de sinistre sur le site primaire, vous pouvez monter la copie de banque de donnes et dmarrer les machines virtuelles sur le site secondaire. IMPORTANT Vous ne pouvez monter une copie banque de donnes VMFS que si elle ne se heurte pas une banque de donnes VMFS dj monte avec la mme UUID. Pour monter la copie, la banque de donnes VMFS d'origine doit tre hors-ligne. Lorsque vous montez la banque de donnes VMFS, ESX/ESXi autorise un accs la fois en criture et en lecture la banque de donnes rsidant sur la copie de LUN. La copie de LUN doit tre autorise en criture. Les banque de donnes montes sont persistantes, et restent valides aprs redmarrage du systme. Du fait qu' ESX/ESXi ne propose pas une resignature de la banque de donnes monte, il vous faudra la dmonter avant resignature.

Montage d'une banque de donnes VMFS avec une signature existante


Si vous n'avez pas re-signer la copie d'un banque de donnes VMFS, vous pouvez le monter sans chager sa signature. Prrequis Avant de monter une banque de donnes, effectuez une ranalyse de stockage de votre hte pour qu'il mette niveau son affichage des LUN qui lui sont prsents. Procdure 1 2 3 4 5 Ouvrez une session sur vSphere Client et slectionnez le serveur dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Cliquez sur [Ajouter stockage] . Slectionnez le type de stockage [Disque/LUN] et cliquez sur [Suivant] . De la liste des LUN, slectionnez le LUN qui a un nom de banque de donnes affich dans la colonne tiquette VMFS et cliquez sur [Suivant] . Le nom prsent dans la colonne tiquette VMFS indique que le LUN contient une copie d'une banque de donnes VMFS existante. 6 7 Dans Options de montage, slectionnez [Garder signature existante] . Sur la page Prt terminer, passez en revue les informations de configuration de banque de donnes et cliquez sur [Terminer] .

Suivant Si vous voulez plus tard re-signer la banque de donnes monte, vous devrez d'abord le dmonter.

VMware, Inc.

97

Guide de configuration iSCSI SAN

Dmontage des banques de donnes


Quand vous dmontez une banque de donnes, elle reste intacte, mais ne peut tre vue des htes que vous spcifiez. Une banque de donnes dmonte continue s'afficher sur d'autres htes, o elle reste monte. Vous pouvez dmonter seulement les types suivants de banques de donnes :
n n

banques de donnes NFS Les copies de la banque de donnes VMFS montes sans resignature

Vous ne pouvez pas dmonter une banque de donnes monte active. Procdure 1 2 3 Affichez les banques de donnes. Cliquez avec le bouton droit sur la banque de donnes dmonter et slectionnez [Dmonter] . Si la banque de donnes est partage, spcifiez quels htes ne devraient plus accder la banque de donnes. a Si ncessaire, dslectionnez les htes o vous souhaitez maintenir votre banque de donnes monte. Par dfaut, tous les htes sont slectionns. b c 4 Cliquez sur [Suivant] . Passez en revue la liste de htes desquels vous voulez dmonter votre banque de donnes, et cliquez sur [Terminer] .

Confirmez que vous voulez dmonter la banque de donnes.

Re-signature de copies VMFS


Utilisez la re-signature de banque de donnes pour conserver les donnes stockes dans la copie de la banque de donnes VMFS. Lors d'une re-signature de copie VMFS, ESX/ESXi assigne une nouvelle UUID et une nouvelle tiquette la copie, et la monte en tant que banque de donnes distincte de l'original. Le format par dfaut de la nouvelle tiquette assigne la banque de donnes et snap-snapID-oldLabel, o snapID est un nombre entier et oldLabel est l'tiquette de la banque de donnes d'origine. Lorsque vous effectuez une re-signature de banque de donnes, prenez en compte les points suivants :
n n

La re-signature d'une banque de donnes est irrversible. La copie de LUN qui contient la banque de donnes VMFS pour la re-signature ne sera plus traite comme copie de LUN. Une banque de donnes parpille ne peut tre resignature que si toutes ses parties sont en ligne. Le processus de re-signature est tolrant aux pannes et aux incidents. Si le processus est interrompu, vous pourrez le reprendre plus tard. Vous pouvez monter la nouvelle banque de donnes VMFS sans risque de collision de son UUID avec l'UUID de toute autre banque de donnes, comme un parent ou enfant dans une hirarchie de snapshots LUN.

n n

98

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Re-signer la copie d'une banque de donnes VMFS


Utilisez la re-signature de banque de donnes si vous voulez conserver les donnes stockes dans la copie de datastore VMFS. Prrequis Pour re-signer la copie d'une banque de donnes monte, vous devez d'abord le dmonter. Avant de re-signer une banque de donnes, VMFS, effectuez une ranalyse de stockage de votre hte pour qu'il mette niveau son affichage des LUN qui lui sont prsents et dcouvre les copies de LUN. Procdure 1 2 3 4 5 Ouvrez une session sur vSphere Client et slectionnez le serveur dans le panneau d'inventaire. Cliquez sur l'onglet [Configuration] et cliquez sur [Stockage] dans le panneau Matriel. Cliquez sur [Ajouter stockage] . Slectionnez le type de stockage [Disque/LUN] et cliquez sur [Suivant] . De la liste des LUN, slectionnez le LUN qui a un nom de banque de donnes affich dans la colonne tiquette VMFS et cliquez sur [Suivant] . Le nom prsent dans la colonne tiquette VMFS indique que le LUN contient une copie d'une banque de donnes VMFS existant. 6 7 Dans Options de montage, slectionnez [Affecter nouvelle signature] et cliquez sur [Suivant] . Sur la page Prt Terminer, passez en revue les informations de configuration de banque de donnes et cliquez sur [Terminer] .

Suivant Aprs avoir re-sign, vous devrez faire ce qui suit :


n

Si la banque de donnes resigne contient des machines virtuelles, mettez niveau les rfrences sur la banque de donnes VMFS initiale dans les fichiers de la machine virtuelle, y compris les fichiers.vmx,.vmdk,.vmsd, et.vmsn. Pour mettre sous tension des machines virtuelles, enregistrez-les avec vCenter Server.

Acclration matrielle du stockage


La fonctionnalit d'acclration matrielle permet votre hte de dcharger des oprations d'une machine virtuelle spcifique et de gestion du stockage vers du matriel de stockage compatible. Avec l'assistance matrielle du stockage, votre hte effectue les oprations plus rapidement et consomme moins de CPU, de mmoire et de bande passante de stockage. Pour mettre en uvre la fonctionnalit d'acclration matrielle, l'Architecture de stockage enfichable (PSA) utilise une association spciale de plug-ins d'intgration de baies appels plu-ins VAAI et un filtre d'intgration de baies, appel filtre VAAI. Le PSA associe automatiquement le filtre VAAI et des plug-ins VAAI spcifiques au fournisseur aux priphriques de stockage qui prennent en charge l'acclration matrielle. Pour afficher et grer le filtre VAAI et les plug-ins VAAI disponibles sur votre hte, utilisez les commandes de vSphere CLI. Vous pouvez trouver des informations sur la gestion du filtre VAAI et des plug-ins VAAI dans Gestion des plug-Ins et du filtre d'acclration matrielle , page 114. Pour obtenir la description des commandes, voir Guide d'installation et script de l'interface de ligne de commande vSphere et Rfrence de l'interface de ligne de commande vSphere.

VMware, Inc.

99

Guide de configuration iSCSI SAN

Contraintes et avantages de l'acclration matrielle


La fonctionnalit d'acclration matrielle fonctionne uniquement si vous utilisez une association hte/baie de stockage approprie. Utilisez les htes et les baies de stockage suivants :
n n

ESX/ESXi version 4.1 ou ultrieure. Baies de stockage prenant en charge l'acclration matrielle base sur le stockage. ESX/ESXi version 4.1 ne prend pas en charge l'acclration matrielle avec des priphriques de stockage NAS.

Sur votre hte, l'acclration matrielle est active par dfaut. Pour activer l'acclration matrielle du ct du stockage, consultez le fournisseur du stockage. Certaines baies de stockage ncessitent que vous activiez la prise en charge de l'acclration matrielle explicitement du ct de stockage. Lorsque la fonctionnalit d'acclration matrielle est prise en charge, l'hte peut obtenir une assistance matrielle et effectuer les oprations suivantes plus rapidement et plus efficacement :
n n n n n n

Migration des machines virtuelles avec vMotion Dploiement des machines virtuelles partir de modles Clonage des machines virtuelles ou des modles Verrouillage en cluster VMFS et oprations de mtadonnes pour les fichiers des machines virtuelles criture vers des disques virtuels allocation dynamique et lourds Cration de machines virtuelles tolrant les pannes

tat de la prise en charge de l'acclration matrielle


Pour chaque priphrique de stockage et banque de donnes, vSphere Client affiche l'tat de prise en charge de l'acclration matrielle dans la colonne Acclration matrielle de la vue Priphriques et de la vue banque de donnes. Les valeurs d'tat sont Inconnu, Pris en charge et Non pris en charge. La valeur initiale est Inconnu. L'tat passe Pris en charge aprs que l'hte a effectu avec succs l'opration de dchargement. Si l'opration de dchargement choue, l'tat passse Non pris en charge. Lorsque les priphriques de stockage ne prennent pas en charge ou fournissent uniquement une prise en charge partielle des oprations de l'hte, votre hte revient ses mthodes natives d'excution des oprations non pris en charge.

Dsactivation de l'acclration matrielle


Si vos priphriques de stockage ne prennent pas en charge la fonctionnalit d'acclration matrielle, vous pouvez la dsactiver l'aide des paramtres avancs de vSphere Client. Comme pour tous les paramtres avancs, avant de mettre hors tension l'acclration matrielle, contactez l'quipe de support de VMware. Procdure 1 2 3 Dans le panneau d'inventaire de vSphere Client, slectionnez l'hte. Dans l'onglet [Configuration] , cliquez sur [Paramtres avancs] sous [Logiciel] . Cliquez sur VMFS3 et mettez zro la valeur du champ [VMFS3.HardwareAcceleratedLocking] .

100

VMware, Inc.

Chapitre 5 Gestion des systmes ESX/ESXi utilisant le stockage SAN

Cliquez sur [DataMover] et mettez zro la valeur de chacun des champs suivants :
n n

[DataMover.HardwareAcceleratedMove] [DataMover.HardwareAcceleratedInit]

Cliquez sur [OK] pour enregistrer vos modifications.

VMware, Inc.

101

Guide de configuration iSCSI SAN

102

VMware, Inc.

Liste de vrification de la configuration du SAN iSCSI

Cette rubrique vous fournit une liste de vrification des configurations spciales requises pour l'installation sur les diffrents systmes de stockage et sur les htes ESX/ESXi. Tableau A-1. Configuration requise pour le SAN iSCSI
Composant Tous les systmes de stockage Topologie EMC Symmetrix EMC Clariion HP MSA HP EVA Commentaires Le cache en criture doit tre dsactiv s'il n'est pas soutenu par batterie. Une dfaillance unique ne peut en aucun cas entraner le basculement de HBA et de SP, tout particulirement, avec des baies de stockage actives/passives. Activez les paramtres SPC2 et SC3. Contactez EMC pour obtenir les paramtres les plus rcents. Rglez le mode de basculement de EMC Clariion sur 1 ou 4. Contactez EMC pour les dtails. Aucune configuration spcifique requise Pour la version 4.001 et suprieure du microprogramme EVA3000/5000 et pour la version 5.031 et suprieure du microprogramme EVA4000/6000/8000, dfinissez le type d'hte sur VMware. Sinon, dfinissez le type de mode de l'hte sur Custom. La valeur est :
n n

Version 3.x du microprogramme EVA3000/5000 : 000000002200282E EVA4000/6000/8000 : 000000202200083E

NetApp EqualLogic LeftHand Configuration d'ESX/ESXi

Si un de vos initiateurs iSCSI fait partie d'un groupes d'initiateurs (igroup), dsactivez ALUA sur la baie NetApp. Assurez-vous que l'option Rediriger ARP est active sur les adaptateurs du matriel iSCSI. Assurez-vous que l'option Rediriger ARP est active sur les adaptateurs du matriel iSCSI. Dfinissez les Paramtres avancs de l'hte ESX/ESXi : n Dfinissez [Disk.UseLunReset] sur [1] n Dfinissez [Disk.UseDeviceReset] sur [0] Une rgle de gestion multivoie plus rcemment utilise (Most Recently Used) doit tre dfinie pour toutes les LUN hbergeant des disques en cluster pour les baies actives/ passives. Une rgle de gestion multivoie plus rcemment utilise (Most Recently Used) ou fixe (Fixed) doit tre dfinie pour toutes les LUN sur les baies actives/passives. Autorisez la redirection ARP si le systme de stockage prend en charge le basculement transparent.

VMware, Inc.

103

Guide de configuration iSCSI SAN

104

VMware, Inc.

Interface de ligne de commande de VMware vSphere

Dans la majorit des cas, vSphere Client est idal pour surveiller un hte ESX/ESXi connect au stockage SAN. L'utilisateur expriment pourrait souhaiter utiliser occasionnellement certaines commandes de l'interface de ligne de commande VMware vSphere (vSphere CLI) pour obtenir plus de dtails. Pour plus d'informations, consultez le Guide d'installation et de script de l'interface de ligne de commande de vSphere. Cette annexe aborde les rubriques suivantes :
n n n n n

Commande resxtop , page 105 Commande vicfg-iscsi , page 105 Commande vicfg-mpath , page 105 Command'ESXcli corestorage claimrule , page 106 Commande vmkping , page 106

Commande resxtop
La commande resxtop offre une vue dtaille en temps rel de l'utilisation des ressources ESX/ESXi. Pour des informations dtailles sur la commande resxtop, consultez le Guide de gestion des ressources et le Guide d'installation et de script de l'interface de ligne de commande de vSphere.

Commande vicfg-iscsi
La commande vicfg-iscsi vous permet de configurer le logiciel ou le matriel iSCSI sur les htes ESX/ESXi, de dfinir les paramtres et de configurer le rseau iSCSI. Pour des informations dtailles, consultez le Guide d'installation et script de l'interface de ligne de commande vSphere et la Rfrence de l'interface de ligne de commande vSphere.

Commande vicfg-mpath
Utilisez la commande vicfg-mpath pour afficher des informations sur les priphriques de stockage, les chemins et les plug-in multichemin. Pour des informations dtailles, consultez le Guide d'installation et script de l'interface de ligne de commande vSphere et la Rfrence de l'interface de ligne de commande vSphere.

VMware, Inc.

105

Guide de configuration iSCSI SAN

Command'ESXcli corestorage claimrule


Utilisez la commande esxcli corestorage claimrule pour grer les rgles de rclamation. Les rgles de rclamation dterminent quel module de gestion multivoie (chemins multiples) doit rclamer les chemins vers un priphrique particulier et grer ce priphrique. Pour des informations dtailles, consultez le Guide d'installation et script de l'interface de ligne de commande vSphere et la Rfrence de l'interface de ligne de commande vSphere.

Commande vmkping
La commande vmkping vous permet de vrifier la configuration rseau de VMkernel. Exemple d'utilisation :
vmkping [options] [hte|adresse IP]

Tableau B-1. Options vmkping


Option -6 -4 -I -D -c count -I interval -s size -d -v Description Utiliser IPv6 - Requte d'cho ICMPv6. Utiliser IPv4 (par dfaut). Interface sortante - pour tendue IPV6. Mode de dbogage de la pile VMkernel TCP. Dfinissez le nombre de paquets. Dfinissez l'intervalle. Dfinissez la taille de l'envoi. Dfinissez le bit DF sur les paquets IPv4. Verbose.

106

VMware, Inc.

Gestion des modules multichemin et des plug-ins d'acclration matrielle

Utilisez vSphere CLI pour grer les plug-ins multichemin de l'architecture de stockage enfichable (PSA) et les plug-ins d'acclration matrielle. Cette annexe aborde les rubriques suivantes :
n n n

Gestion des chemins de stockage et des plug-ins multichemin , page 107 Gestion des plug-Ins et du filtre d'acclration matrielle , page 114 Options esxcli corestorage claimrule , page 117

Gestion des chemins de stockage et des plug-ins multichemin


Grce vSphere CLI, vous pouvez grer les plug-ins multichemin PSA et les chemins de stockage qui leur sont affects. Vous pouvez afficher tous les plug-ins multichemin disponibles sur votre hte. Vous pouvez rpertorier tous les MPP tiers ainsi que le NMP et les SATP de votre hte et passer en revue les chemins qu'ils rclament. Vous pouvez aussi dfinir de nouveaux chemins et spcifier quel plug-in multichemin doit rclamer les chemins. Pour plus d'informations sur les commandes disponibles pour grer PSA, consultez le Guide d'installation et de script de l'interface de ligne de commande de vSphere et la Rfrence de l'interface de ligne de commande vSphere.

Liste de rgles de rclamation de gestion multivoie pour l'hte


Utilisez vSphere CLI pour rpertorier les rgles de rclamation de gestion multivoie disponibles. Les rgles de rclamation indiquent quel plug-in multichemin, NMP ou tout autre MPP tiers gre un chemin physique donn. Chaque rgles de rclamation identifie une srie de chemins selon les paramtres suivants :
n n n n

Chanes d'diteur/modle Transport tel que SATA, IDE, Fibre Channel et bien d'autres encore Adaptateur, cible ou emplacement de la LUN Pilote du priphrique, par exemple, Mega-RAID

Procdure
u

Utilisez la commande esxcli corestorage claimrule list --claimrule-class=MP pour rpertorier les rgles de rclamation de gestion multivoie. Exemple C-1 affiche la sortie de la commande.

VMware, Inc.

107

Guide de configuration iSCSI SAN

Exemple C-1. Exemple de sortie de la commande esxcli corestorage claimrule list


Rule Class MP MP MP MP MP MP MP MP MP MP MP MP MP MP Rule 0 1 2 3 4 101 101 200 200 201 201 202 202 65535 Class runtime runtime runtime runtime runtime runtime file runtime file runtime file runtime file runtime Type transport transport transport transport transport vendor vendor vendor vendor location location driver driver vendor Plugin NMP NMP NMP NMP NMP MASK_PATH MASK_PATH MPP_1 MPP_1 MPP_2 MPP_2 MPP_3 MPP_3 NMP Matches transport=usb transport=sata transport=ide transport=block transport=unknown vendor=DELL model=Universal Xport vendor=DELL model=Universal Xport vendor=NewVend model=* vendor=NewVend model=* adapter=vmhba41 channel=* target=* lun=* adapter=vmhba41 channel=* target=* lun=* driver=megaraid driver=megaraid vendor=* model=*

Cet exemple indique :


n

Le NMP rclame tous les chemins connects aux priphriques de stockage qui utilisent le transport USB, SATA, IDE et Block SCSI. Le module MASK_PATH par dfaut rclame tous les chemins renvoyant des donnes d'interrogation du SCSI avec une chane d'diteur DELL et une chane de modle Universal Xport. Le module MASK_PATH est utilis pour masquer les chemins votre hte. Le module MPP_1 rclame tous les chemins connects tout modle de baie de stockage NewVend. Le module MPP_3 rclame les chemins vers les priphriques de stockage contrls par le pilote du priphrique Mega-RAID. Tous les chemins non dcrits dans les rgles prcdentes sont rclams par le NMP. La colonne Classe de rgles dans la sortie dcrit la catgorie de rgle de rclamation. Elle peut tre MP (plug-in multichemin), Filtre ou VAAI. La colonne Classe montre les rgles qui sont dfinies et celles qui sont charges. Le paramtre file dans la colonne Class indique que la rgle est dfinie. Le paramtre runtime indique que la rgle a t charge sur votre systme. Pour activer une rgle de rclamation dfinie par l'utilisateur, il faut que deux lignes ayant le mme nombre de rgles soient prsentes. Une ligne pour la rgle avec la paramtre file et une autre ligne avec le paramtre runtime. Plusieurs rgles numrotes faiblement ont une seule ligne avec la classe (Class) runtime. Ce sont des rgles de rclamation dfinies par le systme qui ne peuvent pas tre modifies.

n n

n n

Affichage des modules de gestion multivoie


Utilisez vSphere CLI pour rpertorier tous les modules de gestion multivoie chargs sur le systme. Les modules de gestion multivoie grent les chemins physiques qui connectent votre hte au stockage. Procdure
u

Pour rpertorier tous les modules de gestion multivoie, excutez la commande suivante :
esxcli corestorage plugin list --plugin-class=MP

Cette commande retourne, au minimum, le NMP et les modules MASK_PATH. Si des MPP tiers ont t chargs, ils sont galement rpertoris.

108

VMware, Inc.

Annexe C Gestion des modules multichemin et des plug-ins d'acclration matrielle

Affichage des SATP pour l'hte


Utilisez vSphere CLI pour rpertorier tous les VMware NMP SATP chargs sur le systme. Procdure
u

Pour rpertorier tous les SATP de VMware, excutez la commande suivante :


esxcli nmp satp list

Pour chaque SATP, la commande affiche les informations concernant le type de baie de stockage ou de systme pris en charge par SATP ainsi que le PSP par dfaut de toutes les LUN utilisant ce SATP. Gardez ce qui suit en mmoire :
n

Si les rgles de rclamation n'ont pas allou de SATP au priphrique, le SATP par dfaut pour iSCSI ou pour les priphriques FC est VMW_SATP_DEFAULT_AA. Le PSP par dfaut est VMW_PSP_FIXED. Si VMW_SATP_ALUA est affect un priphrique de stockage spcifique mais que le priphrique ne prend pas en charge ALUA, il n'y a aucune correspondance la rgle de rclamation pour ce priphrique. Dans ce cas, le priphrique est rclam par le SATP par dfaut selon le type de transport du priphrique. Le PSP par dfaut de tous les priphriques rclams par VMW_SATP_ALUA est VMW_PSP_MRU. VMW_PSP_MRU slectionne un chemin actif/optimis que lui a indiqu VMW_SATP_ALUA, ou un chemin actif/non optimis s'il n'y a pas de chemin actif/optimis. Ce chemin est utilis jusqu' ce qu'un meilleur chemin soit disponible (MRU). Par exemple, si VMW_PSP_MRU utilise un chemin actif/non optimis et qu'un chemin actif/optimis est disponible, VMW_PSP_MRU change de chemin pour utiliser le chemin actif/optimis.

Affichage des priphriques de stockage NMP


Utilisez vSphere CLI pour rpertorier tous les priphriques de stockage contrls par le VMware NMP et affichez les informations de SATP et de PSP correspondant chaque priphrique. Procdure 1 Pour rpertorier tous les les priphriques de stockage, excutez la commande suivante :
esxcli nmp device list

Pour voir les informations d'un priphrique spcifique, excutez la commande suivante :
esxcli nmp device list -d device_ID

Ajout de rgles de rclamation de gestion multivoie


Utilisez vSphere CLI pour ajouter une nouvelle rgle de rclamation PSA de gestion multivoie votre srie de rgles de rclamation sur le systme. Pour activer la nouvelle rgle de rclamation, dfinissez d'abord la rgle puis chargez-la sur votre systme. Ajoutez une nouvelle rgle de rclamation PSA lorsque, par exemple, vous chargez un nouveau plug-in de gestion multivoie (MPP) et devez dfinir les chemins que ce module doit rclamer. Il se peut que vous deviez crer une rgle de rclamation si vous ajoutez de nouveaux chemins et souhaitez que le MPP existant les rclame. AVERTISSEMENT Lors de la cration des nouvelles rgles de rclamation, prenez soin d'viter toutes situations o les diffrents chemins physiques sur la mme LUN sont rclams par diffrents MPP. Sauf dans le cas o le MPP correspond MASK_PATH MPP, cette configuration entrane des problmes de performances.

VMware, Inc.

109

Guide de configuration iSCSI SAN

Procdure 1 Pour dfinir une nouvelle rgle de rclamation sur vSphere CLI, excutez la commande suivante :
esxcli corestorage claimrule add

Pour plus d'informations sur les options ncessaires l'utilisation de cette commande, consultez Options esxcli corestorage claimrule , page 117. 2 Pour charger la nouvelle rgle de rclamation sur votre systme, excutez la commande suivante :
esxcli corestorage claimrule load

Cette commande charge toutes les nouvelles rgles de rclamation multichemin partir du fichier de configuration de votre systme. Exemple C-2. Dfinition des rgles de rclamation de gestion multivoie
n

Ajoutez la rgle # 500 pour rclamer tous les chemins avec la chane de modle NewMod et la chane d'diteur NewVend pour le plug-in NMP.
# esxcli corestorage claimrule add -r 500 -t vendor -V NewVend -M NewMod -P NMP

Aprs avoir charg la rgle de rclamation et excut la commande esxcli corestorage claimrule list, la nouvelle rgle de rclamation apparat dans la liste. REMARQUE Les deux lignes de la rgle de rclamation (celle de la classe runtime et celle de la classe file) indiquent que la nouvelle rgle de rclamation a t charge sur le systme et qu'elle est active.
Rule Class MP MP MP MP MP MP MP MP MP
n

Rule 0 1 2 3 4 101 101 500 500

Class runtime runtime runtime runtime runtime runtime file runtime file

Type transport transport transport transport transport vendor vendor vendor vendor

Plugin NMP NMP NMP NMP NMP MASK_PATH MASK_PATH NMP NMP

Matches transport=usb transport=sata transport=ide transport=block transport=unknown vendor=DELL model=Universal Xport vendor=DELL model=Universal Xport vendor=NewVend model=NewMod vendor=NewVend model=NewMod

Ajoutez la rgle # 321 pour rclamer le chemin sur l'adaptateur vmhba0, le canal 0, la cible 0, le LUN 0 pour le plug-in NMP.
# esxcli corestorage claimrule add -r 321 -t location -A vmhba0 -C 0 -T 0 -L 0 -P NMP

Ajoutez la rgle # 1015 pour rclamer tous les chemins fournis par les adaptateurs Fibre Channel pour le plug-in NMP.
# esxcli corestorage claimrule add -r 1015 -t transport -R fc -P NMP

Ajoutez une rgle avec un ID de rgle affect au systme pour rclamer tous les chemins fournis par les adaptateurs de type Fibre Channel pour le plug-in NMP.
# esxcli corestorage claimrule add --autoassign -t transport -R fc -P NMP

110

VMware, Inc.

Annexe C Gestion des modules multichemin et des plug-ins d'acclration matrielle

Suppression de rgles de rclamation de gestion multivoie


Utilisez vSphere CLI pour supprimer une rgle de rclamation PSA de gestion multivoie de votre srie de rgles de rclamation sur le systme. Procdure 1 Supprimez une rgle de rclamation d'une srie de rgles de rclamation.
esxcli corestorage claimrule delete -r claimrule_ID

Pour plus d'informations sur les options utilises par cette commande, consultez Options esxcli corestorage claimrule , page 117. REMARQUE Par dfaut, la rgle de rclamation 101 du PSA masque les priphriques pseudo de baie Dell. Ne supprimez pas cette rgle sauf si vous voulez afficher ces priphriques. 2 Supprimez la rgle de rclamation du systme ESX/ESXi.
esxcli corestorage claimrule load

Masquage des chemins


Vous pouvez empcher l'hte ESX/ESXi d'accder aux priphriques de stockage ou aux LUN, ou encore l'empcher d'utiliser certains chemins d'accs un LUN. Pour masquer les chemins d'accs, utilisez l'interface de commande vSphere. Lorsque vous masquez des chemins d'accs, vous crez des rgles de rclamation qui affectent le plug-in MASK_PATH aux chemins spcifis. Procdure 1 Vrifiez l'ID de rgle disponible suivant
esxcli corestorage claimrule list

Les ID de rgle de rclamation utiliss pour masquer les chemins d'accs doivent tre compris dans la plage 101 200. Si cette commande indique que les rgles 101 et 102 existent dj, vous pouvez spcifier 103 en tant qu'ID de rgle ajouter. 2 Affectez le plug-in MASK_PATH un chemin d'accs : pour cela, crez une nouvelle rgle de rclamation associer au plug-in.
esxcli corestorage claimrule add -P MASK_PATH

Pour plus d'informations sur les options de la ligne de commande, reportez-vous Options esxcli corestorage claimrule , page 117. 3 Chargez la rgle de rclamation du plug-in MASK_PATH dans votre systme.
esxcli corestorage claimrule load

Vrifiez que cette rgle a bien t ajoute.


esxcli corestorage claimrule list

Si une rgle de rclamation existe dj pour le chemin d'accs masqu, supprimez-la.


esxcli corestorage claiming unclaim

Excutez les rgles de rclamation de chemin d'accs.


esxcli corestorage claimrule run

VMware, Inc.

111

Guide de configuration iSCSI SAN

Une fois que vous avez affect le plug-in MASK_PATH un chemin d'accs, l'tat de l'tat de ce dernier devient non pertinent et n'est plus gr par l'hte. Par consquent, les commandes qui affichent les informations de chemin masqu peuvent indiquer que ce chemin est mort. Exemple C-3. Masquage d'un LUN Dans cet exemple, vous masquez le LUN 20 pour les cibles T1 et T2, dont l'accs s'effectue via les adaptateurs de stockage vmhba2 et vmhba3. 1 2
#esxcli corestorage claimrule list #esxcli #esxcli #esxcli #esxcli corestorage corestorage corestorage corestorage claimrule claimrule claimrule claimrule add add add add -P -P -P -P MASK_PATH MASK_PATH MASK_PATH MASK_PATH -r -r -r -r 109 110 111 112 -t -t -t -t location location location location -A -A -A -A vmhba2 vmhba3 vmhba2 vmhba3 -C -C -C -C 0 0 0 0 -T -T -T -T 1 1 2 2 -L -L -L -L 20 20 20 20

3 4 5 6

#esxcli corestorage claimrule load #esxcli corestorage claimrule list #esxcli corestorage claiming unclaim -t location -A vmhba2 #esxcli corestorage claiming unclaim -t location -A vmhba3 # esxcli corestorage claimrule run

Dmasquage des chemins


Si vous souhaitez que l'hte accde au priphrique de stockage masqu, dmasquez les chemins menant ce priphrique. Procdure 1 Supprimez la rgle de rclamation MASK_PATH.
esxcli conn_options corestorage claimrule delete -r rule#

Vrifiez que la rgle de rclamation a t supprime correctement.


esxcli conn_options corestorage claimrule list

Rechargez les rgles de rclamation du chemin partir du fichier de configuration dans le VMkernel.
esxcli conn_options corestorage claimrule load

Excutez la commande esxcli corestorage claiming unclaim pour chaque chemin d'accs au priphrique de stockage masqu. Par exemple :
esxcli conn_options corestorage claiming unclaim -t location -A vmhba0 -C 0 -T 0 -L 149

Excutez les rgles de rclamation de chemin d'accs.


esxcli conn_options corestorage claimrule run

Votre hte peut dsormais accder au priphrique de stockage qui a t masqu.

Dfinition des rgles SATP de NMP


Les rgles de rclamation NMP SATP spcifient le SATP qui doit grer un priphrique de stockage particulier. De manire gnrale, il n'est pas ncessaire de modifier les rgles NMP SATP. En cas de besoin, utilisez vSphere CLI pour ajouter une rgle la liste des rgles de rclamation pour le SATP spcifi. Vous pourriez avoir besoin de crer une rgle SATP lors de l'installation d'un SATP tiers pour une baie de stockage spcifique.

112

VMware, Inc.

Annexe C Gestion des modules multichemin et des plug-ins d'acclration matrielle

Procdure 1 Pour ajouter une rgle de rclamation un SATP spcifique, excutez la commande esxcli nmp satp addrule. La commande accepte les options suivantes.
Option -c|--claim-option Description Dfinissez la chane d'option de rclamation lors de l'ajout d'une rgle de rclamation SATP. Cette chane est transmise au SATP lorsqu'il rclame un chemin. Le contenu de cette chane, ainsi que le comportement rsultant du SATP, sont exclusifs chaque SATP. Par exemple, certains SATP prennent en charge les chanes d'option de rclamation tpgs_on et tpgs_off. Si tpgs_on est spcifi, le SATP rclame le chemin uniquement si la prise en charge du groupes de ports cible ALUA est active sur le priphrique de stockage. Dfinissez la description de la rgle de rclamation lors de l'ajout d'une rgle de rclamation SATP. Dfinissez le priphrique lors de l'ajout de rgles de rclamation SATP. Les rgles de priphrique sont mutuellement exclusives aux rgles d'diteur/ modle et de pilote. Dfinissez la chane de pilote lors de l'ajout d'une rgle de rclamation SATP. Les rgles de pilote sont mutuellement exclusives aux rgles d'diteur/ modle. Forcez les rgles de rclamation ignorer les vrifications de validit et installer la rgle. Affichez le message d'aide. Dfinissez la chane de modle lors de l'ajout d'une rgle de rclamation SATP. Les rgles d'diteur/modle sont mutuellement exclusives aux rgles de pilote. Dfinissez la chane d'option lors de l'ajout d'une rgle de rclamation SATP. Dfinissez le PSP par dfaut pour la rgle de rclamation SATP. Dfinissez les options du PSP pour la rgle de rclamation SATP. Le SATP pour lequel une nouvelle rgle sera ajoute. Dfinissez la chane du type de transport lors de l'ajout d'une rgle de rclamation SATP. Dfinissez la chane d'diteur lors de l'ajout de rgles de rclamation SATP. Les rgles d'diteur/modle sont mutuellement exclusives aux rgles de pilote.

-e|--description -d|--device

-D|--driver

-f|--force -h|--help -M|--model

-o|--option -P|--psp -O|--psp-option -s|--satp -R|--transport -V|--vendor

REMARQUE Lors de la recherche de rgles SATP pour localiser le SATP d'un priphrique donn, le NMP commence par rechercher les rgles de pilote. Si aucune correspondance n'est trouve, les rgles d'diteur/ modle sont recherches et finalement les rgles de transport. Si aucune correspondance n'est trouve cette fois encore, le NMP slectionne un SATP par dfaut pour le priphrique. 2 Pour supprimer une rgle de la liste des rgles de rclamation du SATP spcifi, excutez la commande suivante. Vous pouvez excuter cette commande avec les mmes options que vous avez utilises pour la commande addrule.
esxcli nmp satp deleterule

Redmarrez l'hte.

VMware, Inc.

113

Guide de configuration iSCSI SAN

Exemple C-4. Dfinition d'une rgle NMP SATP L'exemple de commande suivant affecte le plug-in VMW_SATP_INV la gestion des baies de stockage avec une chane d'diteur NewVend et une chane de modle NewMod.
# esxcli nmp satp addrule -V NewVend -M NewMod -s VMW_SATP_INV

Si vous excutez la commande esxcli nmp satp listrules -s VMW_SATP_INV, vous voyez que la nouvelle rgle a t ajoute la liste des rgles VMW_SATP_INV.

Gestion des plug-Ins et du filtre d'acclration matrielle


Le filtre d'acclration matrielle (ou VAAI) et les plug-ins VAAI propres l'diteur sont joints aux priphriques de stockage qui prennent en charge l'acclration matrielle. l'aide de vSphere CLI, vous pouvez afficher et manipuler le filtre VAAI ainsi que les plug-ins VAAI.

Affichage du filtre d'acclration matrielle


Utilisez vSphere CLI pour voir le filtre d'acclration matrielle, ou VAAI, en cours de chargement sur votre systme. Procdure
u

Excutez la commande esxcli corestorage plugin list --plugin-class=Filter.

Le rsultat de cette commande est semblable ce qui suit :


Plugin name VAAI_FILTER Plugin class Filter

Affichage des plug-ins d'acclration matrielle


Utilisez vSphere CLI pour afficher les plug-ins d'acclration matrielle, aussi appels plug-ins VAAI, actuellement chargs sur votre systme. Procdure
u

Excutez la commande esxcli corestorage plugin list --plugin-class=VAAI.

Le rsultat de cette commande est semblable ce qui suit :


Nom du plug-in VMW_VAAIP_EQL VMW_VAAIP_NETAPP VMW_VAAIP_CX Classe du plug-in VAAI VAAI VAAI

Vrification de l'tat de l'acclration matrielle d'un priphrique de stockage


Utilisez vSphere CLI pour vrifier l'tat du support d'acclration matrielle d'un priphrique de stockage dfini. Cette commande permet galement de dterminer quel filtre VAAI est joint au priphrique. Procdure
u

Excutez la commande esxcli corestorage device list --d device_ID.

114

VMware, Inc.

Annexe C Gestion des modules multichemin et des plug-ins d'acclration matrielle

La sortie indique le statut de l'acclration matrielle, ou VAAI, lequel peut tre inconnu, pris en charge ou non pris en charge. Si le priphrique prend en charge l'acclration matrielle, la sortie rpertorie galement le filtre VAAI reli au priphrique.
# esxcli corestorage device list --d naa.60a98000572d43595a4a52644473374c naa.60a98000572d43595a4a52644473374c Display Name: NETAPP Fibre Channel Disk(naa.60a98000572d43595a4a52644473374c) Size: 20480 Type de priphrique : Direct-Access Multipath Plugin: NMP Devfs Path: /vmfs/devices/disks/naa.60a98000572d43595a4a52644473374c Vendor: NETAPP Model: LUN Revision: 8000 SCSI Level: 4 Is Pseudo: false Status: on Is RDM Capable: true Is Local: false Is Removable: false Attached Filters: VAAI_FILTER VAAI Status: pris en charge Other UIDs: vml.020003000060a98000572d43595a4a52644473374c4c554e202020

Affichage d'un plug-in d'acclration matrielle pour un priphrique


Utilisez vSphere CLI pour afficher le plug-in d'acclration matrielle, ou VAAI, joint un priphrique de stockage qui prend en charge l'acclration matrielle. Procdure
u

Excutez la commande esxcli vaai device list --d device_ID. Par exemple :
# esxcli vaai device list -d naa.6090a028d00086b5d0a4c44ac672a233 naa.6090a028d00086b5d0a4c44ac672a233 Device Display Name: EQLOGIC iSCSI Disk (naa.6090a028d00086b5d0a4c44ac672a233) VAAI Plugin Name: VMW_VAAIP_EQL

VMware, Inc.

115

Guide de configuration iSCSI SAN

Liste de rgles de rclamation d'acclration matrielle


Pour chaque priphrique de stockage prenant en charge la fonctionnalit d'acclration matrielle, les rgles de rclamation spcifient le filtre d'acclration matrielle et le plug-in d'acclration matrielle pour grer ce priphrique de stockage. Vous pouvez utiliser vSphere CLI pour rpertorier les rgles de rclamation du filtre et du plug-in d'acclration matrielle. Procdure 1 Pour voir une liste des rgles de rclamation du filtre, excutez la commande esxcli corestorage claimrule list --claimrule-class=Filter. Dans cet exemple, les rgles de rclamation du filtre spcifient les priphriques qui doivent tre rclams par le filtre VAAI_FILTER.
# esxcli corestorage claimrule list --claimrule-class=Filter Rule Class Rule Class Type Plugin Matches Filter 65430 runtime vendor VAAI_FILTER vendor=EMC model=SYMMETRIX Filter 65430 file vendor VAAI_FILTER vendor=EMC model=SYMMETRIX Filter 65431 runtime vendor VAAI_FILTER vendor=DGC model=* Filter 65431 file vendor VAAI_FILTER vendor=DGC model=*

Pour voir une liste des rgles de rclamation du plug-in VAAI, excutez la commande esxcli corestorage claimrule list --claimrule-class=VAAI. Dans cet exemple, les rgles de rclamation VAAI spcifient les priphriques qui doivent tre rclams par un plug-in VAAI particulier.
esxcli corestorage claimrule list --claimrule-class=VAAI Rgle Classe Rgle Classe Type Plug-in Correspondances VAAI 65430 runtime diteur VMW_VAAIP_SYMM vendor=EMC model=SYMMETRIX VAAI 65430 file diteur VMW_VAAIP_SYMM vendor=EMC model=SYMMETRIX VAAI 65431 runtime diteur VMW_VAAIP_CX vendor=DGC model=* VAAI 65431 file diteur VMW_VAAIP_CX vendor=DGC model=*

Ajout de rgles de rclamation d'acclration matrielle


Pour configurer l'acclration matrielle d'une nouvelle baie, vous devez ajouter deux rgles de rclamation (une pour le filtre VAAI et une autre pour le plug-in VAAI). Pour activer les nouvelles rgles de rclamation, dfinissez d'abord les rgles puis chargez-les dans votre systme. Procdure 1 Dfinissez une nouvelle rgle de rclamation pour le filtre VAAI l'aide de la commande esxcli corestorage claimrule add --claimrule-class=Filter --plugin=VAAI_FILTER. Pour plus d'informations sur les options ncessaires l'utilisation de cette commande, consultez Options esxcli corestorage claimrule , page 117. 2 Dfinissez une nouvelle rgle de rclamation pour le plug-in VAAI l'aide de la commande esxcli
corestorage claimrule add --claimrule-class=VAAI.

116

VMware, Inc.

Annexe C Gestion des modules multichemin et des plug-ins d'acclration matrielle

Chargez les deux rgles de rclamation l'aide des commandes suivantes :


esxcli corestorage claimrule load --claimrule-class=Filter esxcli corestorage claimrule load --claimrule-class=VAAI

Excutez la rgle de rclamation du filtre VAAI l'aide de la commande esxcli corestorage claimrule run --claimrule-class=Filter. REMARQUE Seules les rgles de classe de filtre doivent tre excutes. Lorsque le filtre VAAI rclame un priphrique, il trouve automatiquement le bon plug-in VAAI auquel se relier.

Exemple C-5. Dfinition des rgles de rclamation d'acclration matrielle Pour configurer l'acclration matrielle des baies IBM l'aide du plug-in VMW_VAAI_T10, utilisez la squence de commandes suivantes :
# esxcli corestorage claimrule add --claimrule-class=Filter --plugin=VAAI_FILTER --type=vendor -vendor=IBM --autoassign # esxcli corestorage claimrule add --claimrule-class=VAAI --plugin=VMW_VAAI_T10 --type=vendor -vendor=IBM --autoassign # esxcli corestorage claimrule load --claimrule-class=Filter # esxcli corestorage claimrule load --claimrule-class=VAAI # esxcli corestorage claimrule run --claimrule-class=Filter

Suppression de rgles de rclamation d'acclration matrielle


Utilisez vSphere CLI pour supprimer les rgles de rclamation d'acclration matrielle existantes. Procdure
u

Utilisez les commandes suivantes :


esxcli corestorage claimrule delete -r claimrule_ID --claimrule-class=Filter esxcli corestorage claimrule delete -r claimrule_ID --claimrule-class=VAAI

Options esxcli corestorage claimrule


Certaines commandes esxcli corestorage claimrule, par exemple les commandes que vous excutez pour ajouter de nouvelles rgles de rclamation, supprimer des rgles ou masquer des chemins, ncessitent la spcification de nombreuses options. Tableau C-1. Options esxcli corestorage claimrule
Option -A|--adapter -u|--autoassign -C|--channel -c|--claimrule-class -d|--device -D|--driver -f|--force -h|--help Description Indiquez l'adaptateur des chemins utiliser pour cette opration. Le systme affecte automatiquement un ID de rgle. Indiquez le canal des chemins utiliser pour cette opration. Indiquez la classe des rgles de rclamation utiliser pour cette opration. Les valeurs valides sont : MP, Filter, VAAI Indiquez l'Uid du priphrique utiliser pour cette opration. Indiquez le pilote des chemins utiliser pour cette opration. Forcez les rgles de rclamation ignorer les vrifications de validit et installer la rgle. Affichez le message d'aide.

VMware, Inc.

117

Guide de configuration iSCSI SAN

Tableau C-1. Options esxcli corestorage claimrule (suite)


Option -L|--lun -M|--model -P|--plugin -r|--rule -T|--target -R|--transport Description Indiquez la LUN des chemins utiliser pour cette opration. Indiquez le modle des chemins utiliser pour cette opration. Indiquez le plug-in PSA utiliser pour cette opration. Indiquez l'ID de la rgle de rclamation utiliser pour cette opration. Indiquez la cible des chemins utiliser pour cette opration. Indiquez le transport des chemins utiliser pour cette opration. Les valeurs valides sont : block, fc, iscsi, iscsivendor, ide, sas, sata, usb, parallel, unknown. Indiquez le type de correspondances utilis pour la rclamation/non rclamation ou pour claimrule. Les valeurs valides sont : vendor, location, driver, transport, device. Indiquez l'diteur des chemins utiliser dans cette opration.

-t|--type

-V|--vendor

118

VMware, Inc.

Index

Symboles
* chemin le plus proche 81

A
acclration matrielle propos 99 avantages 100 exigences 100 dsactivation 100 tat 100 suppression des rgles de rclamation 117 accs au disque, galisation 93 adaptateurs de stockage afficher dans vSphere Client 72 consulter dans vSphere Client 71 copie de noms dans le presse-papiers 72 adaptateurs iSCSI propos 29 logiciel 11 matriel 11 adaptateurs iSCSI logiciels, profondeur de file d'attente 93 adaptateurs iSCSI matriels dpendant 11 indpendant 11 adresse IP 10 adresses de dcouverte dynamique 43 adresses de dcouverte statique 43 alias iSCSI 10 allocations, LUN 30 annulation de chemin, rsolution 92 applications, par couches 95 applications de gestion tierces 16 applications par couches 95 Architecture de stockage enfichable 21 association de ports, suppression 41 astrisque chemin le plus proche 81 authentification 13, 44, 76 authentification CHAP 13, 44, 76

baies de disques actives/passives annulation de chemin 92 gestion des chemins 84 baies de disques passives, annulation de chemin 92 banques de donnes administration des duplications 96 affichage 75 chemins 82 cration sur le stockage iSCSI 52 dmontage 98 examiner les proprits 76 montage 97 actualisation 77 banques de donnes NFS, dmontage 98 banques de donnes VMFS dmontage 98 modifier des signatures 99 resignature de copies 98 basculement dlai E/S 25 transparent 13 basculement de chemin bas sur baie 25 bas sur hte 24 basculement de serveur 27

C
cartes rseau, configuration de iBFT iSCSI boot 66 cas d'utilisation 15 CHAP dsactivation 48 mutuel 44 pour des initiateurs iSCSI 45 pour les cibles de dcouverte 46 pour les cibles statiques 46 unilatral 44 CHAP mutuel 44 CHAP unilatral 44 chemin prfr 81 chemins dmasquage 112 dsactivation 84 masquage 111 prfrs 81 chemins de basculement, tat 81

B
baies de disques actives/actives 30, 82 actives/passives 30, 82, 92 baies de disques actives/actives, gestion des chemins 84

VMware, Inc.

119

Guide de configuration iSCSI SAN

cibles 12 cibles / LUN 12 classement par ordre de priorit des machines virtuelles 19 command'ESXcli corestorage, options 117 command'ESXcli corestorage claimrule 106 commande resxtop 105 commande vicfg-iscsi 105 commande vicfg-mpath 105 commande vmkping 106 commandes vicfg-mpath 105 esxcli corestorage claimrule 106 resxtop 105 vicfg-iscsi 105 vmkping 106 configuration dcouverte dynamique 43 dcouverte statique 44 Stockage iSCSI 52 contrle d'accs 13 contrleurs SCSI 8 copies de banque de donnes, montage 97

Disk.MaxLUN 78 Disk.SchedNumReqOutstanding 93 Disk.SupportSparseLUN 79

E
galisation de l'accs au disque 93 EMC CLARiiON 54 EMC Symmetrix, pseudo LUN 55 emplacements des machines virtuelles 26 EqualLogic, systmes de stockage 59 quilibrage de charge, manuel 84 quilibrage de charge manuel 84 ESXi, configuration pour net dump 70 tat actuel du multivoie 82 tat du multivoie 82 EUI 10 EVA (HP StorageWorks) 57

F
FilerView 58 filtre VAAI, affichage 114 filtres de stockage dsactivation 79 hte identique et transports 80 RDM 80 ranalyse de l'hte 80 VMFS 80

D
dcisions de LUN schma adaptatif 19 schma prdictif 19 dcouverte adresse 43 dynamique 43 statique 44 dcouverte dynamique, configuration 43 dcouverte statique, configuration 44 dlai d'expiration de disque 85 dlai d'expiration Windows GOS 85 dlai E/S 25 Dlai E/S 30 dmarrage partir du SAN iSCSI configuration des HBA 63 configuration des paramtres iSCSI 64 directives 62 iBFT 64 iSCSI matriel 63 iSCSI logiciel 64 prparation du SAN 62 dmarrage du logiciel iSCSI, modifier des paramtres 68 dmarrage iSCSI, iBFT 64 dpannage modification des paramtres de dmarrage iSCSI 69 perte de connexion rseau 68 dsactivation de chemins d'accs 84

G
gestion des chemins 21, 84

H
Htes ESX/ESXi et SAN iSCSI 71 partage VMFS 17 HP LeftHand P4000 VSA 60 HP StorageWorks EVA 57 MSA 55

I
iBFT 64 iBFT iSCSI Boot changement de squence de dmarrage 66 dfinition d'ESXi 65 dmarrage d'un hte ESXi 67 dpannage 68 installation d'un hte ESXi 67 limitations 65 meilleures pratiques de mise en rseau 67 initiateurs iSCSI configurer les paramtres avancs 49 configurer les paramtres CHAP 44

120

VMware, Inc.

Index

configurer CHAP 45 consulter dans vSphere Client 71 matriel 31 paramtres avancs 48 initiateurs iSCSI logiciels activation 35 configuration 34 configurer des adresses de dcouverte 43 initiateurs iSCSI matriels affichage 31 changement de nom iSCSI 32 configuration 31 configurer des adresses de dcouverte 43 configuration des paramtres de nommage 32 installation 31 interface VMkernel, avec trames Jumbo activ 42 IQN 10 iSCSI, avec NIC multiples 37 iSCSI Boot Firmware Table, , voir iBFT iSCSI HBA, alias 32 iSCSI matriel, et basculement 24

L
liaison de port, exemples 41 liste de vrification 103 Logiciel de gestion du SAN 16 logiciel de snapshot 95 logiciel iSCSI et basculement 24 rseau 36 LUN affichage et nouvelle analyse 28 allocations 30 clairsems 79 cration et nouvelle analyse 76, 78 dcisions 18 masquage 111 modification du nombre de LUN analyss 78 modifications et ranalyse 77 dfinir la rgle de multivoie 82 rgle de multivoie 82 un volume VMFS par 30 LUN analyss, modification du nombre 78 LUN non visible, visibilit SP 76

maintenance 15 masquage de LUN 111 matriel iSCSI dpendant afficher les adaptateurs 33 considrations 33 et cartes rseau associes 34 matriel ISCSI dpendant, workflow de configuration 32 mthodes d'authentification CHAP 44 mises niveau des mtadonnes 18 module de sauvegarde tiers 95 module vicfg 93 montage de banques de donnes VMFS 97 MPP affichage 108 Voir aussi plug-ins multichemin MSA (HP StorageWorks) 55 MTU 42 multichemin activation pour iSCSI logiciel 40 afficher l'tat actuel du 81 chemins actifs 81 chamins casss 81 chemins dsactivs 81 chemins inactifs 81

N
NAA 10 native Multipathing Plug-In 21 Native Multipathing Plug-In 22 net dump configuration d'ESXi 70 configuration de vMA 70 NetApp provisionnement du stockage sur CLI 59 provisionnement du stockage sur FilerView 58 NIC, mappage vers des ports 38 NMP flux d'E/S 23 rclamation de chemin 80 Voir aussi native Multipathing Plug-In Voir aussi Native Multipathing Plug-In noms iSCSI, conventions 10

P
panne de serveur 27 panne, serveur 27 Paramtre TimeoutValue 30 paramtres avancs Disk.MaxLUN 78 Disk.SchedNumReqOutstanding 93 Disk.SupportSparseLUN 79 paramtres de dmarrage iSCSI, configuration 66

M
machines virtuelles accs au SAN 20 classement par ordre de priorit 19 dlai E/S 25 galisation de l'accs au disque 93 emplacements 26

VMware, Inc.

121

Guide de configuration iSCSI SAN

partage de partitions de diagnostic 86 partage de VMFS sur des serveurs 17 partages de disque 19 partitions de dcharge, partage 86 partitions de diagnostic, partage 86 Path Selection Plug-Ins 23 performances Consultation des statistiques des commutateurs Ethernet 91 optimisation 87 problmes 91 Mise en rseau 88 rservations SCSI 17 systme de stockage 87 performances des serveurs 88 performances du rseau 88 performance du stockage SAN, optimisation 87 priphriques de stockage accessible via des adaptateurs 74 affichage 109 affichage des informations 72 chemins 82 disponibles sur les htes 74 tat de l'acclration matrielle 114 identificateurs 74 nommer 73 perte de connexion rseau, dpannage 68 plug-ins acclration matrielle 107 multichemin 107 plug-ins d'acclration matrielle 107 plug-ins multichemin, rclamation de chemin 80 plug-ins VAAI affichage 114 liste de priphriques 115 ports iSCSI 10 ports VMkernel 38 prise en charge des LUN clairsems 79 problmes performances 91 visibilit 76 problmes de visibilit 76 profondeur de file d'attente 30, 93 PSA, , voir Architecture de stockage enfichable PSP, , voir Path Selection Plug-Ins PSP de VMware, , voir Path Selection Plug-Ins

lorsque le chemin est hors service 77, 78 masquage de chemin 77, 78 masquage de LUN 76 ranalyser l'chec de chemin 77, 78 recherche d'informations 16 recherche de LUN, VMkernel 28 rclamation de chemin 80 rcupration d'urgence 15 redirection de port 25 rgle de chemin d'accs Fixe, annulation de chemin 91 rgle de chemin d'accs Most Recently Used, annulation de chemin 91 rgle de chemin d'accs MRU 82 rgle de chemin d'accs Round Robin 23, 82 rgle de multivoie 82 rgles de chemin d'accs Fixe 23, 25, 82 modification des valeurs par dfaut 84 Most Recently Used 23, 82 MRU 82 Round Robin 23, 82 rgles de rclamation 80 rgles de rclamation de gestion multivoie ajout 109 suppression 111 rgles de rclamation VAAI dfinition 116 filtre VAAI 116 plug-in VAAI 116 suppression 117 requtes de disque en attente 93 rseau, configuration 31 rseau de zone de stockage 7 rseau iSCSI, crer un port VMkernel 37 rservations iSCSI, rduction 93 rservations, rduction des rservations SCSI 93 restrictions SAN, pour utilisation dans ESX/ ESXi 30 rsums d'en-tte 14 rsums de donnes 14

S
SAN accs 20 avantages 14 basculement de serveur 27 considrations de sauvegarde 94 dpannage 86 informations dtailles 16

R
re-signature d'un volume 96, 98 re-signature d'un volume VMFS 96 ranalyser affichage des LUN 28 cration de LUN 7678

122

VMware, Inc.

Index

SAN iSCSI concepts 9 dmarrage 61 SATP affichage 109 ajout de rgles 112 Voir aussi Storage Array Type Plug-Ins SATP de VMware, , voir Storage Array Type PlugIns sauvegardes considrations 94 module de sauvegarde tiers 95 schma adaptatif 19 schma prdictif 19 sessions iSCSI affichage 50 ajouter pour une cible 51 dupliquer 51 gestion 50 suppression 52 solution base de baie 96 solution base sur les fichiers (VMFS) 96 stockage de qualit basse 26 stockage de qualit haute 26 stockage de qualit moyenne 26 Stockage iSCSI, ajout 52 Storage Array Type Plug-Ins 22 support pdagogique 5 support technique 5 systme de stockage NetApp 57 systmes de stockage Dell PowerVault MD3000i 60 EMC CLARiiON 54 EMC Symmetrix 55 EqualLogic 59 HP StorageWorks 55 LeftHand Networks SAN/iQ 59 NetApp 57

performances 87 types 13 systmes de stockage Dell PowerVault MD3000i 60 systmes de stockage iSCSI, utilisation avec ESX/ESXi 53 systmes de stockage LeftHand Networks SAN/ iQ 59

T
test, systmes de stockage 53 trames jumbo activation de l'iSCSI logiciel 42 activation de l'iSCSI matriel dpendant 42 utilisation avec iSCSI 41 type d'hte 54 type d'hte en cluster Linux 54 type d'hte Linux 54

V
virtualisation 8 virtualisation de stockage 8 virtualisation du rseau 8 visibilit SP, LUN non visible 76 vMA, collecte de net dump 69 vMA, configuration pour net dump 70 VMFS partage sur des htes ESX/ESXi 17 re-signature d'un volume 96 un volume par LUN 30 VMkernel, recherche de LUN 28 vMotion 14, 15, 30, 54 VMware DRS, avec vMotion 30 VMware HA 14, 27, 54 VMware NMP flux d'E/S 23 Voir aussi native Multipathing Plug-In Voir aussi Native Multipathing Plug-In vSphere CLI 40 vSphere Client 105 vSwitch, avec Trames jumbo actives 42

VMware, Inc.

123

Guide de configuration iSCSI SAN

124

VMware, Inc.