Vous êtes sur la page 1sur 218

Serveur dE-S virtuel

REFERENCE 86 F1 81FA 01

ESCALA

ESCALA
Serveur dE-S virtuel

Hardware
Mai 2009 BULL CEDOC 357 AVENUE PATTON B.P.20845 49008 ANGERS CEDEX 01 FRANCE

REFERENCE 86 F1 81FA 01

Lavis juridique de copyright ciaprs place le prsent document sous la protection des lois de Copyright qui prohibent, sans sy limiter, des actions comme la copie, la distribution, la modification et la cration de produits drivs. Copyright Bull SAS 2009 Imprim en France

Marques dposes
Toutes les marques cites dans ce manuel sont la proprit de leurs dtenteurs respectifs. Tous les noms de marques ainsi que les noms de produits matriels et/ou logiciels sont rgis par le droit des marques et/ou des brevets. La citation des noms de marques et de produits est purement informative et ne constitue pas une violation du droit des marques et/ou des brevets.

Des corrections ou des modifications au contenu de ce document peuvent intervenir sans pravis. Bull SAS ne pourra pas tre tenu pour responsable des ventuelles erreurs qui pourraient tre contenues dans ce manuel, ni pour tout dommage pouvant rsulter de son application.

Table des matires


Avis aux lecteurs canadiens . . . . . . . . . . . . . . . . . . . . . . . . . . vii Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Virtual I/O Server - Nouveauts. . . . . . . . . . . . . . . . . . . . . . Prsentation du serveur Virtual I/O Server . . . . . . . . . . . . . . . . . . Prise en charge de systme dexploitation pour les partitions logiques client VIOS . . . . Composants de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . Connexion optique virtuelle . . . . . . . . . . . . . . . . . . . . . . Connexion optique virtuelle pour les systmes grs par la console HMC . . . . . . Connexion optique virtuelle pour les systmes grs par IVM . . . . . . . . . . Interface SCSI virtuelle . . . . . . . . . . . . . . . . . . . . . . . Prsentation du sous-systme de stockage Virtual I/O Server. . . . . . . . . . Mmoire physique . . . . . . . . . . . . . . . . . . . . . . . . Volumes physiques . . . . . . . . . . . . . . . . . . . . . . . Volumes logiques . . . . . . . . . . . . . . . . . . . . . . . Rfrentiel de supports virtuels. . . . . . . . . . . . . . . . . . . Pools de stockage . . . . . . . . . . . . . . . . . . . . . . . Units optiques . . . . . . . . . . . . . . . . . . . . . . . . Bande . . . . . . . . . . . . . . . . . . . . . . . . . . . Stockage virtuel . . . . . . . . . . . . . . . . . . . . . . . . . Disque . . . . . . . . . . . . . . . . . . . . . . . . . . . Optique . . . . . . . . . . . . . . . . . . . . . . . . . . Bande . . . . . . . . . . . . . . . . . . . . . . . . . . . Compatibilit dunit dans un environnement Virtual I/O Server . . . . . . . Units de mappage . . . . . . . . . . . . . . . . . . . . . . . . Rseaux virtuels . . . . . . . . . . . . . . . . . . . . . . . . . . Carte Ethernet hte . . . . . . . . . . . . . . . . . . . . . . . . Internet Protocol version 6 . . . . . . . . . . . . . . . . . . . . . Units dagrgation de liaisons ou EtherChannel . . . . . . . . . . . . . . Cartes Ethernet virtuelles . . . . . . . . . . . . . . . . . . . . . . Rseaux locaux virtuels (VLAN) . . . . . . . . . . . . . . . . . . . Cartes Ethernet partages. . . . . . . . . . . . . . . . . . . . . . Mmoire partage . . . . . . . . . . . . . . . . . . . . . . . . . Partition VIOS de pagination . . . . . . . . . . . . . . . . . . . . . Gestion du serveur Virtual I/O Server . . . . . . . . . . . . . . . . . . Interface de ligne de commande Virtual I/O Server . . . . . . . . . . . . . Logiciels Tivoli et Virtual I/O Server . . . . . . . . . . . . . . . . . . Logiciel Systems Director . . . . . . . . . . . . . . . . . . . . . . Scnarios de configuration relatifs au serveur Virtual I/O Server . . . . . . . . . . Scnario : Configuration dun serveur Virtual I/O Server sans marquage VLAN . . . . Scnario : Configuration dun serveur Virtual I/O Server avec marquage VLAN . . . . Scnario : Configuration de la reprise par transfert de carte Ethernet partage . . . . . Scnario : Configuration de la fonction de sauvegarde via linterface rseau sur les partitions AIX sans marquage VLAN . . . . . . . . . . . . . . . . . . . . . . Scnario : Configuration de la fonction MPIO pour les partitions logiques client AIX . . . Planification de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . Spcifications . . . . . . . . . . . . . . . . . . . . . . . . . . . Limites et restrictions . . . . . . . . . . . . . . . . . . . . . . . . Prvision de la capacit . . . . . . . . . . . . . . . . . . . . . . . Planification de linterface SCSI virtuelle. . . . . . . . . . . . . . . . . Temps dattente de linterface SCSI virtuelle . . . . . . . . . . . . . . Bande passante de linterface SCSI virtuelle. . . . . . . . . . . . . . . Considrations sur le dimensionnement de linterface SCSI virtuelle . . . . . . Planification des cartes Ethernet partages . . . . . . . . . . . . . . . . Configuration requise pour le rseau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 2 3 5 7 9 11 12 13 13 13 16 17 18 18 18 18 19 20 20 22 23 23 25 25 25 26 26 29 31 36 37 38 41 42 42 44 46 49 51 54 54 55 56 56 56 57 58 60 60

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . client . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

iii

Slection de cartes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Allocation de processeur . . . . . . . . . . . . . . . . . . . . . . . . . . . Allocation de mmoire . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration requise pour la mmoire partage . . . . . . . . . . . . . . . . . . . . . Remarques relatives la redondance . . . . . . . . . . . . . . . . . . . . . . . . . Partitions logiques client . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fonction MPIO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fonction miroir des partitions logiques client . . . . . . . . . . . . . . . . . . . . Multitraitement HACMP . . . . . . . . . . . . . . . . . . . . . . . . . . . Units dagrgation de liaisons ou EtherChannel . . . . . . . . . . . . . . . . . . . Reprise par transfert de carte Ethernet partage . . . . . . . . . . . . . . . . . . . Partition logique Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . Fonction multi-path (multi-accs) . . . . . . . . . . . . . . . . . . . . . . . . RAID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Units dagrgation de liaisons ou EtherChannel . . . . . . . . . . . . . . . . . . . Configuration de la redondance laide de cartes Fibre Channel virtuelles . . . . . . . . . . . Remarques sur la scurit . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation de Virtual I/O Server et des partitions logiques client . . . . . . . . . . . . . . . . Installation de Virtual I/O Server et des partitions logiques client en dployant une planification systme. . Saisie du code dactivation de PowerVM Editions via la console HMC version 7 . . . . . . . . . Importation dune planification systme dans une console HMC . . . . . . . . . . . . . . Dploiement dune planification systme via la console HMC . . . . . . . . . . . . . . . Finalisation de linstallation de Virtual I/O Server . . . . . . . . . . . . . . . . . . . Installation manuelle de Virtual I/O Server via la console HMC version 7 . . . . . . . . . . . . Saisie du code dactivation de PowerVM Editions via la console HMC version 7 . . . . . . . . . Cration de la partition logique et du profil de partition Virtual I/O Server via la console HMC version 7 Installation de Virtual I/O Server partir de la console HMC . . . . . . . . . . . . . . . Installation de Virtual I/O Server partir dun CD ou dun DVD . . . . . . . . . . . . . . Finalisation de linstallation de Virtual I/O Server . . . . . . . . . . . . . . . . . . . Affichage et acceptation du contrat de licence de Virtual I/O Server . . . . . . . . . . . . Rinstallation de Virtual I/O Server pour une partition VIOS de pagination . . . . . . . . . . . . Migration de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . . . Migration de Virtual I/O Server partir de la console HMC . . . . . . . . . . . . . . . . . Migration de Virtual I/O Server partir dune unit DVD . . . . . . . . . . . . . . . . . Configuration de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration dunits SCSI virtuelles sur le serveur Virtual I/O Server . . . . . . . . . . . . . Cration de lunit cible virtuelle sur le serveur Virtual I/O Server . . . . . . . . . . . . . . Cration dune unit cible virtuelle sur un serveur Virtual I/O Server avec mappage vers un volume physique ou logique, une unit de bande ou une unit optique physique. . . . . . . . . . . Cration dune unit cible virtuelle sur un serveur Virtual I/O Server qui mappe un fichier ou un volume logique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cration dune unit cible virtuelle sur un serveur Virtual I/O Server avec mappage vers une unit optique virtuelle associe un fichier. . . . . . . . . . . . . . . . . . . . . . . Dfinition des attributs de rgle de rservation dune unit . . . . . . . . . . . . . . . Cration de pools de stockage de volumes logiques sur un serveur Virtual I/O Server . . . . . . . Cration de pools de stockage de fichiers sur un serveur Virtual I/O Server . . . . . . . . . . Cration du rfrentiel de supports virtuels sur un serveur Virtual I/O Server . . . . . . . . . Cration de volumes logiques et de groupes de volumes sur un serveur Virtual I/O Server . . . . . Configuration de Virtual I/O Server pour la prise en charge des fonctions de verrouillage SCSI-2 . . . Identification des disques exportables . . . . . . . . . . . . . . . . . . . . . . . Configuration dunits Ethernet virtuelles sur le serveur Virtual I/O Server . . . . . . . . . . . Cration dune carte Ethernet virtuelle via la console HMC version 7. . . . . . . . . . . . . Configuration dune carte Ethernet partage . . . . . . . . . . . . . . . . . . . . . Configuration dune unit dagrgation de liaisons ou EtherChannel . . . . . . . . . . . . . Affectation de la carte Fibre Channel virtuelle une carte Fibre Channel physique . . . . . . . . . Configuration des agents et des clients Tivoli sur le serveur Virtual I/O Server . . . . . . . . . . Configuration de lagent Tivoli Monitoring . . . . . . . . . . . . . . . . . . . . . Configuration de lagent Tivoli Usage and Accounting Manager . . . . . . . . . . . . . . Configuration du client Tivoli Storage Manager . . . . . . . . . . . . . . . . . . . . Configuration des agents TotalStorage Productivity Center . . . . . . . . . . . . . . . . Configuration de lagent Director . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

62 64 66 67 68 69 69 70 70 71 71 72 72 73 73 73 76 77 77 78 78 80 83 84 84 84 85 86 88 88 89 90 91 92 94 94 95

. 95 . 97 . 99 100 101 102 102 103 103 105 106 106 108 111 111 113 113 115 116 117 119

. . . . . . . . . . . . . . . . . .

iv

Virtual I/O Server

Configuration de Virtual I/O Server en tant que client LDAP . . . . . . . . . . . . . . . . Configuration de Virtual I/O Server pour les systmes POWER6 . . . . . . . . . . . . . . . Gestion du serveur Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . Gestion de la mmoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Importation et exportation de groupes de volumes et de pools de stockage de volumes logiques . . . Importation de groupes de volumes et de pools de stockage de volumes logiques . . . . . . . Exportation de groupes de volumes et de pools de stockage de volumes logiques . . . . . . . Mappage de disques virtuels sur des disques physiques . . . . . . . . . . . . . . . . . Augmentation de la capacit de lunit . . . . . . . . . . . . . . . . . . . . . . . Modification de la longueur de file dattente de linterface SCSI virtuelle . . . . . . . . . . . Sauvegarde et restauration de fichiers et de systmes de fichiers . . . . . . . . . . . . . . Gestion du stockage laide d TotalStorage Productivity Center . . . . . . . . . . . . . . Gestion des rseaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modification de la configuration rseau de la partition logique Virtual I/O Server . . . . . . . . Activation et dsactivation du protocole GVRP . . . . . . . . . . . . . . . . . . . . Gestion du protocole SNMP sur le serveur Virtual I/O Server . . . . . . . . . . . . . . . Mise niveau de Virtual I/O Server de IPv4 vers IPv6 . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server. . . . . . . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server sur bande . . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server sur un ou plusieurs DVD . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server sur un systme de fichiers distant via un fichier nim_resources.tar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server sur un systme de fichiers distant via une image mksysb . . Sauvegarde des units virtuelles dfinies par lutilisateur . . . . . . . . . . . . . . . . . Planification des sauvegardes de Virtual I/O Server . . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server laide du gestionnaire Tivoli Storage Manager . . . . . Sauvegarde du serveur Virtual I/O Server laide de la fonction automatise du gestionnaire Tivoli Storage Manager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sauvegarde du serveur Virtual I/O Server laide de la sauvegarde incrmentielle du gestionnaire Tivoli Storage Manager . . . . . . . . . . . . . . . . . . . . . . . . . . . Restauration de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . Restauration de Virtual I/O Server partir dune bande magntique . . . . . . . . . . . . . Restauration de Virtual I/O Server partir dun ou plusieurs DVD . . . . . . . . . . . . . Restauration de Virtual I/O Server partir dun fichier nim_resources.tar via la console HMC . . . . Restauration de Virtual I/O Server via un serveur NIM partir dun fichier mksysb . . . . . . . Restauration des units virtuelles dfinies par lutilisateur . . . . . . . . . . . . . . . . Restauration de Virtual I/O Server avec Tivoli Storage Manager . . . . . . . . . . . . . . Installation ou remplacement dune carte PCI sur le serveur Virtual I/O Server lorsque le systme est sous tension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Guide dinitiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Installation dune carte PCI. . . . . . . . . . . . . . . . . . . . . . . . . . . Remplacement dune carte PCI . . . . . . . . . . . . . . . . . . . . . . . . . Annulation de la configuration dune carte de mmoire . . . . . . . . . . . . . . . . . Prparation des partitions logiques client . . . . . . . . . . . . . . . . . . . . . . Arrt des partitions logiques . . . . . . . . . . . . . . . . . . . . . . . . . . Affichage des informations et des statistiques sur le serveur Virtual I/O Server, sur le serveur et sur les ressources virtuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Surveillance de Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . . . Scurit sur le serveur Virtual I/O Server . . . . . . . . . . . . . . . . . . . . . . . . Connexion au serveur Virtual I/O Server laide dOpenSSH . . . . . . . . . . . . . . . . Configuration du renforcement de la scurit du systme de Virtual I/O Server . . . . . . . . . . Dfinition dun niveau de scurit . . . . . . . . . . . . . . . . . . . . . . . . Modification des paramtres dans un niveau de scurit . . . . . . . . . . . . . . . . . Affichage des paramtres de scurit en cours . . . . . . . . . . . . . . . . . . . . Suppression des paramtres de niveau de scurit . . . . . . . . . . . . . . . . . . . Configuration des paramtres du pare-feu du serveur Virtual I/O Server . . . . . . . . . . . . Configuration dun client Kerberos sur le serveur Virtual I/O Server . . . . . . . . . . . . . . Gestion des utilisateurs sur le serveur Virtual I/O Server. . . . . . . . . . . . . . . . . . Identification et rsolution des incidents lis au serveur Virtual I/O Server. . . . . . . . . . . . . Identification et rsolution des incidents lis la partition logique Virtual I/O Server . . . . . . . . Identification et rsolution des problmes lis linterface SCSI virtuelle . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

119 120 121 121 121 121 122 123 125 126 127 128 128 128 129 129 130 131 132 132 133 134 135 136 137

. 137 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 138 139 140 140 141 142 143 144 144 145 145 146 147 148 148 149 150 151 154 154 154 154 155 155 155 156 157 157 158

Table des matires

Rsolution de lchec de configuration dune carte Ethernet partage . . . . . . Rsolution des incidents de connectivit Ethernet . . . . . . . . . . . . Activation des shells non interactifs sur Virtual I/O Server, version 1.3 ou suprieure Rcupration lorsque les disques sont introuvables . . . . . . . . . . . . . Identification et rsolution des incidents relatifs aux partitions logiques client AIX . . Informations de rfrence pour Virtual I/O Server . . . . . . . . . . . . . . Description des commandes du serveur Virtual I/O Server et du gestionnaire Integrated Manager . . . . . . . . . . . . . . . . . . . . . . . . . . . Configuration des attributs des agents et des clients Tivoli . . . . . . . . . . Statistiques sur le protocole GVRP . . . . . . . . . . . . . . . . . . Attributs du rseau . . . . . . . . . . . . . . . . . . . . . . . Statistiques sur la reprise par transfert dune carte Ethernet partage . . . . . . . Statistiques relatives une carte Ethernet partage . . . . . . . . . . . . . Types dutilisateur pour le serveur Virtual I/O Server . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Virtualization . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

158 159 160 161 162 164 164 164 167 173 183 191 197

Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
Documentation sur linterface de programmation . Marques . . . . . . . . . . . . . . . Dispositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 . 201 . 201

vi

Virtual I/O Server

Avis aux lecteurs canadiens


Le prsent document a t traduit en France. Voici les principales diffrences et particularits dont vous devez tenir compte. Illustrations Les illustrations sont fournies titre dexemple. Certaines peuvent contenir des donnes propres la France. Terminologie La terminologie des titres IBM peut diffrer dun pays lautre. Reportez-vous au tableau ci-dessous, au besoin.
IBM France ingnieur commercial agence commerciale ingnieur technico-commercial inspecteur IBM Canada reprsentant succursale informaticien technicien du matriel

Claviers Les lettres sont disposes diffremment : le clavier franais est de type AZERTY, et le clavier franais-canadien, de type QWERTY. OS/2 - Paramtres canadiens Au Canada, on utilise : v les pages de codes 850 (multilingue) et 863 (franais-canadien), v le code pays 002, v le code clavier CF. Nomenclature Les touches prsentes dans le tableau dquivalence suivant sont libelles diffremment selon quil sagit du clavier de la France, du clavier du Canada ou du clavier des tats-Unis. Reportez-vous ce tableau pour faire correspondre les touches franaises figurant dans le prsent document aux touches de votre clavier.

vii

Recommandations lutilisateur Ce matriel utilise et peut mettre de lnergie radiofrquence. Il risque de parasiter les communications radio et tlvision sil nest pas install et utilis conformment aux instructions du constructeur (instructions dutilisation, manuels de rfrence et manuels dentretien). Si cet quipement provoque des interfrences dans les communications radio ou tlvision, mettez-le hors tension puis sous tension pour vous en assurer. Il est possible de corriger cet tat de fait par une ou plusieurs des mesures suivantes : v Rorienter lantenne rceptrice ; v Dplacer lquipement par rapport au rcepteur ; v loigner lquipement du rcepteur ; v Brancher lquipement sur une prise diffrente de celle du rcepteur pour que ces units fonctionnent sur des circuits distincts ; v Sassurer que les vis de fixation des cartes et des connecteurs ainsi que les fils de masse sont bien serrs ; v Vrifier la mise en place des obturateurs sur les connecteurs libres. Si vous utilisez des priphriques non IBM avec cet quipement, nous vous recommandons dutiliser des cbles blinds mis la terre, travers des filtres si ncessaire. En cas de besoin, adressez-vous votre dtaillant. Le fabricant nest pas responsable des interfrences radio ou tlvision qui pourraient se produire si des modifications non autorises ont t effectues sur lquipement.

viii

Virtual I/O Server

Lobligation de corriger de telles interfrences incombe lutilisateur. Au besoin, lutilisateur devrait consulter le dtaillant ou un technicien qualifi pour obtenir de plus amples renseignements. Brevets Il est possible quIBM dtienne des brevets ou quelle ait dpos des demandes de brevets portant sur certains sujets abords dans ce document. Le fait quIBM vous fournisse le prsent document ne signifie pas quelle vous accorde un permis dutilisation de ces brevets. Vous pouvez envoyer, par crit, vos demandes de renseignements relatives aux permis dutilisation au directeur gnral des relations commerciales dIBM, 3600 Steeles Avenue East, Markham, Ontario, L3R 9Z7. Assistance tlphonique Si vous avez besoin dassistance ou si vous voulez commander du matriel, des logiciels et des publications IBM, contactez IBM direct au 1 800 465-1234.

Avis aux lecteurs canadiens

ix

Virtual I/O Server

Virtual I/O Server


Grez Virtual I/O Server et les partitions logiques client laide de la console HMC et de linterface de ligne de commande du serveur Virtual I/O Server. La fonction PowerVM Editions inclut le support dinstallation du logiciel Virtual I/O Server. Virtual I/O Server simplifie le partage des ressources dE-S physiques entre les partitions logiques client au sein du serveur. Si vous installez Virtual I/O Server sur une partition logique dun systme gr via la console HMC, vous pouvez utiliser la console HMC et linterface de ligne de commande Virtual I/O Server pour grer le serveur Virtual I/O Server et les partitions logiques client. Si vous installez Virtual I/O Server sur un systme gr sans connexion une console HMC, lorsque vous installez Virtual I/O Server la partition logique Virtual I/O Server devient la partition de gestion. Celle-ci inclut linterface Web de gestion de systme Integrated Virtualization Manager et une interface de ligne de commande que vous pouvez utiliser pour grer le systme. Information associe PowerVM Information Roadmap Integrated Virtualization Manager Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes

Virtual I/O Server - Nouveauts


Prenez connaissance des nouveauts et modifications significatives de la rubrique Virtual I/O Server depuis la dernire mise jour de cette collection.

Mai 2009
La documentation a fait lobjet des mises jour suivantes : v Vous pouvez utiliser linterface graphique de la console HMC version 7 dition 3.4.2 ou ultrieure pour effectuer diverses tches relatives la mmoire virtuelle et au rseau pour un serveur Virtual I/O Server. Dans les versions prcdentes, vous deviez effectuer ces tches dans linterface de ligne de commande de Virtual I/O Server. Les tches suivantes ont t mises jour et contiennent dsormais des liens aux instructions concernant linterface graphique de la console HMC, lorsque appropri. Cration dune unit cible virtuelle sur un serveur Virtual I/O Server Cration de pools de stockage de volumes logiques sur un serveur Virtual I/O Server Cration de pools de stockage de fichiers sur un serveur Virtual I/O Server Cration du rfrentiel de supports virtuels sur un serveur Virtual I/O Server Cration de volumes logiques et de groupes de volumes sur un serveur Virtual I/O Server Configuration dune carte Ethernet partage Affectation de la carte Fibre Channel virtuelle une carte Fibre Channel physique

Augmentation de la capacit de lunit v La mmoire du pool de mmoire partage peut tre partage entre plusieurs partitions logiques via la technologie PowerVM Active Memory Sharing (ou mmoire partage). Une partition logique Virtual I/O Server (VIOS) qui est affecte au pool de mmoire partage (appele ici partition VIOS de pagination) permet daccder aux units despace de pagination des partitions logiques qui sont affectes au pool de mmoire partage. Les informations suivantes concernant la mmoire partage sont nouvelles :

Mmoire partage Partition VIOS de pagination Configuration requise pour la partition VIOS de pagination Pour plus dinformations sur les nouveauts concernant la mmoire partage, voir Partitions logiques Nouveauts.

Novembre 2008
v La technologie de virtualisation NPIV (N_Port ID Virtualization) et les cartes Fibre Channel virtuelles permettent de configurer le systme gr de sorte que plusieurs partitions logiques puissent accder la mmoire physique indpendante par lintermdiaire de la mme carte Fibre Channel physique. Les informations suivantes concernant les cartes Fibre Channel virtuelles sont nouvelles : Connexion optique virtuelle Configuration dune carte Fibre Channel virtuelle Affectation de la carte Fibre Channel virtuelle une carte Fibre Channel physique, la page 111 Gestion de carte virtuelle Fiber Channel laide du gestionnaire Integrated Virtualization Manager Configuration de la redondance laide de cartes Fibre Channel virtuelles

Prsentation du serveur Virtual I/O Server


Dcouvrez les concepts de Virtual I/O Server et ses composants principaux. Le logiciel Virtual I/O Server se trouve sur une partition logique. Ce logiciel facilite le partage des ressources dE-S physiques entre des partitions logiques client au sein du serveur. Virtual I/O Server met disposition une cible SCSI, une connexion optique virtuelle, une carte Ethernet partage et la fonction PowerVM Active Memory Sharing pour les partitions logiques client du systme. Ainsi, les partitions logiques client peuvent partager des units SCSI, des cartes Fibre Channel et des cartes Ethernet et augmenter la quantit de mmoire dont les partitions logiques peuvent disposer avec des units despace de pagination. Le logiciel Virtual I/O Server requiert que la partition logique soit ddie uniquement son utilisation. Virtual I/O Server fait partie du dispositif matriel PowerVM Editions. Lutilisation de Virtual I/O Server facilite les oprations suivantes : v Partage des ressources physiques entre les partitions logiques du systme v Cration de partitions logiques sans utiliser des ressources dE-S physiques supplmentaires v Cration dun nombre plus lev de partitions logiques que demplacements dE-S ou dunits physiques avec la possibilit pour les partitions logiques de disposer dE-S ddies et/ou dE-S virtuelles v Optimisation de lutilisation des ressources physiques du systme v Rduction de linfrastructure de rseau de systmes (SAN) Information associe Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes

Prise en charge de systme dexploitation pour les partitions logiques client VIOS
Virtual I/O Server prend en charge les partitions logiques client qui excutent les systmes dexploitation suivants sur les serveurs quips du processeur POWER6 ci-aprs.

Virtual I/O Server

Tableau 1. Prise en charge de systme dexploitation pour les partitions logiques client du serveur Virtual I/O Server Systme dexploitation AIX 5.3 ou version ultrieure SUSE Linux Enterprise Server 10 Service Pack 2 ou suprieur SUSE Linux Enterprise Server 10 Service Pack 1

Serveurs base de processeurs POWER6 Tous les serveurs quips du processeur POWER6 v 19F/HA v 25F/2A v 03E/4A v 04E/8A v 17M/MA

Red Hat Enterprise Linux version 5.2

v 19F/HA v 25F/2A

Red Hat Enterprise Linux version 5.1

v 03E/4A v 04E/8A v 17M/MA

Red Hat Enterprise Linux version 4.7 Red Hat Enterprise Linux version 4.6 Red Hat Enterprise Linux version 4.5

19F/HA 25F/2A v 03E/4A v 04E/8A v 17M/MA

Composants de Virtual I/O Server


Cette rubrique prsente brivement les cartes SCSI virtuelles, le rseau virtuel et Integrated Virtualization Manager. Les principaux composants de Virtual I/O Server sont les suivants : v Cartes SCSI virtuelles v Rseaux virtuels v Integrated Virtualization Manager Les sections suivantes prsentent brivement chaque composant.

Cartes SCSI virtuelles


Les cartes physiques, et les units de disque ou les units optiques connectes la partition logique Virtual I/O Server peuvent tre partages par une ou plusieurs partitions logiques client. Virtual I/O Server constitue un sous-systme de stockage local qui fournit des numros dunit logique (LUN) compatibles avec SCSI. Virtual I/O Server peut exporter un pool de mmoire physique htrogne en tant que pool homogne de mmoire de bloc sous la forme de disques SCSI. Contrairement aux sous-systmes de stockage classiques qui se trouvent physiquement sur le rseau de systmes (SAN), les units SCSI exportes par le serveur Virtual I/O Server sont limites au domaine du serveur. Bien que les numros dunit logique (LUN) SCSI soient compatibles avec SCSI, ils risquent de ne pas rpondre aux besoins de toutes les applications, notamment celles qui se trouvent dans un environnement rparti. Les types dunit de priphrique SCSI sont pris en charge : v Disque sauvegard par un volume logique v Disque sauvegard par un volume physique
Virtual I/O Server

v v v v

Disque sauvegard par un fichier Units optiques (DVD-RAM et DVD-ROM) Units optiques sauvegardes par des fichiers Units de bande

Rseaux virtuels
Virtual I/O Server fournit les technologies de rseaux virtuels qui suivent.
Tableau 2. Technologies de rseaux virtuels sur le serveur Virtual I/O Server Technologies de rseaux virtuels Carte Ethernet partage Description Une carte Ethernet partage est une passerelle Ethernet de couche 2 qui connecte entre eux les rseaux physiques. Elle permet aux partitions logiques du rseau local virtuel (VLAN) de partager laccs une carte Ethernet physique et de communiquer avec des systmes situs hors du serveur. Avec une carte Ethernet partage, les partitions logiques du rseau local virtuel (VLAN) interne peuvent partager le rseau VLAN avec des serveurs autonomes. Sur les systmes reposant sur un processeur POWER6, vous pouvez affecter un port Ethernet hte logique dune carte Ethernet hte logique, parfois appele carte Ethernet virtuelle intgre, en tant que carte relle dune carte Ethernet partage. Une carte Ethernet hte est une carte Ethernet physique directement intgre au bus GX+ sur un systme gr. Les cartes de rseau Ethernet htes offrent un dbit lev, une faible latence et le support de la virtualisation pour les connexions Ethernet. La carte Ethernet partage de Virtual I/O Server prend en charge IPv6. IPv6 est le protocole IP de future gnration et remplace graduellement la norme Internet actuelle, Internet Protocol version 4 (IPv4). La principale amlioration dIPv6 est lextension de lespace adresse IP de 32 128 bits, offrant un nombre dadresses IP uniques pratiquement illimit. Reprise par transfert de carte Ethernet partage La fonction de reprise par transfert de carte Ethernet partage assure la redondance, car elle permet de configurer une carte Ethernet partage de secours sur une autre partition logique Virtual I/O Server, laquelle peut tre utilise en cas de dfaillance de la carte Ethernet partage principale. La connectivit rseau des partitions logiques client est maintenue, sans interruption. Une unit dagrgation de liaisons (ou EtherChannel) est une technologie de regroupement de ports rseau permettant de regrouper plusieurs cartes Ethernet. Les cartes constituent alors une unit Ethernet unique. agrgation de liaisons offre un meilleur dbit via une seule adresse IP que ne le permettrait une seule carte Ethernet. Les rseaux locaux virtuels (VLAN) permettent de segmenter le rseau physique de manire logique.

agrgation de liaisons (ou EtherChannel)

Rseaux locaux virtuels (VLAN)

Virtual I/O Server

Integrated Virtualization Manager


Le gestionnaire Integrated Virtualization Manager est dot dune interface Web et dune interface de ligne de commande qui permettent de grer certains serveurs qui utilisent le serveur Virtual I/O Server. Sur le systme gr, vous pouvez crer des partitions logiques, grer les oprations de stockage virtuel et les cartes de rseau Ethernet virtuelles, et afficher des informations relatives au serveur. Integrated Virtualization Manager est fourni avec le serveur Virtual I/O Server, mais il est activ et utilisable uniquement sur certaines plateformes, et ce lorsquaucune console HMC (Hardware Management Console) nest prsente.

Connexion optique virtuelle


Grce NPIV (N_Port ID Virtualization), vous pouvez configurer le systme gr de sorte que plusieurs partitions logiques puissent accder la mmoire physique indpendante par lintermdiaire de la mme carte Fibre Channel physique. Pour accder la mmoire physique dun rseau de systmes (SAN) typique utilisant le canal optique, la mmoire physique est mappe aux units logiques (LUN), lesquelles tant mappes aux ports des cartes Fibre Channel physiques. Chacun de ces ports est identifi par un nom de port universel (WWPN). NPIV est une technologie standard destine aux rseaux canal optique, permettant de connecter plusieurs partitions logiques un port physique de la carte Fibre Channel physique. Chaque partition logique est identifie par un WWPN unique, ce qui signifie que vous avez la possibilit de connecter chaque partition logique la mmoire physique indpendante dun rseau SAN. Pour activer NPIV sur le systme gr, vous devez crer une partition logique Virtual I/O Server (version 2.1 ou ultrieure) offrant les ressources virtuelles aux partitions logiques clients. Vous attribuez les cartes Fibre Channel physiques (prenant en charge NPIV) la partition logique Virtual I/O Server. Ensuite, vous connectez les cartes Fibre Channel virtuelles des partitions logiques clients celles de la partition logique Virtual I/O Server. Une carte Fibre Channel virtuelle est une carte virtuelle dotant les partitions logiques clients dune connexion Fibre Channel au rseau de systmes, par lintermdiaire de la partition logique Virtual I/O Server. La partition logique Virtual I/O Server assure la connexion entre les cartes Fibre Channel virtuelles de la partition logique Virtual I/O Server et les cartes Fibre Channel physiques du systme gr. La figure ci-dessous illustre un systme gr configur pour utiliser NPIV.

Virtual I/O Server

La figure illustre les connexions suivantes : v Un rseau de systmes (SAN) connecte trois units de mmoire physique une carte Fibre Channel physique du systme gr. Cette carte est attribue au Virtual I/O Server et prend en charge NPIV. v La carte Fibre Channel physique se connecte trois cartes Fibre Channel virtuelles Virtual I/O Server. Les cartes virtuelles Virtual I/O Server se connectent au mme port physique de la carte Fibre Channel physique. v Chaque carte Fibre Channel virtuelle du serveur Virtual I/O Server se connecte une carte Fibre Channel virtuelle de la partition logique client. Chaque carte Fibre Channel virtuelle de chaque partition logique client reoit une paire de WWPN uniques. La partition logique client utilise un WWPN pour se connecter tout moment au rseau SAN. Lautre WWPN est utilis pour dplacer la partition logique client vers un autre systme gr. Grce leurs WWPN uniques et aux connexions Fibre Channel virtuelles la carte Fibre Channel physique, les systmes dexploitation quipant les partitions logiques clients peuvent reconnatre, instancier et grer leur mmoire physique se trouvant sur le rseau SAN. Dans la figure prcdente, les partitions logiques clients 1, 2 et 3 accdent respectivement aux mmoires physiques 1, 2 et 3. Virtual I/O Server ne pouvant pas y accder, il nmule pas la mmoire physique laquelle les partitions logiques clients ont accs. Virtual I/O Server fournit aux partitions logiques client une connexion aux cartes Fibre Channel physiques du systme gr. Les cartes Fibre Channel virtuelles des partitions logiques clients et celles de la partition logique Virtual I/O Server entretiennent toujours une relation univoque. En dautres termes, chaque carte Fibre Channel virtuelle dune partition logique client doit se connecter une seule carte Fibre Channel virtuelle de la partition logique Virtual I/O Server, et inversement. Grce aux outils SAN, vous pouvez diviser en zones et masquer les units logiques contenant des WWPN attribus des cartes Fibre Channel virtuelles sur des partitions logiques clients. Le rseau SAN

Virtual I/O Server

utilise les WWPN attribus aux cartes Fibre Channel virtuelles de la partition logique client de la mme manire que les WWPN attribus aux ports physiques. Vous pouvez configurer des cartes Fibre Channel virtuelles sur des partitions logiques clients dotes des systmes dexploitation suivants : v AIX version 6.1 avec niveau technologique 2 ou ultrieur v AIX 5.3 avec niveau technologique 9 v SUSE Linux Enterprise Server 11 ou suprieur Concepts associs Configuration de la redondance laide de cartes Fibre Channel virtuelles, la page 73 Les configurations de la redondance permettent de protger votre rseau contre les dfaillances de carte physique et les dfaillances de Virtual I/O Server.

Connexion optique virtuelle pour les systmes grs par la console HMC
Sur les systmes grs par la console HMC (Hardware Management Console), vous pouvez dplacer de manire dynamique des cartes Fibre Channel virtuelles partir de la partition logique Virtual I/O Server et de chaque partition logique client. Vous pouvez galement afficher les informations relatives aux cartes Fibre Channel virtuelles et physiques et aux noms de port universels (WWPN) laide des commandes du serveur Virtual I/O Server. Pour activer NPIV (N_Port ID Virtualization) sur le systme gr, il suffit de crer les cartes Fibre Channel virtuelles et les connexions requises comme suit : v Vous pouvez utiliser la console HMC pour crer des cartes Fibre Channel virtuelles sur la partition logique Virtual I/O Server et les associer celles des partitions logiques clients. v Vous pouvez utiliser la console HMC pour crer des cartes Fibre Channel virtuelles sur chaque partition logique client et les associer celles de la partition logique Virtual I/O Server. Lorsque vous crez une carte Fibre Channel virtuelle sur une partition logique client, la console HMC gnre une paire de WWPN uniques pour la carte Fibre Channel virtuelle client. v Vous connectez les cartes Fibre Channel virtuelles du serveur Virtual I/O Server aux ports physiques de la carte Fibre Channel physique en excutant la commande vfcmap sur le serveur Virtual I/O Server. La console HMC gnre des WWPN en fonction de la plage de noms disponibles utiliser avec le prfixe dans les donnes techniques essentielles du systme gr. Le prfixe 6 chiffres est donn lors de lachat du systme gr et comporte 32 000 paires de WWPN. Lorsque vous supprimez une carte Fibre Channel virtuelle dune partition logique client, lhyperviseur supprime ses WWPN. La console HMC ne rutilise pas les WWPN supprims lors de la gnration de WWPN pour les cartes Fibre Channel virtuelles suivantes. Si vous ne disposez pas de WWPN, vous devez vous procurer un code dactivation contenant un autre prfixe avec 32 000 autres paires de WWPN. Pour viter que la carte Fibre Channel physique ne soit un point unique de dfaillance pour la connexion entre la partition logique client et sa mmoire physique sur le rseau SAN, ne connectez pas deux cartes Fibre Channel virtuelles entre la mme partition logique client et la mme carte Fibre Channel physique. Prfrez plutt connecter chaque carte Fibre Channel virtuelle une carte Fibre Channel physique diffrente. Vous pouvez dplacer de manire dynamique des cartes Fibre Channel virtuelles de la partition logique Virtual I/O Server et des partitions logiques clients.

Virtual I/O Server

Tableau 3. Tches de partitionnement logique dynamique et rsultats pour les cartes Fibre Channel Depuis ou vers une partition Ajout ou suppression dynamique de logique client ou une partition la carte Fibre Channel virtuelle logique Virtual I/O Server Ajout dune carte Fibre Channel virtuelle Ajout dune carte Fibre Channel virtuelle Retrait dune carte Fibre Channel virtuelle A une partition logique client

Rsultat La console HMC gnre une paire de WWPN uniques pour la carte Fibre Channel virtuelle. Vous devez connecter la carte Fibre Channel virtuelle au port physique dune carte Fibre Channel physique. v Lhyperviseur supprime les WWPN et ne les rutilise pas. v Vous devez retirer la carte Fibre Channel virtuelle associe du serveur Virtual I/O Server ou lassocier une autre carte Fibre Channel virtuelle dune partition logique client.

A une partition logique Virtual I/O Server Dune partition logique client

Retrait dune carte Fibre Channel virtuelle

Dune partition logique Virtual I/O Server

v Virtual I/O Server supprime la connexion au port physique de la carte Fibre Channel physique. v Vous devez retirer la carte Fibre Channel virtuelle associe de la partition logique client ou lassocier une autre carte Fibre Channel virtuelle de la partition logique Virtual I/O Server.

Le tableau ci-dessous rpertorie les commandes du serveur Virtual I/O Server permettant dafficher les informations relatives aux cartes Fibre Channel.
Tableau 4. Commandes du serveur Virtual I/O Server permettant dafficher les informations relatives aux cartes Fibre Channel Commande Virtual I/O Server lsmap Informations affiches par la commande v Affiche les cartes Fibre Channel virtuelles du serveur Virtual I/O Server connectes la carte Fibre Channel physique v Affiche les attributs des cartes Fibre Channel virtuelles des partitions logiques clients associes aux cartes Fibre Channel virtuelles du serveur Virtual I/O Server connectes la carte Fibre Channel physique lsnports Affiche les informations relatives aux ports physiques des cartes Fibre Channel physiques prenant en charge NPIV, notamment : v Le nom et le code demplacement du port physique v Le nombre de ports physiques disponibles v Le nombre total de WWPN que peut prendre en charge le port physique v Si les commutateurs auxquels les cartes Fibre Channel physiques sont connectes prennent en charge NPIV

Virtual I/O Server

Vous pouvez galement excuter la commande lshwres sur la console HMC pour afficher le nombre restant de WWPN et le prfixe utilis pour les gnrer.

Connexion optique virtuelle pour les systmes grs par IVM


Sur les systmes grs par le gestionnaire IVM (Integrated Virtualization Manager), vous pouvez ajouter dynamiquement aux partitions logiques des noms de port universel (WWPN) et les en retirer, et vous pouvez changer de faon dynamique les ports physiques auxquels ces noms WWPN sont affects. Vous pouvez galement afficher les informations concernant les cartes Fibre Channel virtuelles et physiques laide des commandes lsmap et lsnports. Pour activer NPIV (N_Port ID Virtualization) sur le systme gr, il suffit de crer une paire de noms WWPN pour une partition logique et daffecter directement la paire aux ports physiques des cartes Fibre Channel physiques. Vous pouvez affecter plusieurs partitions logiques un mme port physique en affectant une paire de noms WWPN chaque partition logique du mme port physique. Lorsque vous attribuez une paire de noms WWPN une partition logique, le gestionnaire IVM cre automatiquement les connexions suivantes : v Le gestionnaire IVM cre une carte Fibre Channel virtuelle sur la partition de gestion et lassocie celle de la partition logique. v Le gestionnaire IVM gnre une paire de noms WWPN uniques et cre une carte Fibre Channel virtuelle sur la partition logique client. Il affecte les WWPN la carte Fibre Channel virtuelle de la partition logique client, puis associe celle-ci la carte Fibre Channel virtuelle de la partition de gestion. Lorsque vous affectez des noms WWPN dune partition logique un port physique, le gestionnaire IVM connecte la carte Fibre Channel virtuelle de la partition de gestion au port physique de la carte Fibre Channel physique. Le gestionnaire IVM gnre des WWPN en fonction de la plage de noms disponibles utiliser avec le prfixe dans les donnes techniques essentielles du systme gr. Le prfixe 6 chiffres est donn lors de lachat du systme gr et comporte 32 768 paires de WWPN. Lorsque vous supprimez la connexion entre une partition logique et un port physique, lhyperviseur supprime les WWPN attribus la carte Fibre Channel virtuelle de la partition logique. Le gestionnaire IVM ne rutilise pas les WWPN supprims lors de la gnration de WWPN pour les cartes Fibre Channel virtuelles suivantes. Si vous ne disposez pas de WWPN, vous devez vous procurer un code dactivation contenant un autre prfixe avec 32 768 paires de WWPN. Pour viter que la carte Fibre Channel physique ne soit un point unique de dfaillance pour la connexion entre la partition logique et sa mmoire physique sur le rseau SAN, nattribuez pas deux fois une partition logique une carte Fibre Channel physique. Par exemple, naffectez pas une paire WWPN dune partition logique au port physique dune carte Fibre Channel physique pour ensuite affecter une autre paire WWPN de la mme partition logique un autre port physique de la mme carte Fibre Channel physique. Prfrez plutt affecter les paires WWPN de chaque partition logique une carte Fibre Channel physique diffrente. Pour pouvez ajouter des paires WWPN dune nouvelle partition logique sans les affecter un port physique. La possibilit de gnrer des noms WWPN indpendamment de laffectation un port physique pour une partition logique permet de communiquer ces noms ladministrateur de rseau de systmes (SAN). Celui-ci peut ainsi configurer la connexion au rseau de systmes de faon approprie pour que la partition logique puisse se connecter au rseau SAN quel que soit le port physique utilis par la partition pour la connexion. Vous pouvez ajouter dynamiquement une paire WWPN une partition logique ou len retirer. Vous pouvez galement changer de faon dynamique le port physique affect une paire WWPN.

Virtual I/O Server

Tableau 5. Tches de partitionnement logique dynamique et rsultats Action Ajout dynamique dune paire WWPN une partition logique Rsultat v Le gestionnaire IVM cre une carte Fibre Channel virtuelle sur la partition de gestion et lassocie celle de la partition logique. v Le gestionnaire IVM gnre une paire de noms WWPN uniques et cre une carte Fibre Channel virtuelle sur la partition logique. Il attribue les WWPN la carte Fibre Channel virtuelle de la partition logique, puis lassocie la carte Fibre Channel virtuelle de la partition de gestion. Affectation dynamique dune paire WWPN un port physique Retrait dynamique dune paire WWPN dune partition logique Le gestionnaire IVM connecte la carte Fibre Channel virtuelle de la partition de gestion au port physique de la carte Fibre Channel physique. v Le gestionnaire IVM supprime la connexion entre la carte Fibre Channel virtuelle de la partition de gestion et le port physique de la carte Fibre Channel physique. v Le gestionnaire IVM supprime la carte Fibre Channel virtuelle de la partition de gestion. v Le gestionnaire IVM supprime la carte Fibre Channel virtuelle de la partition logique. Le gestionnaire IVM supprime les WWPN et ne les rutilise pas. Changement dynamique de laffectation de port physique dune paire WWPN Le gestionnaire IVM remplace la connexion de la carte Fibre Channel virtuelle sur la partition de gestion par celle au port physique nouvellement affect. Lorsque vous changez le port physique par une valeur nulle, le gestionnaire IVM conserve la carte Fibre Channel virtuelle sur la partition de gestion mais supprime la connexion au port physique sur la carte Fibre Channel physique. Si vous raffectez ultrieurement un port physique la paire WWPN, le gestionnaire IVM rutilise la carte Fibre Channel virtuelle dorigine sur la partition de gestion pour le port physique nouvellement affect.

Le tableau ci-dessous rpertorie les commandes du serveur Virtual I/O Server permettant dafficher les informations relatives aux cartes Fibre Channel.
Tableau 6. Commandes du serveur Virtual I/O Server permettant dafficher les informations relatives aux cartes Fibre Channel Commande Virtual I/O Server lsmap Informations affiches par la commande v Affiche les cartes Fibre Channel virtuelles du serveur Virtual I/O Server connectes la carte Fibre Channel physique v Affiche les attributs des cartes Fibre Channel virtuelles des partitions logiques clients associes aux cartes Fibre Channel virtuelles du serveur Virtual I/O Server connectes la carte Fibre Channel physique

10

Virtual I/O Server

Tableau 6. Commandes du serveur Virtual I/O Server permettant dafficher les informations relatives aux cartes Fibre Channel (suite) Commande Virtual I/O Server lsnports Informations affiches par la commande Affiche les informations relatives aux ports physiques des cartes Fibre Channel physiques prenant en charge NPIV, notamment : v Le nom et le code demplacement du port physique v Le nombre de ports physiques disponibles v Le nombre total de WWPN que peut prendre en charge le port physique v Si les commutateurs auxquels les cartes Fibre Channel physiques sont connectes prennent en charge NPIV

Interface SCSI virtuelle


Linterface SCSI virtuelle permet aux partitions logiques client de partager lespace de stockage sur disque, les units de bande et les units optiques affects la partition logique Virtual I/O Server. Les disques, les units de bande et les units optiques associs aux cartes physiques dans la partition logique Virtual I/O Server peuvent tre partags par une ou plusieurs partitions logiques client. Le serveur Virtual I/O Server est un sous-systme de stockage standard qui fournit des numros dunit logique (LUN) compatibles avec linterface SCSI standard. Virtual I/O Server est capable dexporter un pool de mmoire physique htrogne en tant que pool homogne de mmoire de bloc sous forme de disques SCSI. Le serveur Virtual I/O Server est un sous-systme de stockage localis. Contrairement aux sous-systmes de stockage classiques qui se trouvent physiquement sur le rseau de systmes (SAN), les units SCSI exportes par le serveur Virtual I/O Server sont limites au domaine du serveur. Par consquent, bien que les numros dunit logique (LUN) SCSI soient compatibles avec SCSI, ils risquent de ne pas rpondre aux besoins de toutes les applications, notamment celles qui se trouvent dans un environnement rparti. Les types dunit SCSI pris en charge sont les suivants : v Disque associ un volume logique v Disque associ un volume physique v v v v Disque associ un fichier Optique (CD-ROM, DVD-RAM et DVD-ROM) DVD-RAM optique associ un fichier Units de bande

Linterface SCSI virtuelle est base sur une relation client/serveur. Virtual I/O Server contient les ressources physiques ainsi que la carte serveur SCSI virtuelle, et joue le rle de serveur ou dunit cible SCSI. Les partitions logiques client comportent un initiateur SCSI appel carte client SCSI virtuelle qui accde aux cibles SCSI virtuelles en tant que numros dunit logique (LUN) SCSI standard. Vous configurez les cartes virtuelles laide de la console HMC ou du gestionnaire Integrated Virtualization Manager. La configuration et la fourniture de ressources de disque virtuel sont effectues par le biais de Virtual I/O Server. Les disques physiques appartenant au Virtual I/O Server peuvent tre exports et affects ensemble une partition logique client ou partitionns en volumes logiques ou fichiers. Les volumes et fichiers logiques peuvent ensuite tre affects diffrentes partitions logiques. Par consquent, linterface SCSI virtuelle permet de partager des cartes et des units de disque. Pour mettre un volume physique, un volume logique ou un fichier la disposition dune partition client, il doit tre affect une carte SCSI virtuelle du serveur Virtual I/O Server. La partition logique client accde aux disques qui lui sont allous via la carte client SCSI virtuelle. La carte client SCSI virtuelle reconnat les units SCSI standard et les numros dunit logique (LUN) via la carte virtuelle.

Virtual I/O Server

11

La figure suivante illustre une configuration SCSI virtuelle standard.

Remarque : Pour que les partitions logiques client puissent accder aux units virtuelles, Virtual I/O Server doit tre pleinement oprationnel.

Prsentation du sous-systme de stockage Virtual I/O Server


Cette rubrique dcrit le sous-systme de stockage Virtual I/O Server. Le sous-systme de stockage Virtual I/O Server est un sous-systme de stockage standard qui fournit des numros dunit logique (LUN) compatibles SCSI standard. Virtual I/O Server est un sous-systme de stockage localis. Contrairement aux sous-systmes de stockage classiques qui se trouvent physiquement sur le rseau de systmes (SAN), les units SCSI exportes par le serveur Virtual I/O Server sont limites au domaine du serveur. linstar des sous-systmes de stockage sur disque classiques, le serveur Virtual I/O Server dispose dune partie front-end et dune partie back-end distinctes. La partie front-end est assure par linterface laquelle les partitions logiques se connectent pour afficher les numros dunit logique (LUN) compatibles SCSI standard. Les units prsentes sur la partie front-end sont appeles units SCSI virtuelles. La partie back-end est compose des ressources de mmoire physique. Ces ressources physiques incluent le stockage sur disque physique, les units SAN et de stockage interne, les units optiques, les units de bande, les volumes logiques et les fichiers. Pour crer une unit virtuelle, vous devez allouer et attribuer une part de mmoire physique une carte serveur SCSI virtuelle. Ce processus cre une instance dunit virtuelle (vtscsiX ou vtoptX). Linstance dunit peut tre considre comme une unit de mappage. Il ne sagit pas dune unit relle, mais plutt dun mcanisme de gestion du mappage de la partie de stockage back-end physique avec lunit SCSI virtuelle front-end. Cette unit de mappage permet de recrer de manire persistante les allocations physiques/virtuelles lors du redmarrage de Virtual I/O Server.

12

Virtual I/O Server

Mmoire physique
Cette rubrique fournit des informations sur la mmoire physique, sur les volumes logiques ainsi que sur les units et configurations prises en charge par Virtual I/O Server. Volumes physiques : Les volumes physiques peuvent tre exports vers des partitions client en tant que disques SCSI virtuels. Virtual I/O Server est capable de rcuprer un pool de stockage de disques physiques htrognes associ et de lexporter en tant que pool de stockage homogne sous forme de numros dunit logique (LUN) de disque SCSI. Virtual I/O Server doit pouvoir identifier prcisment un volume physique chaque redmarrage, mme si un vnement, tel quune reconfiguration de rseau de systmes (SAN) ou un changement de carte a eu lieu. Des attributs de volume physique, tels que le nom, ladresse et lemplacement, peuvent tre modifis aprs un redmarrage du systme en raison dune reconfiguration SAN. Toutefois, Virtual I/O Server doit tre en mesure de dtecter quil sagit de la mme unit et de mettre jour les mappages dunit virtuelle. De ce fait, pour quun volume physique puisse tre export en tant quunit virtuelle, il doit tre dot dun identificateur unique (UDID), dun identificateur physique (PVID) ou dun attribut de volume IEEE. Pour plus dinformations sur la procdure permettant de dterminer si vos disques comportent lun de ces identificateurs, voir Identification des disques exportables, la page 105. Pour grer les volumes physiques, utilisez les commandes ci-aprs.
Tableau 7. Commandes lies aux volumes physiques, accompagnes dune description Commande lie aux volumes physiques lspv Commande migratepv Description Affiche des informations sur un volume physique dans un groupe de volumes. Dplacer les partitions physiques attribues, dun volume physique vers un ou plusieurs volumes physiques.

Volumes logiques : Cette rubrique dcrit le mode dexportation des volumes logiques vers les partitions client en tant que disques SCSI virtuels. Un volume logique est une portion dun volume physique. Une hirarchie de structures est utilise pour grer lespace de stockage sur disque. Chaque unit de disque ou numro dunit logique (LUN), appel volume physique, porte un nom (/dev/hdisk0, par exemple). Chaque volume physique en cours dutilisation appartient un groupe de volumes ou est utilis directement pour le stockage virtuel. Tous les volumes physiques dun groupe de volumes sont diviss en partitions physiques de taille identique. Le nombre de partitions physiques de chaque zone varie en fonction de la capacit totale de lunit de disque. Dans un groupe de volumes sont dfinis un ou plusieurs volumes logiques. Il sagit de groupes dinformations situs sur des volumes physiques. Les donnes des volumes logiques apparaissent comme tant contigus aux yeux de lutilisateur mais peuvent ne pas ltre sur le volume physique. Cela permet de redimensionner ou dplacer les volumes logiques et de rpliquer leur contenu. Chaque volume logique est compos dune ou de plusieurs partitions logiques. Chaque partition logique correspond une partition physique au moins. Bien que les partitions logiques soient numrotes de manire conscutive, les partitions physiques sous-jacentes ne sont pas ncessairement conscutives ou contigus.

Virtual I/O Server

13

Aprs linstallation, le systme est dot dun groupe de volumes (rootvg) compos dun ensemble de volumes logiques de base ncessaire au dmarrage du systme. Vous pouvez utiliser les commandes dcrites dans le tableau suivant pour grer des volumes logiques.
Tableau 8. Commandes lies aux volumes logiques, accompagnes dune description Commande lie aux volumes logiques chlv cplv extendlv lslv mklv mklvcopy rmlv rmlvcopy Description Cette commande modifie les caractristiques dun volume logique. Cette commande copie le contenu dun volume logique sur un nouveau volume logique. Augmente la taille dun volume logique. Affiche les informations relatives un volume logique. Crer un volume logique. Cre une copie dun volume logique. Supprime les volumes logiques dun groupe de volumes. Supprime une copie dun volume logique.

Le fait de crer un ou plusieurs groupes de volumes distincts plutt que dutiliser des volumes logiques crs dans le groupe de volumes rootvg permet dinstaller de nouvelles versions de Virtual I/O Server, tout en conservant les donnes client grce lexportation et limportation des groupes de volumes crs pour les E-S virtuelles. Remarques : v La taille des volumes logiques faisant office de disques virtuels doit tre infrieure 1 traoctet ( savoir 1 099 511 627 776 octets). v Pour bnficier de performances optimales, vitez dutiliser des volumes logiques (sur le serveur Virtual I/O Server) car les disques virtuels sont copis ou segments sur plusieurs volumes physiques. Groupes de volumes : Informations relatives aux groupes de volumes. Un groupe de volumes est un type de pool de stockage contenant un ou plusieurs volumes physiques de tailles et de types diffrents. Un volume physique peut appartenir un seul groupe de volumes par systme. Le serveur Virtual I/O Server peut comporter jusqu 4096 groupes de volumes actifs. Lorsquun volume physique est attribu un groupe de volumes, les blocs physiques de support de stockage quil contient sont organiss en partitions physiques de taille dtermine par le systme lors de la cration du groupe de volumes. Pour plus dinformations, voir Partitions physiques, la page 15. Lorsque vous installez Virtual I/O Server, le groupe de volumes root, appel rootvg, est automatiquement cr. Il contient lensemble de volumes logiques de base requis pour dmarrer la partition logique du systme. Le groupe de volumes rootvg contient un espace de pagination, le fichier journal, les donnes damorage et la mmoire de clich se trouvant tous sur un volume logique distinct. rootvg possde des attributs distincts des groupes de volumes dfinis par lutilisateur. Par exemple, rootvg ne peut pas tre import ou export. Lorsque vous excutez une commande ou une procdure sur le groupe de volumes rootvg, vous devez bien connatre ses caractristiques spcifiques.
Tableau 9. Commandes lies aux groupes de volumes frquemment utiliss, accompagnes dune description Commande activatevg Description Active un groupe de volumes

14

Virtual I/O Server

Tableau 9. Commandes lies aux groupes de volumes frquemment utiliss, accompagnes dune description (suite) Commande chvg deactivatevg exportvg extendvg importvg lsvg mkvg reducevg syncvg Description Modifie les attributs dun groupe de volumes Dsactive un groupe de volumes Exporte la dfinition dun groupe de volumes Ajoute un volume physique un groupe de volumes Importe une nouvelle dfinition de groupe de volumes Affiche des informations sur un groupe de volumes Cre un groupe de volumes Supprime un volume physique dun groupe de volumes Synchronise les copies de volume logique qui ne sont pas jour

Les petits systmes peuvent ne ncessiter quun seul groupe de volumes pour contenir tous les volumes physiques (au-del du groupe de volumes rootvg). Vous pouvez crer des groupes de volumes distincts afin de faciliter la maintenance tant donn que les groupes qui ne sont pas en cours de maintenance peuvent rester actifs. Comme le groupe de volumes rootvg doit toujours rester connect, il contient uniquement le nombre minimal de volumes physiques ncessaires au fonctionnement du systme. Il est recommand de ne pas utiliser rootvg pour les donnes client. Vous pouvez dplacer des donnes dun volume physique vers un autre appartenant au mme groupe de volumes grce la commande migratepv. Cette commande permet de librer un volume physique de sorte quil puisse tre retir du groupe de volumes. Par exemple, il est possible de dplacer les donnes dun volume physique remplacer. Partitions physiques : Cette rubrique fournit des informations relatives aux partitions physiques. Lorsque vous ajoutez un volume physique un groupe de volumes, le volume physique est partitionn en units despace contigus et de taille gale appeles partitions physiques. Une partition physique reprsente la plus petite unit dallocation despace de stockage et constitue un espace contigu sur un volume physique. Les volumes physiques hritent de la taille de la partition physique du groupe de volumes. Partitions logiques : Cette rubrique contient des informations relatives aux partitions de mmoire logique. Lorsque vous crez un volume logique, vous devez prciser sa taille en mgaoctets ou en gigaoctets. Le systme attribue le nombre de partitions logiques ncessaires la cration dun volume logique faisant au moins la taille dfinie. Une partition logique est compose dune ou deux partitions physiques, selon que le volume logique est dfini avec la fonction miroir active ou non. Si la fonction miroir nest pas active, il nexiste quune seule copie du volume logique (valeur par dfaut). Dans ce cas, il existe un mappage direct dune partition logique en une partition physique. Chaque instance (y compris la premire) est appele copie. Quorums : Informations relatives aux quorums.

Virtual I/O Server

15

On parle de quorum lorsque la majorit des zones de description de groupe de volumes (VGDA), des zones dtat de groupe de volumes (VGSA) et des disques correspondants sont actifs. Un quorum garantit lintgrit des donnes des zones VGDA/VGSA en cas de dfaillance de disque. Chaque disque physique dun groupe de volumes dtient au moins une zone VGDA/VGSA. Lorsquun groupe de volumes est cr sur un seul disque, il possde initialement deux zones VGDA/VGSA sur ce disque. Si un groupe de volumes est compos de deux disques, lun deux est toujours dot de deux zones VGDA/VGSA, mais lautre nen dtient quune seule. Si le groupe de volumes est compos de trois disques ou plus, une seule zone VGDA/VGSA est alloue chaque disque. Un quorum est perdu lorsque 51 % des zones VGDA/VGSA nexistent plus et quil nest ds lors plus possible daccder suffisamment de disques et aux zones VGDA/VGSA correspondantes. Lorsquun quorum est perdu, le groupe de volumes est automatiquement dsactiv de sorte que le gestionnaire de volume logique ne puisse plus accder aux disques. Cela empche lenvoi dautres E-S de disque vers ce groupe de volumes. Ainsi, les donnes ne sont plus perdues ou prsumes crites lorsquun incident physique se produit. Suite la dsactivation, lutilisateur est inform, grce au journal des erreurs, quun incident matriel sest produit et quil va falloir effectuer une opration de maintenance. Un groupe de volumes dsactiv en raison de la perte de son quorum peut tre ractiv laide de la commande activatevg -f. Rfrentiel de supports virtuels : Le rfrentiel de supports virtuels constitue un conteneur unique dans lequel stocker et grer des fichiers de support optique virtuel sauvegards sur fichier. Les supports stocks dans le rfrentiel peuvent tre chargs dans des units optiques virtuelles sauvegardes sur fichier en vue de leur exportation vers des partitions clientes. Un seul rfrentiel peut tre cr dans un Virtual I/O Server. Le rfrentiel de supports virtuels est disponible avec Virtual I/O Server version 1.5 ou ultrieure. Pour le crer et le grer, les commandes suivantes sont utilises.
Tableau 10. Commandes lies au rfrentiel de supports virtuels avec leur description Commande chrep chvopt loadopt lsrep lsvopt mkrep mkvdev mkvopt rmrep rmvopt unloadopt Description Permet de modifier les caractristiques du rfrentiel de supports virtuels Permet de modifier les caractristiques dun support optique virtuel Permet de charger un support optique virtuel sauvegard sur fichier dans une unit optique virtuelle sauvegarde sur fichier Permet dafficher des informations sur le rfrentiel de supports virtuels Permet dafficher des informations sur les units optiques virtuelles sauvegardes sur fichier Permet de crer le rfrentiel de supports virtuels Permet de crer des units optiques virtuelles sauvegardes sur fichier Permet de crer des supports optiques virtuels sauvegards sur fichier Permet de supprimer le rfrentiel de supports virtuels Permet de supprimer des supports optiques virtuels sauvegards sur fichier Permet de dcharger des supports optiques virtuels sauvegards sur fichier dune unit optique virtuelle sauvegarde sur fichier

16

Virtual I/O Server

Pools de stockage : Cette section contient des informations sur les pools de stockage de volumes logiques et les pools de stockage de fichiers. Dans Virtual I/O Server version 1.5 et suprieure, vous pouvez crer les types de pool de stockage suivants : v Pools de stockage de volumes logiques (LVPOOL) v Pools de stockage de fichiers (FBPOOL) A linstar des groupes de volumes, les pools de stockage de volumes logiques sont des ensembles composs dun ou de plusieurs volumes physiques. La taille et le type des volumes physiques composant un pool de stockage de volumes logiques peuvent varier. Les pools de stockage de fichiers sont crs dans un pool de stockage de volumes logiques parent et contiennent un volume logique incluant un systme de fichiers et des fichiers. Les pools de stockage de volumes logiques stockent des units de sauvegarde de volume logique, des pools de stockage sauvegards sur fichiers et le rfrentiel de supports virtuels. Les pools de stockage de fichiers stockent des units de sauvegarde sur fichiers. Lutilisation de pools de stockage nexige pas de connaissances approfondies en matire de gestion de groupes de volumes et de volumes logiques pour crer et affecter une mmoire logique une partition logique client. Les units cres laide dun pool de stockage ne sont pas limites la taille des volumes physiques. Pour crer et grer des pools de stockage, utilisez les commandes ci-aprs.
Tableau 11. Commandes lies aux pools de stockage, accompagnes dune description Commande chsp chbdsp lssp mkbdsp mksp rmbdsp rmsp Description Permet de modifier les caractristiques dun pool de stockage Permet de modifier les caractristiques dune unit de sauvegarde au sein dun pool de stockage. Permet dafficher des informations relatives un pool de stockage Permet de dfinir une partie de lespace de stockage dun pool de stockage en tant quunit de sauvegarde dune carte SCSI virtuelle. Permet de crer un pool de stockage Permet de dissocier une unit de secours de sa carte SCSI virtuelle et de la supprimer du systme Permet de supprimer un pool de stockage de fichiers

Pour chaque partition logique Virtual I/O Server, un seul pool de stockage par dfaut peut tre modifi par ladministrateur principal. Si le pool de stockage par dfaut nest pas modifi par ladministrateur principal, le pool de volumes logiques rootvg est utilis comme pool de stockage par dfaut. Ne crez pas de mmoire client dans rootvg. Si vous crez un ou plusieurs pools de stockage de volumes logiques au lieu dutiliser le volume rootvg, vous pourrez installer les nouvelles versions de Virtual I/O Server et conserver les donnes client en exportant et en important les groupes de volumes crs pour les E-S virtuelles. Sauf mention contraire, les commandes lies aux pools de stockage sappliquent au pool de stockage par dfaut. Cela peut tre utile pour les systmes dans lesquels lintgralit ou la plupart des units de sauvegarde se trouvent dans un pool de stockage unique.
Virtual I/O Server

17

Remarque : Vous ne pouvez pas utiliser les pools de stockage lorsque vous affectez lensemble des volumes physiques en tant quunits de secours. Units optiques : Les units optiques peuvent tre exportes par le serveur Virtual I/O Server. Cette rubrique fournit des informations sur les types dunit optique pris en charge. Virtual I/O Server prend en charge lexportation dunits SCSI optiques. Ces dernires sont appeles units optiques SCSI virtuelles. Les units optiques virtuelles peuvent tre sauvegardes par des units de DVD ou des fichiers. En fonction de lunit de secours, Virtual I/O Server exportera lunit optique virtuelle avec lun des profils suivants : v DVD-ROM v DVD-RAM Les units optiques virtuelles sauvegardes par des units optiques physiques ne peuvent tre affectes qu une seule partition logique la fois. Pour utiliser lunit sur une autre partition logique client, vous devez dabord la supprimer de la partition logique en cours, puis la raffecter lautre partition logique. Bande : Les units de bande peuvent tre exportes par le serveur Virtual I/O Server. Cette rubrique fournit des informations sur les types dunit de bande pris en charge. Virtual I/O Server prend en charge lexportation dunits de bande physiques vers des partitions logiques client. Ces units sont appeles units de bande SCSI virtuelles. Les units de bande SCSI virtuelles sont sauvegardes par des units de bande physiques. Les units de bande SCSI virtuelles ne peuvent tre affectes qu une seule partition logique client un moment donn. Pour utiliser lunit sur une partition logique client diffrente, vous devez dabord la supprimer de sa partition logique actuelle, puis la raffecter la partition logique qui lutilisera. Restriction : v Lunit de bande physique doit tre une unit de bande connecte SAS. v Virtual I/O Server ne prend pas en charge la fonction de dplacement de support, mme si lunit de secours prend cette dernire en charge. v Il est recommand dattribuer lunit de bande sa propre carte de Virtual I/O Server ; en effet, les units de bande envoient souvent de gros volumes de donnes, ce qui peut affecter les performances des autres units sur la carte.

Stockage virtuel
Les disques, les bandes et les units optiques sont pris en charge en tant quunits SCSI virtuelles. Cette rubrique dcrit le mode de fonctionnement de ces units dans un environnement virtualis et indique les units prises en charge. Disque : Les units de disque peuvent tre exportes par le serveur Virtual I/O Server. Cette rubrique fournit des informations sur les types de disque et les configurations pris en charge. Virtual I/O Server prend en charge lexportation des units SCSI de disque. Ces units sont appeles disques SCSI virtuels. Tous les disques SCSI virtuels doivent tre associs une mmoire physique. Vous pouvez utiliser les types de mmoire physique suivants pour sauvegarder les disques virtuels : v Un disque SCSI virtuel associ un disque physique v Un disque SCSI virtuel associ un volume logique

18

Virtual I/O Server

v Un disque SCSI virtuel associ un fichier Dans les trois cas, toutes les rgles SCSI standard sappliquent lunit. Lunit SCSI virtuelle va se comporter comme une unit de disque compatible SCSI standard ; elle peut servir dunit damorage ou de poste NIM (Network Installation Management) cible, par exemple. Dlai dattente du chemin daccs la carte client SCSI virtuelle La fonction de dlai dattente du chemin daccs la carte client SCSI virtuelle (VSCSI) permet la carte client de dtecter si un Virtual I/O Server ne rpond pas aux requtes dE-S. Utilisez cette fonction uniquement dans les configurations dans lesquelles des units sont mises la disposition dune partition logique client partir de plusieurs serveurs Virtual I/O Server. Il peut sagir de configurations utilisant la fonction MPIO ou dans lesquelles un groupe de volumes est mis en miroir par des units sur plusieurs serveurs Virtual I/O Server. Si aucune requte dE-S excute sur la carte du serveur VSCSI na t servie dans le dlai (en secondes) indiqu par la valeur de dlai dattente du chemin VSCSI, une ou plusieurs tentatives de contact de la carte du serveur VSCSI sont effectues pendant 60 secondes. Si au terme de 60 secondes, aucune rponse de la carte du serveur nintervient, toutes les requtes dE-S en attente vers cette carte chouent et une erreur est consigne dans le journal derreurs de la partition logique client. Si la fonction MPIO est utilise, le module MPIO Path Control tentera dexcuter nouveau les requtes dE-S sur un autre chemin. Dans le cas contraire, les requtes choues seront renvoyes aux applications. Si les units sur cette carte appartiennent au groupe de volumes mis en miroir, ces units seront indiques comme manquantes et le gestionnaire de volume logique enregistrera les erreurs dans le journal derreurs de la partition logique client. Si lune des units ayant chou est le groupe de volumes root (rootvg) de la partition logique, et que ce dernier nest pas accessible via un autre chemin ou nest pas mis en miroir sur un autre Virtual I/O Server, la partition logique client peut se fermer. La carte client VSCSI tente alors de rtablir la communication avec le serveur Virtual I/O Server et enregistre un message dans le journal des erreurs du systme ds quelle est en mesure de le faire. Les groupes de volumes en miroir doivent tre resynchroniss manuellement en excutant la commande varyonvg lorsque les units manquantes seront nouveau disponibles. Un attribut ODM de carte de client VSCSI configurable, vscsi_path_to, est fourni. Cet attribut sert non seulement indiquer si la fonction est active, mais galement enregistrer la valeur du dlai dattente du chemin si la fonction est active. Ladministrateur systme indique la valeur O pour lattribut ODM afin de dsactiver la fonction ou la dure dattente, en secondes, avant de vrifier si le chemin daccs la carte du serveur a chou. Si la fonction est active, une valeur minimale de 30 secondes est requise. Si une valeur comprise entre 0 et 30 secondes est indique, la valeur sera remplace par 30 secondes la prochaine reconfiguration ou amorage de la carte. Cette fonction est dsactive par dfaut ; la valeur par dfaut de vscsi_path_to est donc 0. Soyez vigilant lorsque vous dfinissez cette valeur, en gardant lesprit que lorsque la carte du serveur VSCSI sert la requte dE-S, lunit de stockage laquelle la requte est envoye peut tre locale sur le serveur VIO ou sur un SAN. Lattribut de la carte client vscsi_path_to peut tre dfini laide de lutilitaire SMIT ou de la commande chdev -P. La dfinition de lattribut peut galement tre affiche laide de lutilitaire SMIT ou de la commande lsattr. La dfinition ne prendra effet que lorsque la carte sera reconfigure ou que la machine sera ramorce. Optique : Les units optiques peuvent tre exportes par le serveur Virtual I/O Server. Cette rubrique fournit des informations sur les types dunit optique pris en charge.
Virtual I/O Server

19

Virtual I/O Server prend en charge lexportation dunits optiques physiques vers des partitions logiques client. Ces units sont appeles units optiques SCSI virtuelles. Les units optiques SCSI virtuelles peuvent tre sauvegardes par des fichiers ou des units de DVD. En fonction de lunit de secours, Virtual I/O Server exportera lunit optique virtuelle avec lun des profils suivants : v DVD-ROM v DVD-RAM Par exemple, des units optiques SCSI virtuelles associs un fichier sont exportes en tant quunits de DVD-RAM. Ces units peuvent tre sauvegardes par des fichiers en lecture-criture ou en lecture seule. Selon les droits daccs aux fichiers, lunit peut apparatre pour contenir un disque DVD-ROM ou DVD-RAM. Il nest pas possible de charger simultanment des fichiers multimdias en lecture-criture (DVD-RAM) dans plusieurs units optiques SCSI virtuelles associes des fichiers. En revanche, les fichiers multimdias en lecture seule (DVD-ROM) peuvent tre chargs simultanment dans plusieurs units optiques SCSI virtuelles associes des fichiers. Les units optiques SCSI virtuelles sauvegardes par des units optiques physiques ne peuvent tre affectes qu une seule partition logique un moment donn. Pour utiliser lunit sur une partition logique client diffrente, vous devez dabord la supprimer de sa partition logique actuelle, puis la raffecter la partition logique qui lutilisera. Les units optiques SCSI virtuelles apparaissent toujours en tant quunits SCSI sur les partitions logiques client, que le type dunit exporte partir de Virtual I/O Server soit une unit SCSI, IDE, USB ou un fichier. Bande : Les units de bande peuvent tre exportes par le serveur Virtual I/O Server. Cette rubrique fournit des informations sur les types dunit de bande pris en charge. Virtual I/O Server prend en charge lexportation dunits de bande physiques vers des partitions logiques client. Ces units sont appeles units de bande SCSI virtuelles. Les units de bande SCSI virtuelles sont sauvegardes par des units de bande physiques. Les units de bande SCSI virtuelles ne peuvent tre affectes qu une seule partition logique client un moment donn. Pour utiliser lunit sur une partition logique client diffrente, vous devez dabord la supprimer de sa partition logique actuelle, puis la raffecter la partition logique qui lutilisera. Restriction : v Lunit de bande physique doit tre une unit de bande connecte SAS. v Virtual I/O Server ne prend pas en charge la fonction de dplacement de support, mme si lunit de secours prend cette dernire en charge. v Il est recommand dattribuer lunit de bande sa propre carte de Virtual I/O Server ; en effet, les units de bande envoient souvent de gros volumes de donnes, ce qui peut affecter les performances des autres units sur la carte. Compatibilit dunit dans un environnement Virtual I/O Server : En savoir plus sur la compatibilit dunit physique-virtuelle dans un environnement Virtual I/O Server. La compatibilit dunit physique-virtuelle (p2v) dcrite dans le prsent document se rapporte uniquement aux donnes de lunit et non pas ncessairement aux fonctions de cette dernire. Une unit est compatible p2v lorsque les donnes qui en sont extraites sont identiques, que laccs soit direct via une connexion physique ou quil soit virtuel (par exemple, par le biais du serveur Virtual I/O Server). En dautres termes, chaque bloc logique (cest--dire de ladresse de bloc logique 0 ladresse de bloc

20

Virtual I/O Server

logique n-1) renvoie des donnes identiques, la fois pour les units physiques et les units virtuelles. De faon respecter la conformit p2v, la capacit de lunit doit galement tre identique. Les units de disque virtuel exportes par le serveur Virtual I/O Server sont appeles disques SCSI virtuels. Une unit de disque SCSI virtuel peut tre associe un volume physique complet, un volume logique, une unit multi-accs ou un fichier. La duplication de donnes (cest--dire les services de copie) et les mouvements dunits entre environnements physiques et virtuels constituent des oprations communes dans les centres de donnes actuels. Ces oprations, qui impliquent des units dans un environnement virtuel, prsentent souvent une dpendance par rapport la conformit p2v. Les services de copie se rapportent aux diffrentes solutions qui fournissent une fonction de duplication de donnes, notamment les solutions de migration de donnes, la fonction FlashCopy, les solutions de copie instantane et de copie distance. Ces fonctions sont couramment utilises pour la reprise aprs incident, le clonage, la sauvegarde/restauration, etc. Le mouvement dunits entre environnements physiques et virtuels se rapporte la capacit de dplacer une unit de disque entre un environnement physique (cest--dire un rseau de systmes avec connexion directe) et un environnement dE-S virtuel (cest--dire un rseau de systmes avec connexion au serveur Virtual I/O Server) et dutiliser le disque sans avoir sauvegarder ou restaurer les donnes. Cette capacit est trs utile pour le regroupement de serveurs. Les oprations ci-dessus peuvent fonctionner si lunit est compatible p2v. Toutefois, les combinaisons dunits et les solutions de duplication de donnes nont pas toutes t testes . Reportez-vous aux rclamations du fournisseur de services de copie dans le cadre des units gres par Virtual I/O Server. Une unit est compatible p2v si elle rpond aux critres suivants : v Il sagit dun volume physique complet (cest--dire un numro dunit logique). v La capacit de lunit est identique la fois dans les environnements physiques et virtuels. v Virtual I/O Server est capable de grer ce volume physique laide dun UDID ou dun ID iEEE. Pour plus dinformations, voir la rubrique Comment dterminer si un volume physique est gr par le format UDID ou IEEE, ci-dessous. Les units gres par les solutions multi-accs suivantes au sein du serveur Virtual I/O Server sont supposes tre des units UDID. v Toutes les versions MPIO (Multipath I/O), y compris Subsystem Device Driver Path Control Module (SDDPCM), EMC PCM et Hitachi Dynamic Link Manager (HDLM) PCM v EMC PowerPath 4.4.2.2 ou version ultrieure v IBM Subsystem Device Driver (SDD) 1.6.2.3 ou version ultrieure v Hitachi HDLM 5.6.1 ou version ultrieure Les units SCSI virtuelles cres avec des versions antrieures de PowerPath, HDLM et SDD ne sont pas gres par le format UDID et ne sont pas supposes tre conformes p2v. Il est probable que les oprations mentionnes ci-dessus (par exemple, duplication de donnes ou mouvement entre environnements Virtual I/O Server et non-Virtual I/O Server) ne fonctionnent pas dans ces cas. Comment dterminer si un volume physique est gr par le format UDID ou IEEE : Dterminer si un volume physique est ou a la possibilit dtre gr par le format UDID (identificateur dunit) ou IEEE.

Virtual I/O Server

21

Avant de commencer De faon dterminer si un volume physique est ou peut tre gr par le format UDID, les lments suivants doivent tre vrifis : v Sil sagit dun numro dunit logique de Virtual I/O Server existant, dterminez si son format est UDID. v Sil sagit dun numro dunit logique dplacer vers le serveur Virtual I/O Server, assurez-vous dabord que Virtual I/O Server est prpar voir ce numro dunit en tant que numro dunit logique UDID en le vrifiant sur lhte source. Remarque : Le fait de dplacer un disque physique vers un Virtual I/O Server qui nest pas capable de grer lunit laide du format UDID peut entraner une perte de donnes. Dans ce cas, sauvegardez les donnes avant dattribuer le numro dunit logique au Virtual I/O Server. A propos de cette tche Pour dterminer si une unit prsente un UDID, excutez les tapes suivantes : Remarque : Ces instructions sappliquent au Virtual I/O Server. Pour AIX, ignorez ltape 1 et suivez les mmes instructions. 1. Entrez oem_setup_env. 2. Entrez odmget -qattribute=unique_id CuAt. Les disques comportant un UDID sont alors rpertoris. Une sortie similaire ce qui suit apparat :
CuAt: name = "hdisk1" attribute = "unique_id" value = "2708ECVBZ1SC10IC35L146UCDY10-003IBMscsi" type = "R" generic = "" rep = "nl" nls_index = 79 CuAt: name = "hdisk2" attribute = "unique_id" value = "210800038FB50AST373453LC03IBMscsi" type = "R" generic = "" rep = "nl" nls_index = 79

3. Dterminez si une unit est associe un identificateur dattribut de volume IEEE en excutant la commande suivante : lsattr -l hdiskX. Une valeur est indique dans la zone ieee_volname pour les disques ayant un identificateur dattribut de volume IEEE. Une sortie similaire ce qui suit apparat :
... cache_method ieee_volname lun_id ... fast_write Write Caching method 600A0B800012DD0D00000AB441ED6AC IEEE Unique volume name 0x001a000000000000 Logical Unit Number

Si la zone ieee_volname napparat pas, lunit na pas didentificateur dattribut de volume IEEE. Remarque : Les stockages DS4K et FAStT qui utilisent le pilote RDAC (Redundant Disk Array Controller) pour le multi-accs sont grs laide dun ID IEEE.

Units de mappage
Les units de mappage permettent de faciliter le mappage des ressources physiques avec une unit virtuelle.

22

Virtual I/O Server

Rseaux virtuels
Cette section contient des informations sur le rseau Ethernet virtuel, la carte Ethernet hte (ou carte Ethernet virtuelle intgre), Internet Protocol version 6 (IPv6), agrgation de liaisons(ou EtherChannel), carte Ethernet partage, la reprise par transfert de la carte Ethernet partage et le rseau local virtuel (VLAN). La technologie Ethernet virtuelle facilite la communication IP entre des partitions logiques dun mme systme grce des systmes de commutateurs logiciels compatibles VLAN (rseau local virtuel). Avec la technologie de carte Ethernet partage, les partitions logiques peuvent communiquer avec dautres systmes lextrieur de lunit matrielle sans attribution demplacements Ethernet physiques aux partitions logiques.

Carte Ethernet hte


Une carte Ethernet hte (HEA) est une carte Ethernet physique directement intgre au bus GX+ sur un systme gr. Les HEA offrent un dbit lev, une faible latence et le support de la virtualisation pour les connexions Ethernet. Les cartes HEA sont galement appeles cartes IVE (Integrated Virtual Ethernet). Contrairement la plupart des types de systmes dentres-sorties, vous ne pouvez jamais affecter la HEA-mme une partition logique. En revanche, plusieurs partitions logiques peuvent tre connectes directement la carte HEA et utiliser ses ressources. Ces partitions logiques peuvent ainsi accder des rseaux externes via la HEA sans passer par un pont Ethernet sur une autre partition logique. Pour connecter une partition logique une HEA, vous devez crer une carte Ethernet hte logique (LHEA)pour la partition logique. Une carte Ethernet hte logique (LHEA) est la reprsentation dune carte HEA physique sur une partition logique. Pour le systme dexploitation, une LHEA apparat comme une carte Ethernet physique tout comme une carte Ethernet virtuelle lui apparat comme une carte Ethernet physique. Lorsque vous crez une carte LHEA pour une partition logique, vous spcifiez les ressources que la partition logique peut utiliser sur la HEA physique vritable. Chaque partition logique peut avoir une LHEA pour chaque HEA physique sur le systme gr. Chaque LHEA peut avoir un ou plusieurs ports logiques et chaque port logique peut se connecter un port physique sur la carte HEA. Vous pouvez crer une LHEA pour une partition logique en utilisant lune des mthodes suivantes : v Vous pouvez ajouter la LHEA un profil de partition, fermer la partition logique puis la ractiver en utilisant le profil de partition avec la LHEA. v Vous pouvez ajouter la carte LHEA une partition logique en cours de fonctionnement via le partitionnement logique dynamique. (cette mthode ne peut tre utilise pour des partitions logiques Linux que si vous installez Red Hat Enterprise Linux version 5.1, Red Hat Enterprise Linux version 4.6 ou une version suprieure de Red Hat Enterprise Linux sur la partition logique). Lorsque vous activez une partition logique, les LHEA du profil de partition sont considres comme des ressources obligatoires. Si les ressources HEA physiques requises par les LHEA ne sont pas disponibles, la partition logique ne peut pas tre active. Toutefois, lorsque la partition logique est active, vous pouvez supprimer toute LHEA de la partition logique. Une fois que vous avez cr une LHEA pour une partition logique, une unit rseau est cre sur la partition logique. Cette unit rseau est nomme entX sur les partitions logiques AIX et ethX sur les partitions logiquesLinux, X reprsentant des numros attribus de faon squentielle. Lutilisateur peut alors dfinir une configuration TCP/IP similaire un systme Ethernet physique pour communiquer avec dautres partitions logiques. Vous pouvez configurer une partition logique de sorte quil sagisse de la seule partition logique ayant accs un port physique dune carte HEA, en spcifiant Partition logique espionne pour une carte LHEA affecte la partition logique. Lorsquune carte LHEA est en mode espion, aucune autre partition logique ne peut avoir accs aux ports logiques du port physique associe cette carte. La configuration dune partition logique en mode espion peut tre souhaitable dans les situations suivantes :
Virtual I/O Server

23

v Si vous souhaitez connecter plus de 16 partitions logiques les unes aux autres et un rseau externe via un port physique sur une carte HEA, vous pouvez crer un port logique sur une partition logique de serveur dentres-sorties virtuel et configurer un pont Ethernet entre le port logique et un adaptateur Ethernet virtuel sur un LAN virtuel. Cette approche permet toutes les partitions logiques des adaptateurs Ethernet virtuels sur le LAN virtuel de communiquer avec le port physique via le pont Ethernet. Si vous configurez un pont Ethernet entre un port logique et une carte Ethernet virtuelle, le port physique qui est connect au port logique doit avoir les proprits suivantes : Le port physique doit tre configur de faon ce que la partition logique Virtual I/O Server soit la partition logique de mode espion pour le port physique. Le port physique ne peut avoir quun seul port logique. v Vous souhaitez que la partition logique ait un accs ddi un port physique. v Vous souhaitez utiliser des outils tels que tcpdump ou iptrace. Un port logique peut communiquer avec tous les autres ports logiques connects au mme port physique sur la carte HEA. Le port physique et ses ports logiques associs forment un rseau Ethernet logique. Les paquets de diffusion et de multidiffusion sont distribus sur ce rseau logique comme sil sagissait dun rseau Ethernet physique. Vous pouvez connecter jusqu 16 ports logiques un port physique en utilisant ce rseau logique. Par extension, vous pouvez connecter jusqu 16 partitions logiques les unes aux autres et un rseau externe via ce rseau logique. Le nombre effectif de ports logiques que vous pouvez connecter un port physique dpend de la valeur de mise lchelle multicoeur du groupe de ports physique et du nombre de ports logiques que vous avez crs pour dautres ports physiques dans le groupe de ports physiques. Par dfaut, la valeur de mise lchelle multicoeur de chaque groupe de ports physiques est dfinie 4, ce qui permet de connecter 4 ports logiques aux ports physiques dans le groupe de ports physiques. Pour connecter 16 ports logiques aux ports physiques dans le groupe de ports physiques, vous devez dfinir 1 la valeur de mise lchelle multicoeur du groupe de ports physiques puis redmarrer le systme gr. Vous pouvez dfinir chaque port logique pour limiter ou autoriser les paquets rfrencs pour des rseaux locaux virtuels spcifiques. Vous pouvez dfinir un port logique acceptant les paquets ayant un ID de rseau local virtuel ou dfinir un port logique acceptant uniquement les ID rseau local virtuel spcifis. Vous pouvez spcifier jusqu 20 ID de rseau local virtuel pour chaque port logique. Les ports physiques dune carte HEA sont toujours configurs au niveau du systme gr. Si vous utilisez une console HMC pour grer un systme, vous devez utiliser cette console HMC pour configurer les ports physiques sur lensemble des HEA appartenant au systme gr. De plus, la configuration de port physique sapplique toutes les partitions logiques qui utilisent le mme port physique. (Certaines proprits peuvent ncessiter une configuration au niveau du systme dexploitation galement. Par exemple, la taille de paquet maximale pour un port physique sur la carte HEA doit tre dfinie au niveau du systme gr en utilisant la console HMC. Cependant, vous devez galement dfinir la taille de paquet maximale pour chaque port logique au niveau du systme dexploitation.) Par contre, si un systme nest pas partitionn et nest pas gr par une console HMC, vous pouvez configurer les ports physiques dune carte HEA au niveau du systme dexploitation tout comme si les ports physiques taient les ports dune carte Ethernet physique normale. La carte HEA ne prend pas en charge le mode semi-duplex au niveau matriel. Vous pouvez modifier les proprits dun port logique dune carte LHEA laide dun partitionnement logique pour supprimer le port logique de la partition logique et le rajouter la partition par le biais des proprits modifies. Si le systme dexploitation de la partition logique ne prend pas en charge le partitionnement logique dynamique pour les cartes LHEA et que vous souhaitez modifier une proprit de port logique autre que celle des VLAN sur lesquels le port logique intervient, vous devez dfinir un profil de partition pour la partition logique de sorte que le profil de partition contienne les proprits de port logique voulues et fermer la partition logique puis lactiver laide du profil de partition nouveau ou modifi. Si le systme dexploitation de la partition logique ne prend pas en charge le partitionnement logique dynamique pour les cartes LHEA et que vous souhaitez modifier les VLAN sur lesquels le port

24

Virtual I/O Server

logique intervient, vous devez supprimer le port logique dun profil de partition appartenant la partition logique, fermer puis activer la partition logique laide du profil de partition modifi, rajouter le port logique au profil de partition par le biais de la configuration VLAN modifie et de nouveau arrter puis activer la partition logique laide du profil de partition modifi.

Internet Protocol version 6


Internet Protocol version 6 (IPv6) est le protocole IP de future gnration et remplace graduellement la norme Internet actuelle Internet Protocol version 4 (IPv4). La principale amlioration dIPv6 est lextension de lespace adresse IP de 32 128 bits, offrant un nombre dadresses IP uniques pratiquement illimit. IPv6 prsente plusieurs avantages par rapport IPv4, notamment la simplification du routage et de ladressage, la simplification du format den-tte, un contrle amlior du trafic, lautoconfiguration et la scurit. Pour plus dinformations sur IPv6, voir Internet Protocol (IP) Version 6.

Units dagrgation de liaisons ou EtherChannel


Une unit dagrgation de liaisons, ou EtherChannel, est une technologie de regroupement de ports rseau permettant de regrouper plusieurs cartes Ethernet. Les cartes constituent alors une unit Ethernet unique. agrgation de liaisons offre un meilleur dbit via une seule adresse IP que ne le permettrait une seule carte Ethernet. Par exemple, ent0 et ent1 peuvent tre regroupes pour former ent3. Le systme considre ces cartes regroupes comme une seule et mme carte. La mme adresse matrielle est fournie toutes les cartes de lunit dagrgation de liaisons, alors les systmes distants les traitent comme sil sagissait dune seule et mme carte. Lagrgation de liaisons amliore la redondance : en cas dchec dun lien, lunit dagrgation de liaisons bascule sur une autre carte de lunit afin de conserver la liaison. Dans lexemple prcdent, si ent0 choue, les paquets sont automatiquement envoys la carte disponible suivante ent1, sans interrompre les connexions utilisateur existantes. Apres sa restauration, lunit ent0 est automatiquement renvoye au service de lunit dagrgation de liaisons. Vous pouvez configurer une carte Ethernet partage de faon utiliser une unit dagrgation de liaisons (ou EtherChannel) en tant que carte physique.

Cartes Ethernet virtuelles


Les cartes Ethernet virtuelles permettent aux partitions logiques client denvoyer et de recevoir le trafic rseau, sans quune carte Ethernet physique ne soit ncessaire. Les cartes Ethernet virtuelles permettent aux partitions logiques dun mme systme de communiquer sans devoir utiliser des cartes Ethernet physiques. Au sein du systme, les cartes Ethernet virtuelles sont connectes un commutateur Ethernet virtuel IEEE 802.1q. Grce la fonction de commutation, les partitions logiques peuvent communiquer entre elles au moyen de cartes Ethernet virtuelles et via laffectation dID VLAN (VID). Ces derniers permettent aux cartes Ethernet virtuelles de partager un rseau logique commun. Le systme transmet des paquets en les copiant directement de la mmoire de la partition logique de lexpditeur vers les mmoires tampon du destinataire sans les placer dans une mmoire tampon intermdiaire. Les cartes Ethernet virtuelles peuvent tre utilises sans Virtual I/O Server mais les partitions logiques ne pourront pas communiquer avec des systmes externes. Dans ce cas de figure, vous pouvez toutefois utiliser une autre carte, appele carte Ethernet hte (ou carte Ethernet virtuelle intgre) afin de faciliter la communication entre les partitions logiques du systme et les rseaux externes.

Virtual I/O Server

25

Vous pouvez crer des cartes Ethernet virtuelles laide de la console HMC (Hardware Management Console) et les configurer laide de linterface de ligne de commande Virtual I/O Server. Vous pouvez aussi utiliser le gestionnaire Integrated Virtualization Manager pour crer et grer des cartes Ethernet virtuelles. Nous recommandons lutilisation dun rseau Ethernet virtuel sur le serveur Virtual I/O Server dans les cas suivants : v Si les besoins de la partition logique individuelle en termes de capacit ou de bande passante sont non constants ou infrieurs la largeur de bande totale dune carte Ethernet physique. Les partitions logiques qui utilisent la totalit de la largeur de bande ou de la capacit dune carte Ethernet physique doivent avoir recours des cartes Ethernet ddies. v Si vous avez besoin dune connexion Ethernet alors quaucun emplacement nest disponible pour installer une carte ddie.

Rseaux locaux virtuels (VLAN)


Les rseaux locaux virtuels (VLAN) permettent de segmenter le rseau physique de manire logique. Il sagit dune mthode permettant de segmenter de faon logique un rseau physique de sorte que la connectivit de couche 2 soit limite aux membres appartenant au mme rseau local virtuel. Cette sparation est effectue en marquant les paquets Ethernet avec leurs informations dappartenance au rseau local virtuel (VLAN) puis en limitant la transmission aux membres de ce rseau. Le rseau local virtuel est dcrit par la norme IEEE 802.1Q. Les informations relatives aux marques du rseau local virtuel sont appeles ID VLAN (VID). Les ports dun commutateur sont configurs en tant que membres dun rseau local virtuel dsign par le VID pour ce port. Le VID par dfaut dun port est appel VID de port (PVID). Il est possible dajouter le VID un paquet Ethernet laide dun hte VLAN (appartenant au rseau local virtuel) ou dun commutateur dans le cas dhtes non VLAN. Par consquent, les ports dun commutateur Ethernet doivent tre configurs laide des informations indiquant si lhte connect appartient au rseau local virtuel ou non. Pour les htes non VLAN, un port est configur comme non marqu et le commutateur marque tous les paquets qui entrent par ce port avec le PVID. Il va galement dmarquer tous les paquets qui quittent ce port avant leur transmission vers un hte non VLAN. Un port utilis pour connecter des htes non VLAN est appel port non marqu ; il ne peut tre le membre que dun seul rseau local virtuel identifi par son PVID. Les htes VLAN peuvent insrer et retirer leurs propres marques et tre des membres de plusieurs rseaux locaux virtuels. Ces htes sont en gnral connects aux ports qui ne retirent pas les marques avant de transmettre les paquets lhte, mais qui vont insrer la marque PVID lorsquun paquet non marqu entre par le port. Un port va uniquement admettre les paquets non marqus ou marqus portant la marque de lun des rseaux locaux virtuels (VLAN) auquel il appartient. Ces rgles VLAN sajoutent aux rgles classiques de routage bases sur ladresse MAC (contrle daccs obligatoire) auxquelles se conforme un commutateur. Par consquent, un paquet avec une adresse MAC cible de diffusion ou de multidiffusion est galement transmis aux ports des membres appartenant au rseau local virtuel identifi par les marques du paquet. Ce mcanisme garantit la sparation logique du rseau physique en fonction de son appartenance un rseau local virtuel.

Cartes Ethernet partages


Les cartes Ethernet partages de la partition logique Virtual I/O Server permettent aux cartes Ethernet virtuelles des partitions logiques client deffectuer des envois et des rceptions en dehors du trafic rseau. Une carte Ethernet partage est un composant de Virtual I/O Server qui joue le rle de pont entre une carte Ethernet physique et une ou plusieurs cartes Ethernet virtuelles : v La carte relle peut tre une carte Ethernet physique, une unit dagrgation de liaisons ou EtherChannel, ou une carte Ethernet hte logique (carte LHEA). La carte relle ne peut pas tre une autre carte Ethernet partage ou une pseudo-unit VLAN.

26

Virtual I/O Server

v La carte Ethernet virtuelle doit tre une carte Ethernet dentre-sortie virtuelle. Il ne peut pas sagir dun autre type dunit ou de carte. Avec une carte Ethernet partage, les partitions logiques du rseau virtuel peuvent partager laccs au rseau physique et communiquer avec des serveurs autonomes et des partitions logiques dautres systmes. La carte Ethernet partage vite chaque partition logique client de disposer dune carte physique ddie pour la connexion au rseau externe. Une carte Ethernet partage fournit un accs en connectant les rseaux locaux virtuels internes ceux de commutateurs externes. Avec cette connexion, les partitions logiques peuvent partager le sous-rseau IP avec des systmes autonomes et dautres partitions logiques externes. La carte Ethernet partage achemine vers le rseau externe les paquets sortants envoys par une carte Ethernet virtuelle, et transmet les paquets entrants la partition logique client approprie via la liaison Ethernet virtuelle tablie avec cette partition logique. La carte Ethernet partage traite les paquets au niveau de la couche 2 ; les autres systmes du rseau physique peuvent ainsi voir ladresse MAC dorigine et les balises VLAN (rseau local virtuel) du paquet. La carte Ethernet partage prsente une fonction de rpartition de bande passante, galement connue sous le nom de qualit de service de Virtual I/O Server. La qualit de service permet au Virtual I/O Server daccorder une priorit plus leve certains types de paquets. Conformment la spcification IEEE 801.q, les administrateurs Virtual I/O Server peuvent faire en sorte que la carte Ethernet partage examine le trafic marqu VLAN (rseau local virtuel) en mode pont pour vrifier lexistence ventuelle de la zone de priorit VLAN dans len-tte VLAN. La zone de priorit VLAN 3 bits permet chaque paquet individuel dobtenir une valeur de priorit, de 0 7, de faon ce quune distinction sopre entre le trafic important et le trafic moins important. Le trafic important est envoy en priorit et utilise davantage de bande passante du serveur Virtual I/O Server que le trafic moins important. Remarque : Pour pouvoir utiliser cette fonction, lorsque la carte de ligne Ethernet virtuelle du serveur Virtual I/O Server est configure sur une console HMC, vous devez la configurer avec des ID de rseau local virtuel supplmentaires car seul le trafic sur ces ID est transmis au Virtual I/O Server avec une marque VLAN. Le trafic non marqu est toujours trait comme sil appartenait au niveau de priorit par dfaut, cest--dire comme sil prsentait la valeur de priorit 0. En fonction des valeurs de priorit VLAN dtectes dans les en-ttes VLAN, les paquets sont prioriss comme suit.
Tableau 12. Valeurs de priorit du trafic VLAN et importance relative Valeur de priorit et importance 1 (le plus important) 2 0 (par dfaut) 3 4 5 6 7 (le moins important)

Ladministrateur Virtual I/O Server peut utiliser la qualit de service en paramtrant lattribut qos_mode de la carte Ethernet partage sur le mode strict ou loose. Le mode par dfaut est disabled. Les dfinitions suivantes dcrivent ces modes : Mode disabled Il sagit du mode par dfaut. Le trafic VLAN ne fait pas lobjet dun examen en vue de trouver la zone de priorit. Voici un exemple :
chdev -dev <nom unit SEA> -attr qos_mode=disabled

Virtual I/O Server

27

Mode strict Le trafic important est prioritaire par rapport au trafic moins important. Ce mode fournit de meilleures performances et offre davantage de bande passante au trafic important ; toutefois, il peut entraner des retards considrables pour le trafic moins important. Voici un exemple :
chdev -dev <nom unit SEA> -attr qos_mode=strict

Mode loose Une limite est place sur chaque niveau de priorit ; ainsi, ds quun nombre doctets est envoy pour un niveau, le niveau suivant est pris en charge. Cette mthode garantit que tous les paquets sont, en dfinitive, envoys. Le trafic important reoit une bande passante infrieure avec ce mode, par rapport au mode strict ; cependant, les limites du mode loose sont telles que davantage doctets sont envoys pour le trafic important. Ce dernier reoit donc tout de mme davantage de bande passante que le trafic moins important. Voici un exemple :
chdev -dev <nom unit SEA> -attr qos_mode=loose

Remarque : En mode strict ou loose, tant donn que la carte Ethernet partage utilise plusieurs units dexcution pour relier le trafic, il est possible que le trafic moins important issu dune unit dexcution soit envoy avant le trafic plus important issu dune autre unit dexcution.

Protocole GVRP (GARP VLAN Registration Protocol)


Les cartes Ethernet partages sur le serveur Virtual I/O Server version 1.4 ou ultrieure, prennent en charge le protocole GVRP (GARP VLAN Registration Protocol), bas sur le protocole GARP (Generic Attribute Registration Protocol). GVRP permet lenregistrement dynamique des VLAN sur les rseaux, qui permettent de rduire le nombre derreurs dans la configuration dun rseau tendu. En propageant lenregistrement sur le rseau par la transmission dunits BPDU (Bridge Protocol Data Units), les units du rseau ont une connaissance exacte des VLAN en mode pont configures sur le rseau. Lorsque GVRP est activ, la communication seffectue dans un sens, de la carte Ethernet partage vers le commutateur. La carte Ethernet partage indique au commutateur quels rseaux locaux virtuels (VLAN) peuvent communiquer avec le rseau. La carte Ethernet partage ne configure pas les rseaux VLAN pour la communication avec le rseau en fonction des informations reues du commutateur. La configuration des rseaux VLAN qui communiquent avec le rseau est dtermine de faon statique par les paramtres de configuration de la carte Ethernet virtuelle.

Carte Ethernet hte ou carte Ethernet virtuelle intgre


Avec Virtual I/O Server version 1.4, vous pouvez affecter un port Ethernet hte logique dune carte Ethernet hte logique (LHEA), parfois appele carte Ethernet virtuelle intgre, en tant que carte relle dune carte Ethernet partage. Le port Ethernet hte logique est associ au port physique de la carte Ethernet hte. La carte Ethernet partage utilise les interfaces du pilote de priphrique standard fournies par Virtual I/O Server pour communiquer avec la carte Ethernet hte. Pour utiliser une carte Ethernet partage avec une carte Ethernet hte, les conditions suivantes doivent tre remplies : v Le port Ethernet hte logique doit tre le seul port attribu au port physique de la carte Ethernet hte. Aucun autre port de la carte LHEA ne doit tre attribu au port physique de la carte Ethernet hte. v La carte LHEA de la partition logique Virtual I/O Server doit tre configure en mode espion. (Dans un environnement Integrated Virtualization Manager, le mode espion est dfini par dfaut) Le mode espion permet la carte LHEA (sur le serveur Virtual I/O Server) de recevoir tout le trafic de type destinataire unique, diffusion et multidiffusion issu du rseau physique.

Recommandations
Il est conseill dutiliser une carte Ethernet partage sur le serveur Virtual I/O Server dans les cas suivants :

28

Virtual I/O Server

v Si les besoins de la partition logique individuelle en termes de capacit ou de bande passante sont non constants ou infrieurs la largeur de bande totale dune carte Ethernet physique. Les partitions logiques qui utilisent la totalit de la largeur de bande ou de la capacit dune carte Ethernet physique doivent avoir recours des cartes Ethernet ddies. v Si vous prvoyez de faire migrer une partition logique client dun systme vers un autre. Nous recommandons dattribuer une carte Ethernet partage au port Ethernet hte logique lorsque le nombre de cartes Ethernet requises est suprieur au nombre de ports disponibles sur la carte LHEA ou si vous prvoyez de dpasser ce nombre par la suite. Si le nombre de cartes Ethernet requises est infrieur ou gal au nombre de ports disponibles sur la carte LHEA et si vous ne prvoyez pas daugmenter le nombre de ports par la suite, vous pouvez utiliser les ports de la carte LHEA pour la connectivit rseau au lieu dutiliser la carte Ethernet partage.

Mmoire partage
La mmoire partage est une mmoire physique qui est affecte au pool de mmoire partage et partage entre plusieurs partitions logiques. Le pool de mmoire partage est une collection dfinie de blocs de mmoire physique qui sont grs comme un seul pool de mmoire par Hypervisor. Les partitions logiques que vous configurez pour utiliser la mmoire partage (appeles ci-aprs partitions de mmoire partage) partagent la mmoire du pool avec dautres partitions de mmoire partage. Vous crez, par exemple, un pool de mmoire partage avec 16 Go de mmoire physique. Vous crez ensuite trois partitions logiques, vous les configurez pour lutilisation de la mmoire partage et activez les partitions de mmoire partage. Chaque partition de mmoire partage peut utiliser les 16 Go du pool de mmoire partage. Lhyperviseur dtermine la quantit de mmoire alloue par le pool de mmoire partage chaque partition de mmoire partage en fonction de la charge de travail et de la configuration de mmoire. Lors de laffectation de la mmoire physique aux partitions de mmoire partage, lhyperviseur vrifie que chaque partition de mmoire physique peut accder uniquement la mmoire qui lui est alloue un moment donn. Une partition de mmoire partage ne peut pas accder la mmoire physique alloue une autre partition de mmoire physique. La quantit de mmoire que vous affectez aux partitions de mmoire partage peut tre suprieure la quantit de mmoire du pool de mmoire partage. Ainsi, vous pouvez affecter 12 Go la partition de mmoire partage 1, 8 Go la partition de mmoire partage 2 et 4 Go la partition de mmoire partage 3. Ensemble, les partitions de mmoire partage utilisent 24 Go de mmoire, alors que le pool de mmoire partage dispose de seulement 16 Go de mmoire. Dans ce cas, la configuration de la mmoire est considre comme excdentaire. Ce type de configuration est possible car lhyperviseur virtualise et gre comme suit lensemble de la mmoire des partitions de mmoire partage au sein du pool de mmoire partage : 1. Lorsque des partitions de mmoire partage nutilisent pas de manire active leurs pages de mmoire, lhyperviseur affecte ces pages inutilises aux partitions de mmoire partage qui en ont besoin. Lorsque le total de la mmoire physique en cours dutilisation par les partitions de mmoire partage est infrieur ou gale la quantit de mmoire du pool de mmoire partage, la configuration de mmoire est en surcapacit logique. Dans ce type de configuration, le pool de mmoire partage dispose de suffisamment de mmoire physique pour matriser les besoins en mmoire de toues les partitions de mmoire physique un instant t. Lhyperviseur na pas besoin de stocker de donnes dans la mmoire secondaire. 2. Lorsquune partition de mmoire partage a besoin de davantage de mmoire que ce que lhyperviseur peut fournir via laffectation de parts inutilises du pool de mmoire partage, lhyperviseur stocke une partie de la mmoire appartenant une partition de mmoire partage dans le pool de mmoire partage et stocke le reste dans la mmoire secondaire. Lorsque le total de la mmoire physique en cours dutilisation par les partitions de mmoire partage est suprieur la quantit de mmoire du pool de mmoire partage, la configuration de mmoire est en surcapacit
Virtual I/O Server

29

physique. Dans ce type de configuration, le pool de mmoire partage ne dispose pas de suffisamment de mmoire physique pour matriser les besoins en mmoire de toutes les partitions de mmoire physique un instant t. Lhyperviseur stocke la diffrence dans la mmoire secondaire. Lorsque le systme dexploitation tente daccder aux donnes, lhyperviseur peut avoir extraire les donnes de la mmoire secondaire pour que le systme dexploitation puisse y accder. Parce que la mmoire que vous affectez une partition de mmoire partage ne rside pas toujours dans le pool de mmoire partage, la mmoire que vous affectez une partition de mmoire partage est la mmoire logique. La mmoire logique est lespace adresse, affect une partition logique, que le systme dexploitation considre comme mmoire principale. Pour une partition de mmoire partage, un sous-ensemble de la mmoire logique est sauvegard par la mmoire principale physique (ou mmoire physique du pool de mmoire partage) et le contenu du reste de la mmoire logique est conserv dans la mmoire secondaire. Une partition logique Virtual I/O Server fournit laccs la mmoire secondaire, ou aux units despace de pagination, ncessaires aux partitions de mmoire partage dune configuration de mmoire en surcapacit. Une unit despace de pagination est une unit logique ou physique qui est utilise par un serveur Virtual I/O Server pour fournir lespace de pagination dune partition de mmoire partage. Lespace de pagination est une zone de mmoire rmanente utilise pour contenir des portions de la mmoire logique dune partition de mmoire partage ne rsidant pas dans le pool de mmoire partage. Lorsque le systme dexploitation qui sexcute sur une partition de mmoire partage tente daccder des donnes et que ces donnes se trouvent sur lunit despace de pagination affecte la partition de mmoire partage, lhyperviseur envoie une demande un serveur Virtual I/O Server pour quil extraie les donnes et les crive dans le pool de mmoire partage afin de les rendre accessible au systme dexploitation. Sur les systmes grs via une console HMC (Hardware Management Console), vous pouvez affecter simultanment au pool de mmoire partage jusqu deux partitions logiques Virtual I/O Server (VIOS) (appeles ci-aprs partitions VIOS de pagination). Lorsque vous affectez deux partitions VIOS de pagination au pool de mmoire partage, vous pouvez configurer les units despace de pagination pour que les deux partitions VIOS de pagination puissent accder aux mmes units despace de pagination. Si une partition VIOS de pagination est inaccessible, lhyperviseur envoie une demande lautre partition pour que les donnes de lunit despace de pagination soient extraites. Vous ne pouvez pas configurer des partitions VIOS de pagination pour lutilisation de mmoire partage. Les partitions VIOS de pagination nutilisent pas la mmoire du pool de mmoire partage. Vous affectez des partitions VIOS de pagination au pool de mmoire partage pour quelles fournissent laccs aux units despace de pagination pour les partitions de mmoire partage qui sont affectes au pool de mmoire partage. En se basant sur les demandes de charge de travail des partitions de mmoire partage, lhyperviseur gre les configurations de mmoire en surcapacit en effectuant les tches suivantes en continu : v Allocation de portions de mmoire physique du pool de mmoire partage aux partitions de mmoire partage selon les besoins v Demande envoye une partition VIOS de pagination de lecture et dcriture de donnes entre le pool de mmoire partage et les units despace de pagination selon les besoins La possibilit de partager de la mmoire entre plusieurs partitions logique est appele technologie PowerVM Active Memory Sharing. La technologie PowerVM Active Memory Sharing est disponible avec PowerVM Enterprise Edition, pour lequel vous devez vous procurer et entrer un code dactivation PowerVM Editions.

30

Virtual I/O Server

Rfrence associe Configuration requise pour la mmoire partage, la page 67 Consultez la configuration requise pour le systme, Virtual I/O Server (VIOS), les partitions logiques et les units despace de pagination pour une configuration russie de la mmoire partage. Information associe Unit despace de pagination

Partition VIOS de pagination


Une partition logique Virtual I/O Server (VIOS) affecte au pool de mmoire partage (appele ci-aprs partition VIOS de pagination) fournit laccs aux units despace de pagination pour les partitions logiques affectes au pool de mmoire partage (appeles ci-aprs partitions de mmoire partage). Lorsque le systme dexploitation qui sexcute sur une partition de mmoire partage tente daccder des donnes et que ces donnes se trouvent sur lunit despace de pagination affecte la partition de mmoire partage, lhyperviseur envoie une demande une partition VIOS de pagination pour quelle extraie les donnes et les crive dans le pool de mmoire partage afin de les rendre accessible au systme dexploitation. Une partition VIOS de pagination nest pas une partition de mmoire partage et nutilise pas la mmoire du pool de mmoire partage. Une partition VIOS de pagination fournit laccs aux units despace de pagination pour les partitions de mmoire partage.

Integrated Virtualization Manager


Sur les systmes grs par le gestionnaire Integrated Virtualization Manager, la partition de gestion est la partition VIOS de pagination pour les partitions de mmoire partage affectes au pool de mmoire partage. Lorsque vous crez le pool de mmoire partage, vous affectez un pool de stockage de pagination au pool de mmoire partage. Le pool de stockage de pagination fournit les units despace de pagination pour les partitions de mmoire partage qui sont affectes au pool de mmoire partage.

Console HMC
Sur les systmes grs via une console HMC (Hardware Management Console), vous pouvez affecter au pool de mmoire partage une ou deux partitions logiques VIOS. Lorsque vous affectez une seule partition VIOS de pagination au pool de mmoire partage, cette partition fournit laccs lensemble des units despace de pagination pour les partitions de mmoire partage. Lunit despace de pagination peut tre situe dans la mmoire physique du serveur ou sur un rseau de systmes (SAN). Lorsque vous affectez deux partitions VIOS de pagination au pool de mmoire partage, vous pouvez configurer chacune de ces partitions pour un accs aux units despace de pagination de lune des faons suivantes : v Vous pouvez configurer chaque partition VIOS de pagination pour un accs indpendant aux units despace de pagination. Les units despace de pagination accdes par une seule partition VIOS de pagination, ou units despace de pagination indpendantes, peuvent tre situes en mmoire physique sur le serveur ou sur un rseau de systmes (SAN). v Vous pouvez configurer les deux partitions VIOS de pagination pour accder aux mmes units despace de pagination (communes). Dans cette configuration, les partitions VIOS de pagination fournissent un accs redondant aux units despace de pagination. Si une partition VIOS de pagination est inaccessible, lhyperviseur envoie une demande lautre partition pour que les donnes de lunit despace de pagination soient extraites. Les units despace de pagination communes doivent tre situes sur un rseau de systmes pour permettre un accs symtrique depuis les deux partitions VIOS de pagination. v Vous pouvez configurer chaque partition VIOS de pagination pour un accs des units despace de pagination indpendantes et units despace de pagination communes.

Virtual I/O Server

31

Si vous configurez le pool de mmoire partage avec deux partitions VIOS de pagination, vous pouvez configurer une partition de mmoire partage pour quelle utilise une partition VIOS de pagination unique ou des partitions VIOS de pagination redondantes. Lorsque vous configurez une partition de mmoire partage pour une utilisation de partitions VIOS de pagination redondantes, vous affectez une partition principale et une partition secondaire la partition de mmoire partage. Lhyperviseur utilise la partition VIOS de pagination principale pour accder lunit despace de pagination de la partition de mmoire partage. A ce stade, la partition principale est la partition VIOS de pagination en cours pour la partition de mmoire partage. La partition VIOS de pagination en cours est la partition utilise par Hypervisor tout moment pour accder des donnes de lunit despace de pagination affecte la partition de mmoire partage. Si la partition VIOS de pagination principale est indisponible, Hypervisor utilise la partition secondaire pour accder lunit despace de pagination de la partition de mmoire partage. A ce stade, la partition secondaire devient la partition VIOS de pagination en cours pour la partition de mmoire partage et le reste mme lorsque la partition VIOS de pagination principale est de nouveau disponible. Vous navez pas besoin daffecter les mmes partions VIOS de pagination principale et secondaire lensemble des partitions de mmoire partage. Vous pouvez, par exemple, affecter les partitions VIOS de pagination A et B au pool de mmoire partage. Pour une partition de mmoire partage, vous pouvez affecter la partition A en tant que partition VIOS de pagination principale et la partition B comme partition VIOS de pagination secondaire. Pour une autre partition de mmoire partage, vous pouvez faire linverse. La figure ci-aprs reprsente un exemple de systme comportant quatre partitions de mmoire partage, deux partitions VIOS de pagination et quatre units despace de pagination.

32

Virtual I/O Server

Lexemple illustre les options de configuration pour des partitions VIOS de pagination et des units despace de pagination telles que dcrites dans le tableau suivant.

Virtual I/O Server

33

Tableau 13. Exemples de configurations de partition VIOS de pagination Option de configuration Lunit despace de pagination affecte une partition de mmoire partage se trouve en mmoire physique sur le serveur et est accde par une partition VIOS de pagination unique. Exemple LUnit despace de pagination 4 fournit lespace de pagination pour la Partition de mmoire partage 4. La Partition de mmoire partage 4 est affecte de faon utiliser la Partition VIOS de pagination 2 pour accder lUnit despace de pagination 4. LUnit despace de pagination 4 se trouve en mmoire physique sur le serveur et est affecte la Partition VIOS de pagination 2. La Partition VIOS de pagination 2 est la seule partition VIOS de pagination pouvant accder lUnit despace de pagination 4 (cette relation est reprsente par la ligne bleue reliant la Partition VIOS de pagination 2 lUnit despace de pagination 4). LUnit despace de pagination 1 fournit lespace de pagination pour la Partition de mmoire partage 1. La Partition de mmoire partage 1 est affecte de faon utiliser la Partition VIOS de pagination 1 pour accder lUnit despace de pagination 1. LUnit despace de pagination 1 est connecte au rseau de systmes. La Partition VIOS de pagination 1 est galement connecte au rseau de systmes. Il sagit de la seule partition VIOS de pagination pouvoir accder lUnit despace de pagination 1 (cette relation est reprsente par la ligne verte reliant la Partition VIOS de pagination 1 lUnit despace de pagination 1).

Lunit despace de pagination affecte une partition de mmoire partage se trouve sur un rseau de systmes (SAN) et est accde par une partition VIOS de pagination unique.

34

Virtual I/O Server

Tableau 13. Exemples de configurations de partition VIOS de pagination (suite) Option de configuration Lunit despace de pagination affecte une partition de mmoire partage se trouve sur un rseau de systmes (SAN) et est accde de faon redondante par deux partitions VIOS de pagination. Exemple LUnit despace de pagination 2 fournit lespace de pagination pour la Partition de mmoire partage 2. LUnit despace de pagination 2 est connecte au rseau de systmes. Les partitions VIOS de pagination 1 et 2 sont galement connectes au rseau de systmes. Elles peuvent toutes deux accder lUnit despace de pagination 2 (ces relations sont reprsentes par les lignes et verte et bleue reliant respectivement la Partition VIOS de pagination 1 lUnit despace de pagination 2 et la Partition VIOS de pagination 2 lUnit despace de pagination 2). La Partition de mmoire partage 2 est affecte pour utiliser les partitions VIOS de pagination redondantes pour accder lUnit despace de pagination 2. La partition VIOS de pagination 1 est configure en tant que partition principale et la partition VIOS de pagination 2 en tant que partition secondaire. De la mme faon, lUnit despace de pagination 3 fournit lespace de pagination pour la Partition de mmoire partage 3. LUnit despace de pagination 3 est connecte au rseau de systmes. Les partitions VIOS de pagination 1 et 2 sont galement connectes au rseau de systmes. Elles peuvent toutes deux accder lUnit despace de pagination 3 (ces relations sont reprsentes par les lignes et verte et bleue reliant respectivement la Partition VIOS de pagination 1 lUnit despace de pagination 3 et la Partition VIOS de pagination 2 lUnit despace de pagination 3). La Partition de mmoire partage 3 est affecte pour utiliser les partitions VIOS de pagination redondantes pour accder lUnit despace de pagination 3. La partition VIOS de pagination 2 est configure en tant que partition principale et la partition VIOS de pagination 1 en tant que partition secondaire. Parce que les partitions VIOS de pagination 1 et 2 ont accs aux units despace de pagination 2 et 3, celles-ci sont des units despace de pagination communes, auxquelles les partitions VIOS de pagination 1 et 2 accdent de faon redondantes. Si la Partition VIOS de pagination 1 est indisponible et que la Partition de mmoire partage 2 a besoin daccder des donnes qui se trouvent sur son unit despace de pagination, lhyperviseur envoie une demande la Partition VIOS de pagination 2 pour que les donnes soient rcupres sur lUnit despace de pagination 2. De la mme faon, si la Partition VIOS de pagination 2 est indisponible et que la Partition de mmoire partage 3 a besoin daccder aux donnes sur son unit despace de pagination, une demande est envoye la Partition VIOS de pagination 1 pour que les donnes soient extraites sur lUnit despace de pagination 3.

Virtual I/O Server

35

Tableau 13. Exemples de configurations de partition VIOS de pagination (suite) Option de configuration Une partition VIOS de pagination accde la fois aux units despace de pagination indpendantes et commues. Exemple Les units despace de pagination 1 et 4 sont indpendantes car une seule Partition VIOS de pagination peut accder chacune delles. La Partition VIOS de pagination 1 accde lUnit despace de pagination 1, et la Partition VIOS de pagination 2 accde lUnit despace de pagination 4. Les units despace de pagination 2 et 3 sont des units communes car elles sont accessibles aux deux partitions VIOS de pagination. (Ces relations sont reprsentes par les lignes verte et bleue reliant les partitions VIOS de pagination aux units despace de pagination.) La Partition VIOS de pagination 1 accde lUnit despace de pagination indpendant 1, ainsi quaux units despace de pagination communes 2 et 3. La Partition VIOS de pagination 2 accde lUnit despace de pagination indpendant 4, ainsi quaux units despace de pagination communes 2 et 3.

Lorsquune partition VIOS de pagination est affecte au pool de mmoire partage, vous devez arrter les partitions de mmoire partage avant la partition VIOS de pagination, afin que les partitions de mmoire partage ne soient pas interrompues lorsquelles tentent daccder leurs units despace de pagination. Lorsque deux partitions VIOS de pagination sont affectes au pool de mmoire partage et que les partitions de mmoire partage sont configures pour utiliser des partitions VIOS de paginations redondantes, vous navez pas besoin darrter les partitions de mmoire partage pour arrter une partition VIOS de pagination. Si une partition VIOS de pagination est arrte,les partitions de mmoire partage utilisent lautre partition VIOS de pagination pour accder leurs units despace de pagination. Vous pouvez, par exemple, arrter une partition VIOS de pagination et installer des mises jour VIOS sans arrter les partitions de mmoire partage. Vous pouvez configurer plusieurs partitions logiques VIOS pour fournir un accs aux units despace de pagination. Cependant, vous ne pouvez pas affecter simultanment plus de deux de ces partitions VIOS au pool de mmoire partage. Aprs avoir configur les partitions de mmoire partage, vous pouvez modifier ultrieurement la configuration de redondance des partitions VIOS de pagination pour une partition de mmoire partage en modifiant le profil de partition de la partition de mmoire partage et en redmarrant la partition de mmoire partage avec le profil de partition modifi : v Vous pouvez changer les partitions VIOS de pagination qui sont affectes une partition de mmoire partage en tant que partitions principale et secondaire. v Vous pouvez changer le nombre de partitions VIOS de pagination qui sont affectes une partition de mmoire partage.

Gestion du serveur Virtual I/O Server


Cette rubrique dcrit les outils de gestion du serveur Virtual I/O Server, tels que linterface de ligne de commande Virtual I/O Server, ainsi que les produits Tivoli qui permettent de grer les divers aspects du serveur Virtual I/O Server. Sur les systmes non grs par une console HMC, le serveur Virtual I/O Server devient la partition de gestion. Celui-ci comporte linterface graphique Integrated Virtualization Manager qui facilite la gestion du systme. Pour plus dinformations, voir Integrated Virtualization Manager.

36

Virtual I/O Server

Interface de ligne de commande Virtual I/O Server


Cette rubrique explique comment accder linterface de ligne de commande Virtual I/O Server et lutiliser. Virtual I/O Server est configur et gr par lintermdiaire dune interface de ligne de commande. Dans les environnements ne comportant pas de console HMC, certaines tches de Virtual I/O Server peuvent galement tre excutes laide du gestionnaire Integrated Virtualization Manager. Tous les aspects de ladministration de Virtual I/O Server peuvent tre raliss via linterface de ligne de commande, notamment : v Gestion des units (physiques, virtuelles, LVM (Logical Volume Manager)) v Configuration du rseau v Installation et mise jour du logiciel v Scurit v Gestion des utilisateurs v Tches de maintenance En outre, dans les environnements grs par le gestionnaire Integrated Virtualization Manager, vous pouvez utiliser linterface de ligne de commande Virtual I/O Server pour grer les partitions logiques. Lors de votre premire connexion au Virtual I/O Server, utilisez lID utilisateur padmin (cest--dire celui de ladministrateur principal). Vous tes invit entrer un nouveau mot de passe.

Shell accs restreint


Lors de la connexion, vous tes plac dans un shell Korn accs restreint. Il fonctionne comme un shell Korn standard, sauf que vous ne pouvez pas : v Modifier le rpertoire de travail en cours v Attribuer une valeur aux variables SHELL, ENV ou PATH v Indiquer le nom de chemin daccs de la commande qui contient une barre oblique (/) v Rediriger le rsultat dune commande laide de lun des caractres suivants : >, >|, <>, >> En consquence de ces restrictions, vous ntes pas en mesure dexcuter des commandes auxquelles vos variables PATH nont pas accs. En outre, ces restrictions vous empchent denvoyer directement le rsultat de la commande vers un fichier. Par contre, le rsultat de la commande peut tre dirig vers la commande tee. Aprs la connexion, vous pouvez taper help pour obtenir des informations sur les commandes prises en charge. Par exemple, pour obtenir de laide sur la commande errlog, tapez help errlog.

Mode dexcution
Linterface de ligne de commande Virtual I/O Server fonctionne comme une interface de ligne de commande standard. Les commandes sont excutes avec les options et les paramtres appropris. Par exemple, pour rpertorier toutes les cartes, entrez :
lsdev -type adapter

En outre, les scripts peuvent tre excuts dans lenvironnement de linterface de ligne de commande Virtual I/O Server. Outre les commandes dinterface de ligne de commande Virtual I/O Server, les commandes de shell standard suivantes sont fournies :

Virtual I/O Server

37

Tableau 14. Commandes de shell standard, accompagnes de leur fonction Commande awk cat chmod cp date grep ls mkdir man more rm sed stty tee vi wc who Fonction Permet de mettre les modles en correspondance et de raliser des actions sur eux. Cette commande permet de concatner ou dafficher des fichiers. Cette commande permet de modifier les modes douverture de fichier. Permet de copier des fichiers. Permet dafficher la date ou lheure. Permet de rechercher un fichier pour un modle. Permet dafficher le contenu dun rpertoire Permet de crer un rpertoire. Permet dafficher des entres manuelles pour les commandes du serveur Virtual I/O Server. Permet dafficher le contenu des fichiers dun cran la fois. Permet de supprimer des fichiers. Permet de fournir un diteur par flot de donnes. Permet daffecter des valeurs aux paramtres dexploitation du poste de travail, de les rinitialiser ou de les notifier. Permet dafficher le rsultat dun programme et de le copier dans un fichier. Permet de rviser des fichiers en affichage plein-cran. Permet de compter le nombre de lignes, de mots, doctets et de caractres dans un fichier Permet didentifier les utilisateurs connects.

Au fur et mesure de lexcution de chaque commande, le journal de lutilisateur et le journal de commandes global sont mis jour. Le journal de lutilisateur contient une liste de chaque commande du serveur Virtual I/O Server, y compris les arguments, que lutilisateur a excute. Un journal de lutilisateur est cr par utilisateur du systme. Ce journal se trouve dans le rpertoire principal de lutilisateur et peut tre affich grce la commande cat ou vi. Le journal de commandes global (GCL) comprend toutes les commandes (y compris les arguments) de linterface de ligne de commande Virtual I/O Server excutes par tous les utilisateurs, la date et lheure auxquelles les commandes ont t excutes et lID utilisateur partir duquel elles ont t excutes. Il ne peut tre consult que par lID utilisateur padmin laide de la commande lsgcl. Si la taille du journal de commandes global est suprieure 1 Mo, il est tronqu 250 ko pour empcher le systme de fichiers datteindre sa limite de capacit. Remarque : Les commandes Integrated Virtualization Manager sont analyses dans un emplacement distinct et peuvent tre affiches dans les journaux dapplication ou laide la commande suivante :
lssvcevents -t console --filter severities=audit

Information associe Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes

Logiciels Tivoli et Virtual I/O Server


Apprenez intgrer le serveur Virtual I/O Server dans votre environnement Tivoli pour Tivoli Application Dependency Discovery Manager,Tivoli Monitoring, Tivoli Storage Manager, Tivoli Usage and Accounting Manager, Tivoli Identity Manageret TotalStorage Productivity Center.

38

Virtual I/O Server

Tivoli Application Dependency Discovery Manager


Tivoli Application Dependency Discovery Manager (TADDM) reconnat des lments dinfrastructure dtects dans le centre de donnes classique, y compris les logiciels dapplication, les htes et les environnements dexploitation (notamment Virtual I/O Server), les composants du rseau (tels que les routeurs, les commutateurs, les quilibreurs de charge, les pare-feu et les units de stockage) et les services rseau (tels que LDAP, NFS et DNS). Suivant les donnes collectes, TADDM cre et gre automatiquement des mappes dinfrastructure dapplication contenant les dpendances dexcution, les valeurs de configuration et lhistorique des changements. Ces informations permettent de dterminer les interdpendances entre les applications de gestion, les applications logicielles et les composants physiques pour garantir et amliorer la disponibilit des applications dans votre environnement. Vous pouvez, par exemple, effectuer les tches suivantes : v Vous pouvez isoler les incidents logiciels lis la configuration. v Vous pouvez planifier les modifications logicielles afin de rduire ou dliminer les interruptions non prvues. v Vous pouvez crer une dfinition topologique partage dapplications en vue dune utilisation par dautres applications de gestion. v Vous pouvez dterminer leffet dune seule modification de configuration sur une application de gestion ou un service. v Vous voyez les modifications effectues dans lenvironnement dapplication et leur emplacement. TADDM comporte un moteur de reconnaissance sans agent et peut donc reconnatre un Virtual I/O Server sans quun agent ou un client soit install et configur. TADDM utilise au lieu de cela des dtecteurs de reconnaissance sappuyant sur des protocoles ouverts et scuriss et des mcanismes daccs pour reconnatre les composants du centre de donnes.

Tivoli Identity Manager


Tivoli Identity Manager permet de grer les identits et les utilisateurs sur plusieurs plateformes, notamment AIX, Windows, Solaris, etc. Avec Tivoli Identity Manager 4.7 et version ultrieure, vous pouvez galement inclure les utilisateurs Virtual I/O Server. Tivoli Identity Manager contient un adaptateur Virtual I/O Server qui sert dinterface entre le serveur Virtual I/O Server et le serveur Tivoli Identity Manager. Il est possible que ladaptateur ne se trouve pas sur le Virtual I/O Server. Dans ce cas, le serveur Tivoli Identity Manager gre laccs au Virtual I/O Server en utilisant votre systme de scurit. Ladaptateur sexcute comme un service, quun utilisateur soit connect ou non au serveur Tivoli Identity Manager. Ladaptateur fonctionne comme un administrateur virtuel de confiance sur le serveur Virtual I/O Server, excutant des tches semblables aux suivantes : v Cration dun ID utilisateur autorisant laccs au Virtual I/O Server. v Modification dun ID utilisateur existant permettant daccder auVirtual I/O Server. v v v v v Suppression de laccs partir dun ID utilisateur. LID utilisateur est supprim de Virtual I/O Server. Suspension dun compte utilisateur en dsactivant laccs auVirtual I/O Server. Restauration dun compte utilisateur en ractivant laccs au Virtual I/O Server. Modification du mot de passe dun compte utilisateur sur leVirtual I/O Server. Rconciliation des informations utilisateur de tous les utilisateurs en cours sur le serveur Virtual I/O Server. v Rconciliation des informations utilisateur dun compte utilisateur donn sur le serveur Virtual I/O Server en effectuant une consultation.

Virtual I/O Server

39

Tivoli Monitoring
Virtual I/O Server V1.3.0.1 (groupe de correctifs 8.1) comporte lagent Tivoli Monitoring System Edition . Tivoli Monitoring System Edition permet de surveiller la sant et la disponibilit de plusieurs serveurs (y compris Virtual I/O Server) partir du portail Tivoli Enterprise. Tivoli Monitoring System Edition regroupe les donnes de Virtual I/O Server, notamment les donnes relatives aux volumes physiques, aux volumes logiques, aux pools de stockage, aux mappages de mmoire, aux mappages de rseau, la mmoire relle, aux ressources du processeur, la taille des systmes de fichiers monts, etc. Le portail Tivoli Enterprise permet de visualiser une reprsentation graphique des donnes, dutiliser des seuils prdfinis afin de recevoir des alertes sur les mesures cls et de rsoudre les problmes daprs les recommandations fournies par la fonction Expert Advice de Tivoli Monitoring.

Tivoli Storage Manager


Virtual I/O Server 1.4 inclut le client Tivoli Storage Manager. Avec Tivoli Storage Manager, vous pouvez protger les donnes de Virtual I/O Server en cas de dfaillance ou derreur en les stockant dans une hirarchie darchivage hors ligne et en les rcuprant aprs un incident. Tivoli Storage Manager amliore la protection des ordinateurs fonctionnant dans divers environnements dexploitation, notamment Virtual I/O Server, sur diffrents types de matriel. Si vous configurez le client Tivoli Storage Manager sur le serveur Virtual I/O Server, vous pouvez inclure le serveur Virtual I/O Server dans une infrastructure de sauvegarde standard.

Tivoli Usage and Accounting Manager


Virtual I/O Server 1.4 inclut lagent Tivoli Usage and Accounting Manager sur le serveur Virtual I/O Server. Tivoli Usage and Accounting Manager permet de suivre, dattribuer et de facturer les cots informatiques via la collecte de donnes, lanalyse des donnes et ldition de rapports sur les ressources utilises par les entits telles que les centres de cots, les services et les utilisateurs. Tivoli Usage and Accounting Manager permet de collecter des donnes provenant de centres de donnes multi-niveaux qui utilisent Windows, AIX, Virtual I/O Server, HP/UX Sun Solaris, Linux, et VMware.

TotalStorage Productivity Center


Virtual I/O Server 1.5.2 permet de configurer les agents TotalStorage Productivity Center sur le serveur Virtual I/O Server. TotalStorage Productivity Center est une suite de gestion de linfrastructure de stockage intgre conue pour simplifier et automatiser la gestion des units de stockage et des rseaux de stockage, ainsi que lutilisation de la capacit des systmes de fichiers et des bases de donnes. Lors de linstallation et de la configuration des agents TotalStorage Productivity Center sur le serveur Virtual I/O Server, vous pouvez utiliser linterface utilisateur de TotalStorage Productivity Center pour collecter et afficher des informations sur le serveur Virtual I/O Server. Vous pouvez ensuite effectuer les tches suivantes laide de linterface utilisateur TotalStorage Productivity Center : 1. Excuter un travail de reprage pour les agents sur le serveur Virtual I/O Server. 2. Effectuer des sondes, des analyses et des travaux ping pour collecter les informations de stockage relatives au Virtual I/O Server. 3. Gnrer des rapports laide de Fabric Manager et du gestionnaire de donnes pour afficher les informations de stockage regroupes. 4. Afficher les informations de stockage regroupes laide du visualiseur de topologie.

40

Virtual I/O Server

Tches associes Configuration des agents et des clients Tivoli sur le serveur Virtual I/O Server, la page 113 Vous pouvez configurer et dmarrer lagent Tivoli Monitoring , Tivoli Usage and Accounting Manager, le client Tivoli Storage Manager, et les agents Tivoli TotalStorage Productivity Center. Information associe Centre de documentation IBM Tivoli Application Dependency Discovery Manager IBM Tivoli Identity Manager Documentation IBM Tivoli Monitoring version 6.2.1 Tivoli Monitoring Virtual I/O Server Premium Agent - Guide dutilisation IBM Tivoli Storage Manager Centre de documentation IBM Tivoli Usage and Accounting Manager Centre de documentation IBM TotalStorage Productivity Center

Logiciel Systems Director


Cette rubrique dcrit lintgration de Virtual I/O Server un environnement Systems Director. Systems Director est un logiciel de gestion de plateformes qui rationalise votre mode de gestion des systmes physiques et virtuels dans un environnement htrogne. En optimisant les normes de lindustrie, Systems Director prend en charge plusieurs systmes dexploitation et technologies de virtualisation sur de nombreuses plateformes non-IBM. Par le biais dune interface utilisateur unique, Systems Director offre des vues cohrentes pour laffichage des systmes grs, la dtermination des relations entre ces systmes et lidentification de leur statut, ce qui permet de mettre en corrlation les ressources techniques et les besoins mtier. Systems Director inclut un ensemble de tches courantes qui fournissent un grand nombre des fonctions essentielles ncessaires la gestion de base. Ces tches comprennent la reconnaissance, linventaire, la configuration, ltat de sant du systme, la surveillance, les mises jour, la notification dvnements et lautomatisation sur les systmes grs. Les interfaces Web et de ligne de commande Systems Director fournissent un outil cohrent centr sur ces tches courantes : v Reconnaissance, navigation et visualisation des systmes sur le rseau, avec inventaire dtaill et relations avec les autres ressources du rseau. v Notifications, envoyes aux utilisateurs, en ce qui concerne les problmes qui apparaissent sur les systmes et les modalits de navigation jusqu la source du problme. v Notifications, envoyes aux utilisateurs, en ce qui concerne les mises jour ncessaires des systmes, puis distribution et installation des mises jour selon un calendrier. v Analyse des donnes en temps rel pour les systmes et dfinition de seuils critiques indiquant lmergence de problmes ladministrateur. v Configuration de paramtres pour un systme unique et cration dun plan de configuration pouvant appliquer ces paramtres plusieurs systmes. v Mise jour des modules dextension installs en vue dajouter des fonctions aux capacits de base. v Gestion du cycle de vie des ressources virtuelles.

Virtual I/O Server

41

Tches associes Configuration de lagent Director, la page 119 Vous pouvez configurer et dmarrer lagent Director sur le serveur Virtual I/O Server. Information associe IBM Systems Director technical overview

Scnarios de configuration relatifs au serveur Virtual I/O Server


Les scnarios suivants fournissent des exemples de configurations rseau pour la partition logique Virtual I/O Server et les partitions logiques client. Les scnarios et les exemples de configuration ci-aprs vous permettront den apprendre davantage sur Virtual I/O Server et ses composants.

Scnario : Configuration dun serveur Virtual I/O Server sans marquage VLAN
Ce scnario vous permettra de vous familiariser avec la cration dun rseau sans marquage VLAN.

A propos de cette tche


Contexte Vous tes ladministrateur systme charg de planifier et de configurer le rseau dans un environnement dans lequel sexcute Virtual I/O Server. Vous souhaitez configurer un sous-rseau logique unique sur le systme qui communique avec le commutateur. Objectif Lobjectif de ce scnario est de configurer le rseau dans lequel seul un PVID (ID VLAN de port) est utilis, les paquets ne sont pas marqus et un rseau interne unique est connect un commutateur. Aucun port marqu VLAN nest configur sur le commutateur Ethernet et toutes les cartes Ethernet virtuelles sont dfinies laide dun PVID par dfaut unique et aucun autre VID. Conditions pralables et hypothses v La console HMC (Hardware Management Console) a t installe et configure. Pour visualiser le fichier PDF de la rubrique Installation et configuration de la console HMC (environ 3 Mo), voir . oemiphai.pdf v Vous devez avoir compris les concepts de partitionnement dcrits dans le document Partitionnement logique. Pour visualiser le fichier PDF de la rubrique Partitionnement logique (environ 1 Mo), voir v v v v . oemiphat.pdf La partition logique Virtual I/O Server a t cre et Virtual I/O Server a t install. Pour plus dinformations, voir Installation de Virtual I/O Server et des partitions logiques client, la page 77. Vous avez cr les autres partitions logiques que vous souhaitez ajouter la configuration de rseau. Vous disposez dun commutateur Ethernet et dun routeur ajouter la configuration. Vous avez des adresses IP pour toutes les partitions logiques et tous les systmes ajouter la configuration.

Cette procdure dcrit le mode de configuration dans un environnement HMC; il est toutefois possible deffectuer cette configuration dans un environnement Integrated Virtualization Manager. Etapes de la configuration La figure suivante montre la configuration qui va tre effectue avec ce scnario.

42

Virtual I/O Server

En utilisant la figure prcdente comme guide, suivez la procdure ci-aprs. 1. Configurez un commutateur Ethernet avec des ports non marqus. Vous pouvez galement utiliser un commutateur Ethernet qui nutilise pas le rseau local virtuel (VLAN). 2. Pour le systme S1, utilisez la console HMC pour crer une carte Ethernet virtuelle (V11) pour le serveur Virtual I/O Server avec la valeur Trunk (carte de ligne rseau), un PVID paramtr sur 1 et aucun autre VID. 3. Pour le systme S1, utilisez la console HMC pour crer les cartes Ethernet virtuelles V12 et V13 pour les partitions logiques S11 et S12, respectivement, avec un PVID paramtr sur 1 et aucun autre VID. 4. Pour le systme S1, utilisez la console HMC pour affecter la carte Ethernet physique E11 au Virtual I/O Server et la connecter au port de commutation Ethernet P1.
Virtual I/O Server

43

5. Sur le serveur Virtual I/O Server, configurez la carte Ethernet partage ent2 avec la carte physique ent0 et la carte virtuelle ent1. 6. Dmarrez les partitions logiques. Le processus reconnat les units virtuelles cres ltape 1. 7. Configurez des adresses IP pour S11 (en0), S12 (en0) et S2 (en0) de manire ce quelles appartiennent toutes au mme sous-rseau avec le routeur connect au port P5 du commutateur Ethernet.

Rsultats
Vous pouvez galement configurer la carte Ethernet partage de la partition logique Virtual I/O Server avec des adresses IP du mme sous-rseau. Cette opration est obligatoire uniquement pour la connectivit rseau vers la partition logique Virtual I/O Server.

Scnario : Configuration dun serveur Virtual I/O Server avec marquage VLAN
Ce scnario vous permettra de vous familiariser avec la cration dun rseau avec marquage VLAN.

A propos de cette tche


Contexte Vous tes ladministrateur systme charg de planifier et de configurer le rseau dans un environnement dans lequel sexcute Virtual I/O Server. Vous souhaitez configurer le rseau avec deux sous-rseaux logiques et des partitions logiques sur chaque sous-rseau. Objectif Lobjectif de ce scnario est de configurer plusieurs rseaux afin quils puissent partager une seule carte Ethernet physique. Les systmes appartenant au mme sous-rseau doivent tre situs sur le mme rseau local virtuel (VLAN) et donc avoir le mme ID VLAN (VID) qui permet les communications sans devoir passer par un routeur. La sparation entre les sous-rseaux est effectue en sassurant que les systmes des deux sous-rseaux sont associs des ID VLAN diffrents. Conditions pralables et hypothses v La console HMC (Hardware Management Console) a t installe et configure. Pour visualiser le fichier PDF de la rubrique Installation et configuration de la console HMC (environ 3 Mo), voir . oemiphai.pdf v Vous devez avoir compris les concepts de partitionnement dcrits dans le document Partitionnement logique. Pour visualiser le fichier PDF de la rubrique Partitionnement logique (environ 1 Mo), voir v v v v . oemiphat.pdf La partition logique Virtual I/O Server a t cre et Virtual I/O Server a t install. Pour plus dinformations, voir Installation de Virtual I/O Server et des partitions logiques client, la page 77. Vous avez cr les autres partitions logiques AIX ou Linux que vous souhaitez ajouter la configuration de rseau. Vous disposez dun commutateur Ethernet et dun routeur ajouter la configuration. Vous avez des adresses IP pour toutes les partitions logiques et tous les systmes ajouter la configuration.

Vous ne pouvez pas utiliser la fonction de rseau local virtuel (VLAN) dans un environnement Integrated Virtualization Manager. Etapes de la configuration

44

Virtual I/O Server

La figure suivante montre la configuration qui va tre effectue avec ce scnario.

En utilisant la figure prcdente comme guide, suivez la procdure ci-aprs.


Virtual I/O Server

45

1. Configurez v P1 : Port v P2 : Port v P5 : Port v P6 : Port

les ports du commutateur Ethernet comme suit : marqu - VID (ID-VLAN) 1, 2 non marqu - PVID (ID-VLAN de port) 1 non marqu - PVID 1 non marqu - PVID 2

Pour plus dinformations sur la configuration des ports, consultez la documentation accompagnant votre commutateur. 2. Pour le systme S1, utilisez la console HMC pour crer des cartes Ethernet virtuelles pour le serveur Virtual I/O Server : v Crez la carte Ethernet virtuelle V11 pour le serveur Virtual I/O Server avec la valeur Trunk (carte de ligne rseau) et le VID fix 2. Indiquez une valeur de PVID non utilise. Cette valeur est obligatoire mme si elle nest pas utilise. v Crez la carte Ethernet virtuelle V12 pour le serveur Virtual I/O Server avec la valeur Trunk (carte de ligne rseau) et le VID fix 1. Indiquez une valeur de PVID non utilise. Cette valeur est obligatoire mme si elle nest pas utilise. 3. Pour le systme S1, utilisez la console HMC pour crer des cartes Ethernet virtuelles pour les autres partitions logiques : v Crez les cartes Ethernet virtuelles V13 et V14 pour les partitions logiques S11 et S12, respectivement, avec un PVID fix 2 et aucun autre VID. v Crez les cartes virtuelles V15 et V16 pour les partitions logiques S13 et S14, respectivement, avec un PVID fix 1 et aucun autre VID. 4. Pour le systme S1, utilisez la console HMC pour affecter la carte Ethernet physique (E11) au Virtual I/O Server et la connecter au port de commutation Ethernet P1. 5. Sur linterface de ligne de commande Virtual I/O Server, configurez une carte Ethernet partage ent3 avec la carte physique ent0 et les cartes virtuelles ent1 et ent2. 6. Configurez des adresses IP pour les cartes suivantes : v S13 (en0), S14 (en0) et S2 (en0) appartiennent au rseau local virtuel (VLAN) 1 et figurent sur le mme sous-rseau. Le routeur est connect au port P5 du commutateur Ethernet. v S11 (en0) et S12 (en0) appartiennent au VLAN 2 et figurent sur le mme sous-rseau. Le routeur est connect au port P6 du commutateur Ethernet.

Rsultats
Vous pouvez configurer la carte Ethernet partage sur la partition logique Virtual I/O Server avec une adresse IP. Cette opration est obligatoire uniquement pour la connectivit rseau vers le Virtual I/O Server. Comme le rseau marqu VLAN est utilis, vous devez dfinir des units VLAN supplmentaires sur les cartes Ethernet partages avant de configurer les adresses IP.

Scnario : Configuration de la reprise par transfert de carte Ethernet partage


Cette section prsente un scnario classique de reprise par transfert de carte Ethernet partage.

A propos de cette tche


Contexte Vous tes ladministrateur systme charg de planifier et de configurer le rseau dans un environnement dans lequel sexcute Virtual I/O Server. Vous souhaitez assurer une plus grande disponibilit rseau la

46

Virtual I/O Server

partition logique client sur le systme. Pour ce faire, vous pouvez configurer une carte Ethernet partage de secours sur une autre partition logique Virtual I/O Server. Objectif Dans ce scnario, lobjectif est de configurer une carte Ethernet partage principale et une de secours sur les partitions logiques Virtual I/O Server de manire ne pas perdre la connexion rseau des partitions logiques client en cas de dfaillance de la carte. Conditions pralables et hypothses v La console HMC (Hardware Management Console) a t installe et configure. Pour visualiser le fichier PDF de la rubrique Installation et configuration de la console HMC (environ 3 Mo), voir . oemiphai.pdf v Vous devez avoir compris les concepts de partitionnement dcrits dans le document Partitionnement logique. Pour visualiser le fichier PDF de la rubrique Partitionnement logique (environ 1 Mo), voir . oemiphat.pdf v Deux partitions logiques Virtual I/O Server distinctes ont t cres et Virtual I/O Server a t install dans chacune delles. Pour plus dinformations, voir Installation de Virtual I/O Server et des partitions logiques client, la page 77. v Vous connaissez le principe et le fonctionnement de la reprise par transfert dune carte Ethernet partage. Voir Reprise par transfert de carte Ethernet partage, la page 71. v Vous avez cr les autres partitions logiques que vous souhaitez ajouter la configuration de rseau. v A chaque partition logique Virtual I/O Server est affecte une carte Ethernet physique disponible. v Vous avez des adresses IP pour toutes les partitions logiques et tous les systmes ajouter la configuration. Vous ne pouvez pas utiliser le gestionnaire Integrated Virtualization Manager avec plusieurs partitions logiques Virtual I/O Server sur le mme serveur. Lillustration suivante reprsente une configuration incluant la fonction de reprise par transfert de carte Ethernet partage. Les partitions logiques client H1 et H2 accdent au rseau physique via les cartes Ethernet partages (cest--dire les cartes principales). Les cartes Ethernet virtuelles utilises dans la configuration de rseau Ethernet partage sont dfinies laide des mmes informations dappartenance au rseau local virtuel (PVID, VID), mais prsentent des proprits diffrentes. Un rseau virtuel ddi constitue le canal de contrle ; il est indispensable pour faciliter la communication entre lunit Ethernet partage principale et celle de secours.

Virtual I/O Server

47

En utilisant la figure prcdente comme guide, suivez la procdure ci-aprs. 1. Sur la console HMC, crez les cartes Ethernet virtuelles en procdant comme suit : v Configurez les cartes virtuelles utiliser pour les donnes en tant que cartes de ligne rseau ; pour ce faire, slectionnez loption correspondante. v Affectez des valeurs de priorit diffrentes (les valeurs autorises sont comprises entre 1 et 15) chaque carte virtuelle. v Configurez une autre carte Ethernet virtuelle utiliser pour le canal de contrle et attribuez-lui une valeur PVID unique. Assurez-vous dutiliser le mme PVID lors de la cration de cette carte Ethernet virtuelle pour les deux partitions logiques Virtual I/O Server. 2. Sur la ligne de commande du serveur Virtual I/O Server, excutez la commande suivante pour configurer la carte Ethernet partage. Excutez cette commande sur les deux partitions logiques Virtual I/O Server :

48

Virtual I/O Server

mkvdev -sea carte_physique -vadapter carte_virtuelle -default carte_virtuelle\ -defaultid PVID_carte_virtuelle -attr ha_mode=auto ctl_chan=carte_canal_contrle

Dans ce scnario, par exemple, nous avons excut la commande suivante sur les deux partitions logiques Virtual I/O Server :
mkvdev -sea ent0 -vadapter ent1 -default ent1 -defaultid 60 -attr ha_mode=auto ctl_chan=ent2

Scnario : Configuration de la fonction de sauvegarde via linterface rseau sur les partitions logiques client AIX sans marquage VLAN
Suivez ce scnario pour vous familiariser avec lutilisation dune configuration de fonction de sauvegarde via linterface rseau dans les clients dE-S virtuels qui excutent des partitions logiques AIX et qui ne sont pas configurs pour le marquage VLAN.

A propos de cette tche


Contexte Dans ce scnario, vous souhaitez configurer un environnement virtuel haute disponibilit pour votre rseau en mode pont laide de la mthode de sauvegarde via linterface rseau (NIB/Network Interface Backup) pour accder aux rseaux externes partir de vos clients dE-S virtuels. Vous nenvisagez pas dutiliser le marquage VLAN dans la configuration de votre rseau. Cette mthode requiert la configuration dune seconde carte Ethernet sur un autre rseau local virtuel (VLAN) pour chaque client et lutilisation dune carte dagrgation de liaisons avec les fonctions NIB. Cette configuration nest disponible que pour les partitions logiques AIX. En rgle gnrale, une configuration de reprise par transfert de carte Ethernet partage est recommande pour la plupart des environnements car elle prend en charge les environnements avec ou sans marquage VLAN. Par ailleurs, la configuration NIB est plus complexe quune configuration de reprise par transfert de carte Ethernet partage, car elle doit tre implmente sur chaque client. La configuration de reprise par transfert de carte Ethernet partage ntait pas disponible avant la version 1.2 de Virtual I/O Server. La configuration NIB tait la seule mthode possible pour un environnement virtuel haute disponibilit. Dans une configuration NIB, vous pouvez galement rpartir les clients sur les deux cartes Ethernet partages de sorte que la moiti dentre eux utilise la premire carte Ethernet partage et que lautre moiti utilise la seconde carte Ethernet partage comme carte primaire. Objectif Crez un environnement Ethernet virtuel laide dune configuration de la sauvegarde via linterface rseau, comme le montre la figure suivante.

Virtual I/O Server

49

Conditions pralables et hypothses Avant dexcuter les tches de configuration, prenez connaissance des conditions pralables et hypothses suivantes. v La console HMC (Hardware Management Console) a t installe. Pour visualiser le fichier PDF de la v . rubrique Installation et configuration de la console HMC (environ 3 Mo), voir oemiphai.pdf Deux partitions logiques Virtual I/O Server distinctes ont t cres et Virtual I/O Server a t install dans chacune delles. Pour plus dinformations, voirInstallation de Virtual I/O Server et des partitions logiques client, la page 77. Vous avez cr les autres partitions logiques que vous souhaitez ajouter la configuration de rseau. A chaque partition logique Virtual I/O Server est affecte une carte Ethernet physique disponible. Vous avez des adresses IP pour toutes les partitions logiques et tous les systmes ajouter la configuration.

v v v

Tches de configuration En vous aidant de lillustration, effectuez les tches suivantes pour configurer lenvironnement virtuel NIB.

50

Virtual I/O Server

1. Crez une connexion LAN entre les serveurs Virtual I/O Server et le rseau externe : a. Configurez une carte Ethernet partage sur le serveur Virtual I/O Server primaire qui achemine le trafic entre la carte Ethernet virtuelle et le rseau externe. Voir Configuration dune carte Ethernet partage, la page 108. b. Configurez une carte Ethernet partage sur le second Virtual I/O Server, comme ltape 1. 2. Pour chaque partition logique client, utilisez la console HMC pour crer une carte Ethernet virtuelle dont le port PVID correspond au port PVID du serveur Virtual I/O Server primaire. Elle sera utilise comme carte primaire. 3. Pour chaque partition logique client, utilisez la console HMC pour crer une seconde carte Ethernet virtuelle dont le port PVID correspond au port PVID du second Virtual I/O Server (de sauvegarde). Elle sera utilise comme carte de sauvegarde. 4. Crez la configuration de la fonction de sauvegarde via linterface rseau (NIB) laide de la configuration dagrgation de liaisons. Assurez-vous que les conditions suivantes sont respectes : a. Slectionnez la carte Ethernet primaire. b. Slectionnez la carte de sauvegarde. c. Indiquez ladresse Internet devant faire lobjet dun Ping. Slectionnez ladresse IP ou le nom dhte dun hte en dehors du serveur Virtual I/O Server que la configuration NIB continuera de tester pour dtecter lincident Virtual I/O Server.

Rsultats
Remarque : Noubliez pas que, lorsque vous configurez la sauvegarde via linterface rseau (NIB) avec deux cartes Ethernet virtuelles, les rseaux internes doivent rester distincts au niveau de Hypervisor. Vous devez par consquent utiliser diffrents PVID pour les deux cartes du client et vous ne pouvez pas utiliser dautres VID sur celles-ci.

Scnario : Configuration de la fonction MPIO pour les partitions logiques client AIX
La fonction MPIO (Multi-Path I/O) permet daccrotre la disponibilit des ressources SCSI virtuelles en fournissant ces dernires des chemins redondants. Cette rubrique explique comment configurer la fonction MPIO (Multi-Path I/O) pour les partitions logiques client AIX.

Avant de commencer
Pour fournir la fonction MPIO des partitions logiques client AIX, deux partitions logiques de Virtual I/O Server doivent tre configures sur votre systme. Cette procdure suppose que les disques soient dj allous aux deux partitions logiques Virtual I/O Server impliques dans cette configuration.

A propos de cette tche


Pour configurer la fonction MPIO, procdez comme suit. Dans ce scnario, nous utiliserons, pour la configuration, les disques hdisk5 (dans la premire partition logique Virtual I/O Server) et hdisk7 (dans la deuxime partition logique Virtual I/O Server). La figure suivante montre la configuration qui va tre effectue avec ce scnario.

Virtual I/O Server

51

En utilisant la figure prcdente comme guide, suivez la procdure ci-aprs. 1. A laide de la console HMC, crez les cartes de serveur SCSI sur les deux partitions logiques Virtual I/O Server. 2. A partir de la console HMC, crez deux cartes SCSI de client virtuel sur les partitions logiques client, chacune devant tre mappe avec lune des partitions logiques Virtual I/O Server. 3. Sur lune des partitions logiques Virtual I/O Server, indiquez les disques disponibles en entrant lsdev -type disk. Les rsultats obtenus sont semblables ce qui suit :
name hdisk3 hdisk4 hdisk5 status description Available Available Available MPIO Other FC SCSI Disk Drive MPIO Other FC SCSI Disk Drive MPIO Other FC SCSI Disk Drive

Slectionnez le disque utiliser dans la configuration MPIO. Dans ce scnario, nous avons slectionn hdisk5. 4. Dterminez lidentificateur du disque que vous avez slectionn. Pour plus dinformations, voir Identification des disques exportables, la page 105. Dans ce scnario, le disque na pas didentificateur dattribut de volume IEEE ni didentificateur unique (UDID). Par consquent, la dtermination de lidentificateur physique (PVID) exige dexcuter la commande lspv hdisk5. Les rsultats obtenus sont semblables ce qui suit :
hdisk5 00c3e35ca560f919 None

La deuxime valeur correspond au PVID. Dans le prsent scnario, le PVID est 00c3e35ca560f919. Notez cette valeur.

52

Virtual I/O Server

5. Obtenez la liste des attributs du disque en utilisant la commande lsdev. Dans ce scnario, nous avons saisi lsdev -dev hdisk5 -attr. Les rsultats obtenus sont semblables ce qui suit :
.. lun_id 0x5463000000000000 Logical Unit Number ID .. .. pvid 00c3e35ca560f9190000000000000000 Physical volume identifier .. reserve_policy single_path Reserve Policy False False True

Prenez note des valeurs des attributs lun_id et reserve_policy. Si la valeur de lattribut reserve_policy nest pas no_reserve, vous devez la modifier. Pour attribuer la valeur no_reserve lattribut reserve_policy, entrez chdev -dev hdiskx -attr reserve_policy=no_reserve. 6. Sur la deuxime partition logique Virtual I/O Server, obtenez la liste des volumes physiques en entrant la commande lspv. Dans le rsultat obtenu, reprez le disque disposant du mme PVID que le disque identifi prcdemment. Dans ce scnario, le PVID du hdisk7 correspond :
hdisk7 00c3e35ca560f919 None

Conseil : Bien que les valeurs PVID doivent tre identiques, les numros de disque sur les deux partitions logiques Virtual I/O Server peuvent tre diffrents. 7. Dterminez si lattribut reserve_policy est paramtr sur no_reserve en utilisant la commande lsdev. Dans ce scnario, nous avons saisi lsdev -dev hdisk7 -attr. Les rsultats obtenus sont semblables ce qui suit :
.. lun_id 0x5463000000000000 Logical Unit Number ID .. pvid 00c3e35ca560f9190000000000000000 Physical volume identifier .. reserve_policy single_path Reserve Policy False False

Si la valeur de lattribut reserve_policy nest pas no_reserve, vous devez la modifier. Pour attribuer la valeur no_reserve lattribut reserve_policy, entrez chdev -dev hdiskx -attr reserve_policy=no_reserve. 8. Sur les deux partitions logiques Virtual I/O Server, utilisez la commande mkvdev pour crer les units virtuelles. Pour chacune, veillez utiliser la valeur hdisk approprie. Dans ce scnario, nous utilisons les commandes suivantes : v Sur la premire partition logique Virtual I/O Server, nous avons saisi mkvdev -vdev hdisk5 -vadapter vhost5 -dev vhdisk5. v Sur la deuxime partition logique Virtual I/O Server, nous avons entr mkvdev -vdev hdisk7 -vadapter vhost7 -dev vhdisk7. Le mme numro dunit logique (LUN) est prsent export vers la partition logique du client partir de deux partitions logiques de Virtual I/O Server. 9. Vous pouvez dsormais installer AIX sur la partition logique client. Pour plus dinformations sur linstallation dAIX, voir Installation dAIX dans un environnement partitionn, dans lInformation Center serveurs et AIX. 10. Une fois que vous avez install AIX sur la partition logique client, vrifiez MPIO en excutant la commande suivante :
lspath

Les rsultats obtenus sont semblables ce qui suit :


Enabled hdisk0 vscsi0 Enabled hdisk0 vscsi1

En cas dchec de lune des partitions logiques de Virtual I/O Server, le rsultat de la commande lspath sera du type suivant :
Virtual I/O Server

53

Failed hdisk0 vscsi0 Enabled hdisk0 vscsi1

A moins que lattribut de vrification de ltat de sant (health check) ne soit activ, ltat reste Failed (Echec), et ce mme aprs rcupration du disque. Pour que ltat soit mis jour automatiquement, entrez chdev -l hdiskx -a hcheck_interval=60 -P. Pour que cette modification prenne effet, vous devez redmarrer la partition logique client.

Planification de Virtual I/O Server


Cette rubrique vous claire sur les diffrents points prendre en compte lors de la planification de Virtual I/O Server. La prsente section fournit des informations sur la planification relative au Virtual I/O Server.

Spcifications
Cette rubrique dfinit les diffrentes possibilits de configuration, notamment le nombre minimal de ressources ncessaires et le nombre maximal de ressources autorises. Pour activer le serveur Virtual I/O Server, vous devez disposer de la fonctionnalit matrielle PowerVM Editions (ou Advanced POWER Virtualization). Vous devez galement disposer dune partition logique possdant suffisamment de ressources partager avec les autres partitions logiques. Vous trouverez ci-aprs une liste des dispositifs matriels minimaux ncessaires la cration du serveur Virtual I/O Server.
Tableau 15. Ressources requises Ressource Configuration requise

Console HMC ou gestionnaire La console HMC ou le gestionnaire Integrated Virtualization Manager est ncessaire IVM pour crer la partition logique et allouer les ressources. Carte de mmoire Disque physique Carte Ethernet Mmoire La partition logique du serveur ncessite au moins une carte de mmoire. Le disque doit tre dau moins 30 Go. Ce disque peut tre partag. Une carte Ethernet est ncessaire si vous souhaitez acheminer le trafic rseau de cartes Ethernet virtuelles vers une carte Ethernet partage. Pour les systmes quips du processeur POWER6, vous devez disposer dau moins 768 Mo de mmoire. Pour les systmes quips du processeur POWER5, vous devez disposer dau moins 512 Mo de mmoire. Un minimum de 0,1 processeur est requis.

Processeur

Le tableau suivant illustre les limitations lies la gestion de lespace de stockage.


Tableau 16. Limitations lies la gestion de lespace de stockage Catgorie Groupes de volumes Volumes physiques Partitions physiques Volumes logiques Partitions logiques Limitation 4096 par systme 1024 par groupe de volumes 1024 par groupe de volumes 1024 par groupe de volumes Aucune limite

54

Virtual I/O Server

Limites et restrictions
Informations sur les limites de configuration de Virtual I/O Server. Tenez compte des points suivants lors de limplmentation de linterface SCSI virtuelle : v Linterface SCSI virtuelle prend en charge les normes de connexion suivantes pour les units de support : Fibre Channel, SCSI, SCSI RAID, iSCSI, SAS, SATA, USB et IDE. v Le protocole SCSI dfinit les commandes obligatoires et facultatives. Linterface SCSI virtuelle prend en charge toutes les commandes obligatoires, mais ne prend pas en charge toutes les commandes facultatives. v Lutilisation dunits SCSI virtuelles a une incidence sur les performances. Le modle client/serveur tant constitu de couches de fonctions, lutilisation de linterface SCSI virtuelle peut consommer davantage de cycles de processeur lors du traitement des demandes dE-S. v Virtual I/O Server est une partition logique ddie ne devant tre utilise que pour les oprations lies au Virtual I/O Server. Aucune autre application ne peut sexcuter sur la partition logique Virtual I/O Server. v Une dgradation des performances peut avoir lieu en cas de ressources insuffisantes. Si un Virtual I/O Server fournit beaucoup de ressources aux autres partitions logiques, vrifiez que vous disposez dune puissance de processeur suffisante. En cas de charge de travail leve au niveau des cartes Ethernet virtuelles et des disques virtuels, les partitions logiques peuvent subir des retards lors de laccs aux ressources. v Les volumes logiques et les fichiers exports en tant que disques SCSI virtuels sont toujours configurs comme des units accs unique sur la partition logique client. v Les volumes logiques ou fichiers exports en tant que disques SCSI virtuels appartenant au groupe de volumes root (rootvg) ne sont pas persistants si vous rinstallez Virtual I/O Server. En revanche, ils sont persistants si vous mettez jour Virtual I/O Server avec un nouveau Service Pack. Par consquent, avant de rinstaller Virtual I/O Server, veillez sauvegarder les disques virtuels des clients correspondants. Lors de lexportation de volumes logiques, il est prfrable dexporter les volumes logiques dun autre groupe que ceux du groupe de volumes root. Lors de lexportation de fichiers, il est prfrable de crer des pools de stockage de fichiers et le rfrentiel de supports virtuels dans un pool de stockage parent qui ne soit pas le groupe de volumes root. Tenez compte des points suivants lors de limplmentation de cartes virtuelles : v Seules les cartes Ethernet peuvent tre partages. Les autres types de carte de rseau ne peuvent pas ltre. v Lacheminement IP nest pas pris en charge sur le serveur Virtual I/O Server. v Le nombre maximal de cartes virtuelles peut tre compris entre 2 et 65 536. Toutefois, si vous attribuez une valeur suprieure 1024 au nombre maximum de cartes virtuelles, il est possible que la partition logique ne parvienne pas sactiver ou que le microprogramme du serveur ait besoin de davantage de mmoire systme pour grer les cartes virtuelles. Virtual I/O Server prend en charge les partitions logiques client qui excutent les systmes dexploitation suivants sur les serveurs quips du processeur POWER6 ci-aprs.
Tableau 17. Prise en charge de systme dexploitation pour les partitions logiques client du serveur Virtual I/O Server Systme dexploitation AIX 5.3 ou version ultrieure SUSE Linux Enterprise Server 10 Service Pack 2 ou suprieur SUSE Linux Enterprise Server 10 Service Pack 1 Serveurs base de processeurs POWER6 Tous les serveurs quips du processeur POWER6 v 19F/HA v 25F/2A v 03E/4A v 04E/8A v 17M/MA
Virtual I/O Server

55

Tableau 17. Prise en charge de systme dexploitation pour les partitions logiques client du serveur Virtual I/O Server (suite) Systme dexploitation Red Hat Enterprise Linux version 5.2 Serveurs base de processeurs POWER6 v 19F/HA v 25F/2A Red Hat Enterprise Linux version 5.1 v 03E/4A v 04E/8A v 17M/MA Red Hat Enterprise Linux version 4.7 Red Hat Enterprise Linux version 4.6 Red Hat Enterprise Linux version 4.5 19F/HA 25F/2A v 03E/4A v 04E/8A v 17M/MA

Virtual I/O Server prend en charge les partitions logiques client qui excutent les systmes dexploitation suivants sur les serveurs quips du processeur POWER5 suivants : v v v v v AIX 5.3 (ou plus) SUSE Linux Enterprise Server 9 (ou plus) SUSE Linux Enterprise Server 10 (ou plus) Red Hat Enterprise Linux version 4 (ou plus) Red Hat Enterprise Linux version 5 (ou ultrieure)

Prvision de la capacit
Cette rubrique fournit des remarques sur la prvision de la capacit pour le serveur Virtual I/O Server, notamment des informations sur les limites et les ressources matrielles. Les partitions logiques client peuvent utiliser des units virtuelles, des units ddies ou une association de ces deux types dunit. Avant de commencer configurer et installer Virtual I/O Server et des partitions logiques client, planifiez les ressources qui seront utilises par chaque partition logique. Vous devez prendre en compte les exigences de dbit et la charge de travail globale pour dcider si vous utiliserez des units virtuelles ou ddies, et pour dfinir les ressources allouer au Virtual I/O Server. Si on les compare aux disques SCSI ddis, les disques SCSI virtuels peuvent permettre dobtenir des valeurs de dbit similaires, selon diffrents facteurs (en particulier, la charge de travail et les ressources de lunit SCSI virtuelle. Toutefois, les units SCSI virtuelles sollicitent gnralement davantage les processeurs que les units de stockage directement connectes.

Planification de linterface SCSI virtuelle


Informations relatives la planification de la capacit et aux performances de linterface SCSI. En termes de performances, la qualit varie selon les sous-systmes dE-S. Il en va de mme pour linterface SCSI virtuelle. La prsente section dcrit les diffrences de performance entre les E-S physiques et virtuelles. Vous y trouverez les informations suivantes : Temps dattente de linterface SCSI virtuelle : Informations relatives au temps dattente li linterface SCSI virtuelle. Le temps dattente dentre-sortie (E-S) correspond au dlai entre le lancement et lexcution dune opration dE-S. Prenons lexemple dun programme qui excute 1000 oprations dE-S alatoires sur disque, une par une. Si le temps ncessaire pour excuter une opration moyenne est de 6 millisecondes,

56

Virtual I/O Server

le programme ne sexcute pas en moins de 6 secondes. Toutefois, si le temps de rponse moyen est abaiss 3 millisecondes, le temps dexcution du programme peut tre rduit de 3 secondes. Les applications units dexcutions multiples ou qui utilisent des E-S asynchrones peuvent tre moins sensibles aux temps dattente mais dans la plupart des cas, des temps dattente rduits permettent damliorer les performances. Linterface SCSI virtuelle est mise en oeuvre en tant que modle client-serveur, ce qui se traduit par un temps dattente qui nexiste pas avec des units de stockage connectes directement. Ce temps dattente peut tre de 0,03 0,06 millisecondes par opration dE-S, en fonction principalement de la longueur de bloc de la demande. Le temps dattente moyen est comparable pour les units virtuelles bases sur des disques physiques et des volumes logiques. Les temps dattente lis lutilisation dun Virtual I/O Server dans une partition logique de processeur partag peuvent tre plus levs et plus variables quavec un Virtual I/O Server dans une partition ddie. Pour plus dinformations sur les diffrences de performances entre les partitions logiques ddies et les partitions logiques de traitement partag, voir Considrations sur le dimensionnement de linterface SCSI virtuelle, la page 58. Le tableau suivant identifie les temps dattente (en millisecondes) pour des transmissions de diffrentes tailles de bloc sur des disques physiques et des disques SCSI virtuels associs des volumes logiques.
Tableau 18. Augmentation du temps de rponse dE-S sur disque en fonction de la longueur de bloc (en millisecondes) Type Disque physique Volume logique 4 ko 0,032 0,035 8 ko 0,033 0,036 32 ko 0,033 0,034 64 ko 0,040 0,040 128 ko 0,061 0,063

Le temps de rponse moyen crot avec laugmentation de la longueur de bloc. Laugmentation des temps dattente dune opration SCSI virtuelle est relativement plus importante sur des longueurs de bloc courtes en raison du temps de rponse moins lev qui leur est associ. Bande passante de linterface SCSI virtuelle : Informations relatives la largeur de bande de linterface SCSI virtuelle. La largeur de bande dentre-sortie correspond la quantit maximale de donnes pouvant tre lue ou crite sur une unit de stockage dans une unit de temps. La largeur de bande peut tre mesure partir dune seule unit dexcution ou dun ensemble dunits dexcution sexcutant simultanment. Mme si de nombreuses applications client sont plus sensibles au temps dattente qu la largeur de bande, la largeur de bande joue un rle essentiel dans de nombreuses oprations courantes, telles que la sauvegarde et la restauration de donnes rmanentes. Le tableau suivant compare les rsultats des tests de largeur de bande pour linterface SCSI virtuelle et les performances dE-S physiques. Lors des tests, une unit dexcution unique fonctionne en mode squentiel sur un fichier constant de 256 Mo avec un Virtual I/O Server sexcutant dans une partition ddie. Dautres oprations dE-S sont mises lors de la lecture ou de lcriture sur ce fichier avec une longueur de bloc plus petite. Le test a t effectu laide dun serveur de stockage avec le code fonction 6239 (type 5704/0625) et une carte canal optique 2 gigabit associe un lment RAID0 LUN compos de cinq disques physiques provenant dun systme de disques DS4400 (auparavant un systme FAStT700). Le tableau dresse une comparaison de la largeur de bande mesure en mgaoctets par seconde (Mo/s) via une interface SCSI virtuelle et une connexion locale pour des lectures avec des oprations de longueur de bloc variable. La diffrence entre les E-S virtuelles et les E-S physiques dans ces tests est attribuable au temps dattente plus long lorsque les E-S virtuelles sont utilises. En raison du nombre plus important doprations, la largeur de bande mesure avec des petites longueurs de bloc est moins leve quavec des longueurs de bloc plus grandes.

Virtual I/O Server

57

Tableau 19. Comparaison de la largeur de bande physique (en Mo/s) entre le mode physique et le mode interface SCSI virtuelle Type dE-S Mode virtuel Physique 4 ko 20,3 24,3 8 ko 35,4 41,7 32 ko 82,6 90,6 64 ko 106,8 114,6 128 ko 124,5 132,6

Considrations sur le dimensionnement de linterface SCSI virtuelle : Cette rubrique dcrit les critres de taille de mmoire et de processeur prendre en compte lors de limplmentation de linterface SCSI virtuelle. Lorsque vous concevez et implmentez un environnement dapplication dinterface SCSI virtuelle, prenez en compte les facteurs suivants concernant le dimensionnement : v Quantit de mmoire alloue au Virtual I/O Server v Autorisation dutilisation des processeurs du serveur Virtual I/O Server v Excution Virtual I/O Server en tant que partition logique de processeur partag ou en tant que partition logique de processeur ddi v Limitation de taille de transfert maximale pour les units physiques et les clients AIX Il nest pas ncessaire de prendre en compte limpact au niveau des processeurs des E-S virtuelles sur le client. Les cycles de processeur excuts sur le client pour effectuer une opration dE-S de linterface SCSI virtuelle sont comparables ceux dune unit dE-S connecte en local. Il ny a donc pas lieu de procder au dimensionnement sur la partition logique client pour une tche connue. Ces techniques de dimensionnement ne prvoient pas la combinaison de la fonction Ethernet partage avec le serveur SCSI virtuel. Si ces deux techniques sont associes, pensez ajouter des ressources au compte pour lactivit Ethernet partage avec linterface SCSI virtuelle. Dimensionnement de linterface SCSI virtuelle laide des partitions logiques dun processeur ddi Lallocation dutilisation des processeurs requise pour un serveur SCSI virtuel est base sur les dbits dE-S maximum ncessaires. Comme les serveurs SCSI virtuels ne sexcutent gnralement pas des dbits dE-S maximum en permanence, on risque de ne pas tirer parti du temps processeur disponible lors de lutilisation des partitions logiques de processeur ddi. La premire des mthodes de dimensionnement ci-dessous requiert une bonne connaissance des dbits dE-S et des tailles dE-S ncessaires sur le serveur SCSI virtuel. Avec la seconde, le serveur SCSI virtuel est dimensionn en fonction de la configuration dE-S. La mthode de dimensionnement utilise repose sur lobservation que le temps processeur requis pour effectuer une opration dE-S sur le serveur SCSI virtuel est relativement constant pour une taille dE-S donne. Il sagit en fait dune simplification car les diffrents pilotes de priphrique offrent des performances lgrement diffrentes. Toutefois, dans la plupart des situations, les priphriques dE-S pris en charge par le serveur SCSI virtuel sont suffisamment similaires. Le tableau suivant montre le nombre approximatif de cycles par seconde pour les oprations sur disque physique et sur volume logique sur un processeur 1,65 Ghz. Ces chiffres sont mesurs au niveau du processeur physique ; on suppose quune opration de traitement multitche simultan (SMT) est effectue. Pour les autres frquences, ladaptation de ces valeurs en calculant le rapport des frquences (par exemple, 1,5 Ghz = 1,65 Ghz / 1,5 Ghz X nombre de cycles par opration) donne un rsultat suffisamment prcis pour que le dimensionnement convienne.
Tableau 20. Nombre approximatif de cycles par seconde sur une partition logique 1,65 Ghz Type de disque Disque physique 4 ko 45 000 8 ko 47 000 32 ko 58 000 64 ko 81 000 128 ko 120 000

58

Virtual I/O Server

Tableau 20. Nombre approximatif de cycles par seconde sur une partition logique 1,65 Ghz (suite) Type de disque Volume logique 4 ko 49 000 8 ko 51 000 32 ko 59 000 64 ko 74 000 128 ko 105.000

Prenons lexemple dun Virtual I/O Server qui utilise trois partitions logiques client pour le stockage sur disque physique. La premire partition logique client requiert un maximum de 7000 oprations de 8 Ko par seconde. La deuxime requiert un maximum de 10 000 oprations de 8 Ko par seconde. La troisime ncessite un maximum de 5000 oprations de 128 Ko par seconde. Le nombre de processeurs 1,65 Ghz ncessaire est denviron ((7 000 47 000 + 10 000 47 000 + 5 000 120 000) / 1 650 000 000) = 0,85 processeur, ce qui quivaut un processeur unique lors de lutilisation dune partition logique de processeur ddi. Si le dbit dE-S des partitions logiques client nest pas connu, vous pouvez dimensionner le serveur Virtual I/O Server en fonction du dbit dE-S maximum du sous-systme de stockage connect. Ce dimensionnement peut tre orient vers des oprations dE-S de petite ou de grande taille. Un dimensionnement par rapport la capacit maximale doprations dE-S volumineuses quilibre la capacit de processeur du serveur Virtual I/O Server en fonction de la largeur de bande dE-S de lunit dE-S connecte. Cette mthode prsente un aspect ngatif dans la plupart des cas : il est affect plus dautorisations dutilisation des processeurs au Virtual I/O Server que ce qui est gnralement utilis. Prenons lexemple dun Virtual I/O Server qui gre 32 disques SCSI physiques. Il est possible dtablir un nombre maximal de processeurs requis en se basant sur des estimations des dbits dE-S pouvant tre atteints par les disques. Si vous savez que la charge de travail consiste principalement en oprations alatoires de 8096 octets, vous pouvez en dduire que chaque disque peut prendre en charge environ 200 oprations dE-S par seconde (units 15000 tours par minute). Au maximum, Virtual I/O Server doit grer environ 32 disques 200 oprations dE-S par seconde 47 000 cycles par opration, soit les performances denviron 0,19 processeur. Sous un autre angle, un Virtual I/O Server quip dun processeur doit pouvoir prendre en charge plus de 150 disques excutant des oprations dE-S alatoires de 8096 octets. Par ailleurs, si Virtual I/O Server est dimensionn pour la largeur de bande maximale, le rsultat est un nombre plus grand de processeurs. La diffrence est due au fait que la largeur de bande maximale suppose des E-S squentielles. Comme les disques sont plus efficaces pour des oprations dE-S squentielles de grande taille que pour des oprations dE-S alatoires de petite taille, un nombre beaucoup plus lev doprations dE-S par seconde peut tre excut. Prenons lexemple de disques pouvant prendre en charge 50 Mo par seconde pour des oprations dE-S de 128 Ko. Cette situation implique que chaque disque peut effectuer en moyenne 390 oprations dE-S par seconde. Par consquent, la puissance de traitement requise pour la prise en charge de 32 disques excutant chacun 390 oprations dE-S par seconde avec un cot de fonctionnement de 120 000 cycles (32 X 390 X 120 000 / 1 650 000 000) est de 0,91 processeur environ. Un Virtual I/O Server quip dun processeur doit pouvoir utiliser 32 disques rapides avec un rendement maximal. Dimensionnement du serveur SCSI virtuel laide des partitions logiques dun processeur partag La rpartition de serveurs SCSI virtuels en partitions logiques de processeur partag permet un dimensionnement des ressources processeur plus adquat et une rcupration potentielle du temps processeur non utilis par des partitions logiques non brides. Toutefois, lutilisation de partitions de processeur partag pour les serveurs SCSI virtuels peut souvent augmenter le temps de rponse dE-S et rendre plus complexe le dimensionnement des autorisations dutilisation des processeurs. La mthode de dimensionnement doit tre base sur le mme cot de fonctionnement pour les serveurs dE-S partitions logiques ddies, avec lajout de la possibilit de lexcution dans des partitions

Virtual I/O Server

59

logiques de processeur partag. Configurez Virtual I/O Server en mode non brid. Ainsi, si Virtual I/O Server est sous-dimensionn, il est possible dobtenir du temps processeur supplmentaire en fonction des oprations dE-S. Comme le temps dattente dE-S avec une interface SCSI virtuelle dpend dun certain nombre de conditions, procdez comme suit si une partition logique a des besoins importants en termes dE-S : v Configurez la partition logique avec des E-S physiques si la configuration le permet. v Dans la plupart des cas, la partition logique Virtual I/O Server peut utiliser un processeur partag, non brid. Dimensionnement de la mmoire du serveur SCSI virtuel Le dimensionnement de la mmoire dans linterface SCSI virtuelle est simplifi dans la mesure o aucune mise en mmoire cache des donnes de fichier nest effectue dans la mmoire du serveur SCSI virtuel. De ce fait, les besoins en mmoire du serveur SCSI virtuel sont relativement modestes. Avec des configurations dE-S importantes et des dbits de donnes trs levs, une allocation de 1 Go de mmoire au serveur SCSI virtuel est probablement suffisante. 512 Mo seront sans doute suffisants pour des situations impliquant des dbits dE-S peu levs et un nombre rduit de disques connects. Limitation de taille de transfert maximale de linterface SCSI virtuelle Si vous ajoutez une autre unit cible virtuelle la carte serveur SCSI virtuelle et que la taille de transfert maximale de la nouvelle unit cible virtuelle est infrieure celle des autres units configures sur cette carte, Virtual I/O Server ne montre pas la nouvelle unit virtuelle au client. Lors de la cration de lunit cible virtuelle, Virtual I/O Server affiche un message indiquant que le client ne verra pas la nouvelle unit cible tant que vous naurez pas redmarr le client. Pour afficher la taille de transfert maximale dune unit physique, utilisez la commande suivante : lsdev -attr max_transfer -dev hdiskN

Planification des cartes Ethernet partages


Cette section fournit des informations sur les performances et la prvision de la capacit de la carte Ethernet partage. La prsente section contient des informations sur la planification et les performances des cartes Ethernet partages sur le serveur Virtual I/O Server. Configuration requise pour le rseau : Cette rubrique fournit des informations permettant de dimensionner de faon prcise lenvironnement de cartes Ethernet partages. Pour planifier lutilisation de cartes Ethernet partages, vous devez dterminer vos besoins en matire de rseau. Cette section prsente les points prendre en compte lors du dimensionnement de lenvironnement de cartes Ethernet partages. Le dimensionnement dun Virtual I/O Server pour une carte Ethernet partage requiert la prise en compte des facteurs suivants : v Dfinition de la largeur de bande cible (Mo par seconde), ou besoins en dbit de transactions (oprations par seconde). Les performances cible de la configuration doivent tre dtermines partir de vos exigences de charge de travail. v Dfinition du type de charge de travail (orient flots de donnes ou transactions). v Identification de la taille dunit de transmission maximale (MTU) qui sera utilise (1500 octets ou grandes trames). v Choix dun environnement avec ou sans units dexcution pour la carte Ethernet partage. v Connaissance des taux de dbit offerts par diffrentes cartes Ethernet (voir Slection de cartes). v Dtermination des cycles de processeur requis par octet de dbit ou par transaction (voir Allocation de processeur).

60

Virtual I/O Server

Exigences en termes de largeur de bande Il faut avant tout dterminer la largeur de bande cible sur la carte Ethernet physique du serveur Virtual I/O Server. Cela permet didentifier le dbit de transfert possible entre Virtual I/O Server et les partitions logiques client. Une fois que le dbit atteindre est connu, le type et le nombre adquats de cartes de rseau peuvent tre slectionns. Par exemple, vous pouvez utiliser des cartes Ethernet prsentant de diffrents dbits. Une ou plusieurs cartes peuvent tre utilises sur chaque rseau ou des cartes peuvent tre combines en utilisant lagrgation de liaisons (ou EtherChannel). Type de charge de travail Le type de charge de travail prvu doit tre pris en compte : flots de donnes pour les charges de travail (transferts de fichiers ou sauvegarde de donnes, par exemple) ou charges de travail constitues de petites transactions (par exemple, des appels de procdure distante, RPC). Une charge de travail de type flot de donnes est constitue de paquets rseau complets volumineux et de paquets TCP plus petits qui leur sont associs. Les charges de travail de type transaction impliquent gnralement des paquets plus petits, ou parfois des demandes de petite taille telles quune adresse URL et une rponse plus grande, telle quune page Web. Il est frquent quun Virtual I/O Server ait prendre en charge des flots de donnes et des petits paquets. Dans ce cas, choisissez la taille en fonction des deux modles. Taille MTU La taille de MTU (unit de transmission maximale) des cartes de rseau doit galement tre prise en compte. La MTU Ethernet standard est de 1500 octets. Les liaisons Gigabit Ethernet et 10 Gigabit Ethernet peuvent prendre en charge des grandes trames de 9000 octets. Les grandes trames peuvent rduire les cycles de processeur pour les charges de travail de type flot de donnes. En revanche, pour des charges de travail plus petites, des tailles de MTU leves ne contribueront peut-tre pas rduire les cycles de processeur. Environnement avec ou sans units dexcution Utilisez le mode avec units dexcution lorsque linterface SCSI virtuelle est excute sur la mme partition logique de Virtual I/O Server que la carte Ethernet partage. Le mode avec units dexcution permet de sassurer que linterface SCSI virtuelle et la carte Ethernet partage partagent les ressources du processeur de manire adapte. Toutefois, lutilisation dunits dexcution augmente la longueur des chemins daccs aux instructions, ce qui ncessite des cycles de processeur supplmentaires. Si la partition logique Virtual I/O Server est ddie uniquement lexcution dunits Ethernet partages (et des units virtuelles Ethernet associes), les cartes doivent tre configures de manire ce que lutilisation dunits dexcution soit dsactive. Pour plus dinformations, voir Allocation de processeur, la page 64. Dbit des cartes Le fait de connatre les capacits de dbit de diffrentes cartes Ethernet peut vous aider dterminer les cartes utiliser comme cartes Ethernet partages et le nombre de cartes requises. Pour plus dinformations, voir Slection de cartes, la page 62. Autorisation dutilisation des processeurs Vous devez dterminer la puissance de processeur requise pour transfrer les donnes via les cartes au dbit souhait. Les pilotes de priphrique de rseau consomment gnralement une quantit importante de ressources processeur. De petits paquets peuvent entrer un dbit plus lev et utiliser plus de cycles de processeur que les charges de travail paquets plus volumineux. Les charges de travail paquets volumineux sont gnralement limites par la largeur de bande du cble rseau et entrent un dbit plus lent. Ils ncessitent donc moins de puissance de processeur que les charges de travail petits paquets pour la quantit de donnes transfres.

Virtual I/O Server

61

Slection de cartes : Cette section fournit les attributs et caractristiques de performances des diffrents types de carte Ethernet pour vous permettre de choisir les cartes utiliser dans votre environnement. Cette section fournit les dbits approximatifs de diffrentes cartes Ethernet dfinies avec des tailles de MTU (unit de transmission maximale) varies. Vous pouvez ainsi dterminer les cartes requises pour configurer un Virtual I/O Server. Pour ce faire, vous devez connatre le dbit souhait pour la partition logique client. Voici quelques informations gnrales concernant le dbit rseau. Ces chiffres ne sont pas propres une installation et peuvent servir dinstructions dordre gnral pour le dimensionnement. Dans les tableaux suivants, les estimations des vitesses 100 Mbit, 1 Gbit et 10 Gbit sont arrondies lunit infrieure.
Tableau 21. Dbits de flot de donnes simplex (monodirectionnel) Vitesse de la carte Ethernet 10 Mbit Ethernet 100 Mbit Ethernet 1000 Mbit (Gigabit Ethernet) Ethernet 10 000 Mbit (10 Gigabit Ethernet, carte Ethernet hte ou carte Ethernet virtuelle intgre) Dbit approximatif 1 Mo/seconde 10 Mo/seconde 100 Mo/seconde 1000 Mo/seconde

Tableau 22. Dbits en duplex intgral (bidirectionnel) sur un rseau en duplex intgral Vitesse de la carte Ethernet 10 Mbit Ethernet 100 Mbit Ethernet 1000 Mbit (Gigabit Ethernet) Ethernet 10 000 Mbit (10 Gigabit Ethernet, carte Ethernet hte ou carte Ethernet virtuelle intgre) Dbit approximatif 2 Mo/seconde 20 Mo/seconde 150 Mo/seconde 1500 Mo/seconde

Les tableaux suivants rpertorient les dbits de charge rseau maximum qui correspondent aux dbits de donnes de charge utilisateur pouvant tre obtenus laide de programmes bass sur sockets pour des applications faisant circuler des flots de donnes. Les dbits dpendent du dbit binaire du rseau, de la taille MTU, du temps systme de niveau physique (tel que les dlais intertrames et les bits initiaux), des en-ttes de liaison de donnes et des en-ttes TCP/IP. On suppose quun processeur dont la vitesse se mesure en Gigahertz est utilis. Ces chiffres sont optimaux pour un rseau local unique. Les rsultats obtenus peuvent varier si le trafic rseau circule par le biais de priphriques rseau supplmentaires. Dans les tableaux suivants, le dbit binaire brut correspond au dbit binaire de support physique et ne reflte pas les dlais intertrames, les bits initiaux, les en-ttes et en-queues de liaison de donnes. Les dlais intertrames, les bits initiaux, les en-ttes et en-queues de liaison de donnes peuvent diminuer le dbit binaire utilisable effectif du cble. Les dbits de flot de donnes monodirectionnel (simplex) TCP sont les dbits qui peuvent tre obtenus en envoyant des donnes dune machine une autre dans un test de mmoire mmoire. Un support en duplex intgral peut gnralement offrir des performances lgrement suprieures parce que les paquets daccus de rception TCP peuvent circuler sans utiliser le mme fil que les paquets de donnes entrants.

62

Virtual I/O Server

Tableau 23. Dbits de flot de donnes monodirectionnels (simplex) Type de rseau Ethernet 10 Mbit, semi-duplex Ethernet 10 Mbit, duplex intgral Ethernet 100 Mbit, semi-duplex Ethernet 100 Mbit, duplex intgral Ethernet 1000 Mbit, duplex intgral, MTU de 1500 Ethernet 1000 Mbit, duplex intgral, MTU de 9000 Dbit binaire brut (Mbit) 10 10 (20 Mbit en duplex intgral) 100 100 (200 Mbit en duplex intgral) 1000 (2000 Mbit en duplex intgral) 1000 (2000 Mbit en duplex intgral) Dbit de charge (Mbit) 6 9,48 62 94,8 948 989 9479 Dbit de charge (Mo) 0,7 1,13 7,3 11,3 113 117,9 1130

Ethernet 1000 Mbit, duplex 10000 intgral, carte Ethernet hte (ou carte Ethernet virtuelle intgre) MTU de 1500 Ethernet 1000 Mbit, duplex 10000 intgral, carte Ethernet hte (ou carte Ethernet virtuelle intgre) MTU de 9000

9899

1180

Les donnes circulent dans les deux directions pour les charges de travail de type flot de donnes TCP en duplex intgral. Un support en duplex intgral peut savrer plus avantageux pour les charges de travail pouvant envoyer et recevoir simultanment des paquets. Certains supports, par exemple Ethernet en mode semi-duplex, ne peuvent pas envoyer et recevoir des paquets simultanment. Ils ne fonctionneront pas mieux et diminueront les performances pour des charges de travail en mode duplex. Avec des charges de travail duplex, le dbit nest pas entirement doubl par rapport des charges de travail simplex parce que les paquets daccus de rception TCP renvoys par le destinataire utilisent la mme voie que les paquets de donnes circulant dans la mme direction.
Tableau 24. Dbits de flot de donnes bidirectionnels (duplex) Type de rseau Ethernet 10 Mbit, semi-duplex Ethernet 10 Mbit, duplex intgral Ethernet 100 Mbit, semi-duplex Ethernet 100 Mbit, duplex intgral Ethernet 1000 Mbit, duplex intgral, MTU de 1500 Ethernet 1000 Mbit, duplex intgral, MTU de 9000 Ethernet 10 000 Mbit, carte Ethernet hte (ou carte Ethernet virtuelle intgre), duplex intgral, MTU de 1500 Dbit binaire brut (Mbit) 10 10 (20 Mbit en duplex intgral) 100 100 (200 Mbit en duplex intgral) 1000 (2000 Mbit en duplex intgral) 1000 (2000 Mbit en duplex intgral) 10000 Dbit de charge (Mbit) 5,8 18 58 177 1470 (1660 au maximum) 1680 (1938 au maximum) 14680 (15099 au maximum) Dbit de charge (Mo) 0,7 2,2 7 21,1 175 (198 au maximum) 200 (231 au maximum) 1750 (1800 au maximum)

Virtual I/O Server

63

Tableau 24. Dbits de flot de donnes bidirectionnels (duplex) (suite) Type de rseau Ethernet 10 000 Mbit, carte Ethernet hte (ou carte Ethernet virtuelle intgre), duplex intgral, MTU de 9000 Dbit binaire brut (Mbit) 10000 Dbit de charge (Mbit) 16777 (19293 au maximum) Dbit de charge (Mo) 2000 (2300 au maximum)

Remarque : 1. Les valeurs maximales reprsentent un dbit optimal avec plusieurs sessions TCP sexcutant dans les deux directions. Les autres dbits correspondent une session TCP unique. 2. Les dbits duplex Ethernet 1000 Mbit (Gigabit Ethernet) correspondent une carte PCI-X dans un emplacement PCI-X. 3. Les dbits de donnes sont obtenus avec TCP/IP utilisant le protocole IPv4. RFC 1323 doit tre activ pour les cartes dont la taille MTU est fixe 9000. Allocation de processeur : Cette section contient des instructions dallocation de processeur pour les partitions logiques de processeur ddies et les partitions logiques de processeur partag. Ces instructions sont diffrentes pour chaque situation, car une liaison Ethernet avec une taille MTU de 1500 octets utilise plus de cycles de processeur quune liaison Ethernet excutant des grandes trames (MTU de 9000 octets). En gnral, lutilisation de processeur pour des charges de travail avec des paquets volumineux sur des grandes trames est peu prs divise par deux par rapport des tailles MTU de 1500 octets. Si la taille MTU (unit de transmission maximale) est fixe 1500, un processeur (1,65 Ghz) doit tre fourni par carte Ethernet Gigabit pour pouvoir atteindre la largeur de bande maximale. Cela reprsente dix cartes Ethernet de 100 Mbit si vous utilisez des rseaux de petite taille. Pour des charges de travail de type transaction moins importantes, prvoyez dutiliser un processeur complet afin dobtenir un dbit maximal pour la charge de travail Ethernet Gigabit. Par exemple, si deux cartes Ethernet Gigabit sont utilises, allouez la partition logique deux processeurs au maximum. Si la taille MTU est fixe 9000 (grandes trames), 50 % dun processeur (1,65 Ghz) doit tre fourni par carte Ethernet Gigabit pour pouvoir atteindre la largeur de bande maximale. Pour des charges de travail petits paquets, vous devez prvoir dutiliser un processeur complet pour assurer le support de la charge de travail Ethernet Gigabit. Les grandes trames nont aucun effet dans le cas de charges de travail petits paquets. carte Ethernet partage avec une partition logique de processeur ddi Le dimensionnement indiqu est divis en deux types de charge de travail : flot de donnes TCP et demande/rponse TCP. Des rseaux MTU 1500 et MTU 9000 ont t utiliss pour le dimensionnement qui est fourni en termes de cycles de machine par octet pour des flots de donnes ou par transaction dans le cas de charges de travail demande/rponse. Les donnes des tableaux suivants ont t dduites de la formule suivante : (nombre de processeurs utilisation processeur frquence dhorloge de processeur) / dbit en octets par seconde ou transaction par seconde = nombre de cycles par octet ou de transactions. Pour les besoins de ce test, les valeurs ont t mesures sur une partition logique dote dun processeur 1,65 Ghz avec le traitement SMT (traitement simultan units dexcution multiples) activ.

64

Virtual I/O Server

Pour les autres frquences de processeur, les valeurs du tableau peuvent tre modifies en utilisant le rapport des frquences de processeur sur les valeurs approches utiliser pour le dimensionnement. Par exemple, pour une vitesse de processeur de 1,5 Ghz, utilisez 1,65/1,5 nombre de cycles par octet du tableau. Le rsultat de cet exemple correspond 1,1 fois la valeur du tableau, ce qui revient un besoin de 10 % de cycles supplmentaires pour compenser la vitesse dhorloge infrieure de 10 % du processeur 1,5 Ghz. Pour utiliser ces valeurs, multipliez le dbit requis (en nombre doctets ou de transactions) par la valeur de cycles par octet des tableaux suivants. Vous connatrez ainsi les cycles de machine requis pour une vitesse de 1,65 Ghz. Ajustez ensuite cette valeur en tablissant le rapport de la vitesse relle de la machine sur cette vitesse de 1,65 Ghz. Pour trouver le nombre de processeurs, divisez le rsultat par 1 650 000 000 cycles (ou taux de cycles si vous avez procd un ajustement pour une machine dune autre vitesse). Vous avez besoin du nombre de processeurs rsultant pour supporter la charge de travail. Par exemple, si Virtual I/O Server doit fournir 200 Mo de dbit de flot de donnes, la formule suivante est utilise : 200 1 024 1 024 11,2 = 2 348 810 240 cycles / 1 650 000 000 cycles par processeur = 1,42 processeur. En nombres arrondis, Virtual I/O Server a besoin de 1,5 processeurs pour traiter cette charge de travail. Une telle charge de travail peut tre traite avec une partition logique ddie 2 processeurs ou une partition logique 1,5 processeur partag. Les tableaux suivants montrent le nombre de cycles de machine par octet pour une charge de travail de type flot de donnes TCP.
Tableau 25. Liaison Ethernet partage avec loption dutilisation dunits dexcution active Type de flot de donnes Simplex Duplex Dbit MTU 1500 et utilisation de processeur Dbit MTU 9000 et MTU 1500, cycles par utilisation de octet processeur MTU 9000, cycles par octet

112,8 Mo 80,6 % des 11,2 ressources processeur 162,2 Mo 88,8 % des 8,6 ressources processeur

117,8 Mo 37,7 % des 5 ressources processeur 217 Mo 52,5 % des ressources processeur 3,8

Tableau 26. Liaison Ethernet partage avec loption dutilisation dunits dexcution dsactive. Type de flot de donnes Simplex Duplex Dbit MTU 1500 et utilisation de processeur Dbit MTU 9000 et MTU 1500, cycles par utilisation de octet processeur MTU 9000, cycles par octet

112,8 Mo 66,4 % des 9,3 ressources processeur 161,6 Mo 76,4 % des 7,4 ressources processeur

117,8 Mo 26,7 % des 3,6 ressources processeur 216,8 Mo 39,6 % des 2,9 ressources processeur

Les tableaux suivants montrent le nombre de cycles de machine par octet pour une charge de travail de type demande/rponse. Une transaction est dfinie par la taille de demande et de rponse aller-retour.
Tableau 27. Liaison Ethernet partage avec loption dutilisation dunits dexcution active Transactions par seconde et utilisation du serveur Virtual I/O Server 59 722 TPS 83,4 % des ressources processeur MTU 1500 ou 9000, cycles par transaction 23 022

Taille de transaction Petits paquets (64 octets)

Virtual I/O Server

65

Tableau 27. Liaison Ethernet partage avec loption dutilisation dunits dexcution active (suite) Transactions par seconde et utilisation du serveur Virtual I/O Server 51 956 TPS 80 % des ressources processeur MTU 1500 ou 9000, cycles par transaction 25 406

Taille de transaction Grands paquets (1024 octets)

Tableau 28. Liaison Ethernet partage avec loption dutilisation dunits dexcution dsactive. Transactions par seconde et utilisation du serveur Virtual I/O Server 60 ;249 TPS 65,6 % des ressources processeur 53 104 TPS 65 % des ressources processeur MTU 1500 ou 9000, cycles par transaction 17 956 20 196

Taille de transaction Petits paquets (64 octets) Grands paquets (1024 octets)

Les tableaux prcdents montrent que loption dutilisation dunits dexcution de la liaison Ethernet partage ajoute environ 16 20 % de cycles machine par transaction pour les flots de donnes MTU 1500 et 31 38 % pour MTU 9000. Loption dutilisation dunits dexcution augmente le nombre de cycles machine par transaction pour de faibles charges de travail car les units dexcution sont dmarres pour chaque paquet. A des taux de charge de travail plus levs, telles que les charges de travail en duplex intgral ou de demandes/rponses, les units dexcution peuvent durer plus longtemps sans attente ou racheminement. Loption dutilisation dunits dexcution est une option par liaison Ethernet partage qui peut tre configure laide de commandes du serveur Virtual I/O Server. Dsactivez cette option si la liaison Ethernet partage sexcute seule dans une partition logique de Virtual I/O Server (sans interface SCSI virtuelle dans la mme partition). Vous pouvez activer ou dsactiver lutilisation dunits dexcution laide de loption -attr thread de la commande mkvdev. Pour activer lutilisation dunits dexcution, utilisez loption -attr thread=1. Pour la dsactiver, utilisez loption -attr thread=0. Par exemple, la commande ci-dessous dsactive lutilisation dunits dexcution pour la carte Ethernet partage ent1 :
mkvdev -sea ent1 -vadapter ent5 -default ent5 -defaultid 1 -attr thread=0

Dimensionnement dun Virtual I/O Server pour une liaison Ethernet partage sur une partition logique de processeur partag Vous pouvez crer une partition logique de processeur partag pour un Virtual I/O Server si ce dernier utilise des rseaux au dbit plus lent (par exemple 10/100 Mbit) et quune partition logique de processeur complte nest pas ncessaire. Il est recommand de ne recourir cette solution que si la charge de travail du serveur Virtual I/O Server est infrieure la moiti dun processeur ou si elle nest pas constante. Le fait de configurer la partition logique Virtual I/O Server en mode non brid peut galement permettre dutiliser plus de cycles de processeur pour traiter un dbit qui nest pas constant. Par exemple, si le rseau est utilis uniquement lorsque dautres processeurs sont inactifs, la partition logique Virtual I/O Server peut utiliser dautres cycles de processeur et peut tre cre avec des ressources processeur minimales pour traiter une charge de travail peu importante pendant la journe. Si vous crez un Virtual I/O Server dans une partition logique de processeur partag, ajoutez une autorisation dutilisation des microprocesseurs supplmentaires prendre en compte pour le dimensionnement. Allocation de mmoire : Informations relatives lallocation et au dimensionnement de la mmoire.

66

Virtual I/O Server

En gnral, 512 Mo de mmoire par partition logique suffisent pour la plupart des configurations. Allouez suffisamment de mmoire aux structures de donnes du serveur Virtual I/O Server. Les cartes Ethernet et les units virtuelles utilisent des mmoires tampon de rception ddies. Ces mmoires tampon permettent de stocker les paquets entrants qui sont envoys via lunit sortante. Une carte Ethernet physique utilise gnralement 4 Mo pour une unit de transmission maximale (MTU) de 1500 octets ou 16 Mo pour une unit de transmission maximale de 9000 octets dans le cas de mmoires tampon ddies avec la technologie Gigabit Ethernet. Les autres cartes Ethernet sont similaires. Une liaison Ethernet virtuelle utilise gnralement 6 Mo pour les mmoires tampon de rception ddies. Toutefois, cette valeur peut varier en fonction de la charge de travail. Chaque instance de liaison Ethernet physique ou virtuelle a besoin de mmoire pour cette valeur de mmoires tampon. En outre, le systme dispose dun pool de mmoires tampon mbuf par processeur qui est utilis si des mmoires tampon supplmentaires sont requises. Ces mmoires tampon occupent gnralement 40 Mo.

Configuration requise pour la mmoire partage


Consultez la configuration requise pour le systme, Virtual I/O Server (VIOS), les partitions logiques et les units despace de pagination pour une configuration russie de la mmoire partage.

Configuration requise
v Le serveur doit tre base de processeur POWER6. v Le microprogramme de serveur doit tre ldition 3.4.2 ou suprieure. v La console HMC (Hardware Management Console) doit tre la version 7, dition 3.4.2 ou suprieure. v Le gestionnaire Integrated Virtualization Manager doit tre la version 2.1.1 ou suprieure. v La technologie PowerVM Active Memory Sharing doit tre active. La technologie PowerVM Active Memory Sharing est disponible avec PowerVM Enterprise Edition, pour lequel vous devez vous procurer et entrer un code dactivation PowerVM Editions.

Configuration requise pour la partition VIOS de pagination


v Les partitions logiques Virtual I/O Server fournissant laccs aux units despace de pagination pour les partitions de mmoire partage affectes au pool de mmoire partage (appeles ci-aprs partitions VIOS de pagination) ne peuvent pas utiliser la mmoire partage. Les partitions VIOS de pagination doivent utiliser la mmoire ddie. v Les partitions VIOS de pagination doivent tre la version 2.1.1 ou suprieure. v Sur des systmes grs via le gestionnaire IVM, toutes les partitions logiques qui utilisent la mmoire partage (appeles ci-aprs partitions de mmoire partage) doivent utiliser les ressources virtuelles fournies par la partition de gestion. v Sur des systmes grs via la console HMC, envisagez de configurer des partitions logiques Virtual I/O Server distinctes en tant que partitions de serveur et partitions VIOS de pagination. Configurez, par exemple, une partition logique Virtual I/O Server pour quelle fournisse des ressources virtuelles aux partitions de mmoire partage, et une autre partition logique Virtual I/O Server en tant que partition VIOS de pagination. v Sur des systmes grs via la console HMC, vous pouvez configurer plusieurs partitions logiques Virtual I/O Server pour fournir laccs aux units despace de pagination. Cependant, vous ne pouvez pas affecter simultanment plus de deux de ces partitions Virtual I/O Server au pool de mmoire partage.

Exigences relatives aux partitions de mmoire partage


v Les partitions de mmoire partage doivent utiliser des processeurs partags. v Vous pouvez affecter uniquement des cartes virtuelles aux partitions de mmoire partage. En dautres termes, vous ne pouvez ajouter dynamiquement que des cartes virtuelles des partitions de mmoire partage. Plus spcifiquement, vous pouvez affecter uniquement des cartes client SCSI, des cartes Ethernet virtuelles, des cartes client Fibre Channel, , ainsi que des cartes srie virtuelles aux partitions
Virtual I/O Server

67

v v v v

de mmoire partage AIX et Linux. Vous ne pouvez pas affecter de carte HEA (Host Ethernet Adapter) ou de carte HCA (Host Connection Adapter) des partitions de mmoire partage. Les partitions de mmoire partage ne peuvent pas utiliser la synchronisation de barrire. Les partitions de mmoire partage ne peuvent pas utiliser des pages trs volumineuses. AIX doit tre la version 6.1 niveau de technologie TL 3 ou suprieure, pour sexcuter sur une partition de mmoire partage. SUSE Linux Enterprise Server doit tre la version 11 ou suprieure pour sexcuter sur une partition de mmoire partage.

Exigences relatives aux units despace de pagination


v Les units despace de pagination de partitions de mmoire partage AIX ou Linux doivent tre au moins de la taille de la mmoire logique maximale de la partition de mmoire partage. v Les units despace de pagination peuvent uniquement tre affectes un seul pool de mmoire partage la fois. Vous ne pouvez pas affecter en mme temps une unit despace de pagination un pool de mmoire partage sur un systme et un autre sur un autre systme. v Les units despace de pagination qui sont accdes par une seule partition VIOS de pagination doivent satisfaire les exigences suivantes : Il peut sagir de volumes logiques ou physiques. Elles doivent se trouver dans la mmoire physique du serveur ou sur un rseau de systmes (SAN). v Les units despace de pagination qui sont accdes de faon redondante par deux partitions VIOS de pagination doivent satisfaire les exigences suivantes : Il doit sagir de volumes physiques. Elles doivent se trouver sur un rseau de systmes (SAN). Elles doivent tre configures avec des ID globaux. Elles doivent tre accessibles aux deux partitions VIOS de pagination. Lattribut de rservation doit tre dfini sur no reserve. (Le serveur Virtual I/O Server dfinit automatiquement cet attribut sur pas de rserve lorsque vous ajoutez lunit despace de pagination au pool de mmoire partage.) v Les volumes physiques configurs en tant quunits despace de pagination ne peuvent pas appartenir un groupe de volumes tel que rootvg. v Les volumes logiques configurs en tant quunits despace de pagination doivent se trouver dans un groupe de volumes ddi aux units despace de pagination. v Les units despace de pagination doivent tre disponibles. Vous ne pouvez pas utiliser un volume physique ou logique en tant quunit despace de pagination sil est dj configur comme tel ou comme disque virtuel dune autre partition logique. v Les units despace de pagination ne peuvent pas tre utilises pour initialiser une partition logique. v Aprs avoir affect une unit despace de pagination au pool de mmoire partage, vous devez grer lunit laide de lassistant de cration/modification du pool de mmoire partage sur la console HMC ou via la page daffichage/modification du pool de mmoire partage sur le gestionnaire Integrated Virtualization Manager. Ne modifiez pas et ne supprimez pas lunit en utilisant dautres outils de gestion.

Remarques relatives la redondance


Les options de redondance sont disponibles plusieurs niveaux dans lenvironnement dE-S virtuel. Des options de mise en miroir, de multi-accs et de redondance RAID sont disponibles pour Virtual I/O Server et certaines partitions client. Ethernet agrgation de liaisons (galement appel EtherChannel) est galement une option des partitions logiques client, et Virtual I/O Server comporte une fonction de reprise par transfert de carte Ethernet partage. La fonction de reprise par transfert des noeuds (HACMP) est galement prise en charge pour les noeuds utilisant des ressources dE-S virtuelles.

68

Virtual I/O Server

Cette section contient des informations relatives la fonction de redondance pour les partitions logiques client et Virtual I/O Server. Ces configurations aident protger le systme contre toute panne de lun de ses composants physiques (par exemple, disque ou carte rseau) mais nempchent pas la partition logique client de perdre laccs ses units en cas de panne du serveur Virtual I/O Server. Pour fournir une redondance au Virtual I/O Server, il est possible dexcuter une seconde instance de ce dernier dans une autre partition logique. Lorsque lon excute deux instances du serveur Virtual I/O Server, on peut utiliser la fonction miroir LVM, la fonction Multi-Path I/O, la fonction de sauvegarde via linterface rseau ou la fonction de routage Multi-Path avec la dtection des passerelles dsactive sur la partition logique client pour fournir un accs haute disponibilit aux ressources virtuelles hberges sur des partitions logiques Virtual I/O Server.

Partitions logiques client


Cette rubrique fournit des informations de redondance pour les partitions logiques client. Elle traite galement des fonctions MPIO, HACMP et miroir de la partition logique client. Fonction MPIO : Informations sur la fonction MPIO (Multi-Path I/O) pour les partitions logiques client. Plusieurs cartes SCSI virtuelles ou cartes Fibre Channel virtuelles dune partition logique client peuvent accder au mme disque via plusieurs partitions logiques Virtual I/O Server. Cette section dcrit une configuration dunit multi-path (multi-accs) de linterface SCSI virtuelle. Si la configuration est correcte, le client reconnat alors le disque en tant quunit MPIO. Si vous utilisez la technologie PowerVM Active Memory Sharing (ou mmoire partage), vous pouvez aussi utiliser une configuration multi-path afin de permettre deux partitions logiques VIOS de pagination daccder des units despace de pagination communes. Toutes les units SCSI virtuelles ne prennent pas en charge la fonction MPIO. Pour crer une configuration MPIO, lunit exporte partir de Virtual I/O Server doit se conformer aux rgles suivantes : v Elle doit tre base sur un volume physique. Les units SCSI virtuelles bases sur des volumes logiques ne sont pas prises en charge dans une configuration MPIO. v Lunit doit tre accessible partir de plusieurs partitions logiques Virtual I/O Server. v Lunit doit prendre en charge la fonction MPIO. Remarque : Ces units compatibles MPIO sont associes un identificateur unique (UDID) ou un identificateur de volume IEEE. Pour savoir comment dterminer si les disques sont associs un identificateur de volume UDID ou IEEE, voir Identification des disques exportables, la page 105. Lorsque vous dfinissez une configuration MPIO pour les units SCSI virtuelles sur la partition logique client, vous devez tenir compte de la rgle de rservation de lunit sur Virtual I/O Server. Pour que vous puissiez utiliser une configuration MPIO sur le client, aucune unit SCSI virtuelle de Virtual I/O Server ne doit rserver lunit SCSI virtuelle. Assurez-vous que lattribut reserve_policy de lunit a pour valeur no_reserve. La reprise par transfert constitue le comportement par dfaut des disques SCSI MPIO virtuels sur la partition logique client.

Virtual I/O Server

69

Tches associes Dfinition des attributs de rgle de rservation dune unit, la page 100 Dans certaines configurations, vous devez tenir compte de la rgle de rservation de lunit sur le serveur Virtual I/O Server. Scnario : Configuration de la fonction MPIO pour les partitions logiques client AIX, la page 51 La fonction MPIO (Multi-Path I/O) permet daccrotre la disponibilit des ressources SCSI virtuelles en fournissant ces dernires des chemins redondants. Cette rubrique explique comment configurer la fonction MPIO (Multi-Path I/O) pour les partitions logiques client AIX. Rfrence associe Configuration requise pour la mmoire partage, la page 67 Consultez la configuration requise pour le systme, Virtual I/O Server (VIOS), les partitions logiques et les units despace de pagination pour une configuration russie de la mmoire partage. Fonction miroir des partitions logiques client : Mise en miroir des partitions logiques client laide de deux cartes SCSI virtuelles. La partition client peut jouer le rle de miroir pour ses volumes logiques grce lutilisation de deux cartes client SCSI virtuelles. Chacune de ces cartes doit tre alloue des partitions distinctes du serveur Virtual I/O Server. Les deux disques physiques sont connects chacun des partitions distinctes du serveur Virtual I/O Server et sont mis la disposition de la partition client via une carte serveur SCSI virtuelle. Cette configuration protge un disque virtuel dune partition client contre les incidents suivants : v Sur un disque physique v Sur une carte physique v Sur le serveur Virtual I/O Server Lutilisation dune configuration RAID 1 peut avoir une incidence sur les performances de votre systme. Multitraitement HACMP : Cette rubrique fournit des informations sur le multitraitement de cluster haute disponibilit (HACMP) sur le serveur Virtual I/O Server. Fonction HACMP et interface SCSI virtuelle Tenez compte des considrations suivantes lors de limplmentation de la fonction HACMP et de linterface SCSI virtuelle : v Le groupe de volumes doit tre dfini en mode simultan amlior. Ce mode est recommand pour le partage de groupes de volumes dans les clusters HACMP car les volumes sont alors accessibles par plusieurs noeuds HACMP. Si les systmes de fichiers sont utiliss sur les noeuds de secours, ils ne sont monts qu partir du point de reprise par transfert. Si les volumes partags sont accessibles directement (sans systme de fichiers) en mode simultan amlior, ces volumes sont accessibles partir de plusieurs noeuds ; par consquent, laccs doit tre contrl au niveau dune couche suprieure. v Si un noeud de cluster accde aux volumes partags via linterface SCSI virtuelle, tous les noeuds doivent alors faire de mme. Autrement dit, les disques ne peuvent pas tre partags entre une partition logique utilisant une interface SCSI et un noeud qui accde directement ces disques. v Toutes les oprations de configuration et de maintenance de groupes de volumes sur ces disques partags sont effectues partir des noeuds HACMP, et non partir du serveur Virtual I/O Server.

70

Virtual I/O Server

Fonction HACMP et interface Ethernet virtuelle Tenez compte des considrations suivantes lors de limplmentation de la fonction HACMP et de linterface Ethernet virtuelle : v La fonction IPAT (IP Address Takeover), compte tenu de la cration dalias, doit tre utilise. La fonction IPAT par remplacement et relais dadresse MAC nest pas prise en charge. v Evitez dutiliser la fonction PCI Hot Plug HACMP dans un environnement Virtual I/O Server. Les oprations de remplacement chaud PCI sont disponibles via le serveur Virtual I/O Server. Lorsquun noeud HACMP utilise une unit dE-S virtuelle, la fonction de remplacement chaud PCI HACMP PCI ne sapplique pas car les cartes dE-S sont virtuelles et non physiques. v Toutes les interfaces Ethernet virtuelles dfinies pour HACMP doivent tre traites comme des rseaux carte unique. Plus particulirement, vous devez utiliser lattribut ping_client_list pour surveiller et dtecter tout incident survenant dans les interfaces rseau. v Si Virtual I/O Server dispose de plusieurs interfaces physiques sur le mme rseau, ou si plusieurs noeuds HACMP utilisent Virtual I/O Server dans une mme trame, la fonction HACMP nest pas informe des incidents survenant dans une interface physique unique et ne peut pas mettre en oeuvre de solution de dpannage. Cela ne restreint pas la disponibilit de lensemble du cluster car Virtual I/O Server route le trafic en contournant lincident. v Si Virtual I/O Server ne prsente quune seule interface physique sur un rseau, tout incident survenant dans cette interface physique est dtect par la fonction HACMP. Toutefois, lincident isole le noeud du reste du rseau. Units dagrgation de liaisons ou EtherChannel : Une unit dagrgation de liaisons, ou EtherChannel, est une technologie de regroupement de ports rseau permettant de regrouper plusieurs cartes Ethernet. Les cartes constituent alors une unit Ethernet unique. agrgation de liaisons offre un meilleur dbit via une seule adresse IP que ne le permettrait une seule carte Ethernet. Par exemple, ent0 et ent1 peuvent tre regroupes pour former ent3. Le systme considre ces cartes regroupes comme une seule et mme carte. La mme adresse matrielle est fournie toutes les cartes de lunit dagrgation de liaisons, alors les systmes distants les traitent comme sil sagissait dune seule et mme carte. Lagrgation de liaisons amliore la redondance : en cas dchec dun lien, lunit dagrgation de liaisons bascule sur une autre carte de lunit afin de conserver la liaison. Dans lexemple prcdent, si ent0 choue, les paquets sont automatiquement envoys la carte disponible suivante ent1, sans interrompre les connexions utilisateur existantes. Apres sa restauration, lunit ent0 est automatiquement renvoye au service de lunit dagrgation de liaisons. Vous pouvez configurer une carte Ethernet partage de faon utiliser une unit dagrgation de liaisons (ou EtherChannel) en tant que carte physique. Reprise par transfert de carte Ethernet partage : La fonction de reprise par transfert de carte Ethernet partage assure la redondance, car elle permet de configurer une carte Ethernet partage de secours sur une autre partition logique Virtual I/O Server, laquelle peut tre utilise en cas de dfaillance de la carte Ethernet partage principale. La connectivit rseau des partitions logiques client est maintenue, sans interruption. Une carte Ethernet partage comprend une carte physique (ou plusieurs cartes physiques regroupes dans une unit dagrgation de liaisons) et une ou plusieurs cartes Ethernet virtuelles. Elle peut offrir une connectivit de couche 2 plusieurs partitions logiques client via les cartes Ethernet virtuelles.

Virtual I/O Server

71

La configuration de la fonction de reprise par transfert de carte Ethernet partage utilise la valeur de priorit fournie aux cartes Ethernet virtuelles lors de leur cration, afin didentifier la carte Ethernet partage qui constitue la carte principale et celle qui constitue la carte de secours. La carte Ethernet partage dont la carte de rseau virtuelle prsente la valeur numrique de priorit la plus basse sera utilise de prfrence comme carte principale. Afin de pouvoir communiquer entre elles et de dterminer lorsquune opration de reprise par transfert doit tre ralise, les cartes Ethernet partages prsentant le mode de reprise par transfert utilisent un rseau local virtuel (VLAN) ddi pour ce type de trafic, appel canal de contrle. Cest pourquoi vous devez spcifier une carte Ethernet virtuelle (comportant un PVID unique sur le systme) comme carte Ethernet virtuelle du canal de contrle, lorsque chaque carte Ethernet partage est cre en mode de reprise par transfert. Via le canal de contrle, la carte Ethernet partage de secours est avertie lorsque la carte principale subit une dfaillance et le trafic rseau des partitions logiques client est transfr sur la carte de secours. Lorsque la carte Ethernet partage principale est restaure (si cela savre possible), elle assure nouveau lensemble du trafic rseau. Une carte Ethernet partage en mode de reprise par transfert peut comporter plusieurs cartes de ligne Ethernet virtuelles. Si tel est le cas, la priorit doit tre identique pour toutes les cartes Ethernet virtuelles dune carte Ethernet partage. En outre, il est inutile que le paramtre de carte de ligne de la carte Ethernet virtuelle utilise spcialement pour le canal de contrle soit activ. Les cartes Ethernet virtuelles utilises pour le canal de contrle de chaque carte Ethernet partage en mode de reprise par transfert doivent avoir la mme valeur PVID, et cette valeur de PVID doit tre unique sur le systme (aucune autre carte Ethernet virtuelle du systme ne doit utiliser ce PVID). Pour garantir une reprise, lorsque vous activez le protocole Spanning Tree sur les ports de commutateur connects aux cartes physiques de la carte Ethernet partage, vous pouvez aussi activer loption portfast sur ces ports. Loption portfast permet au commutateur de transmettre immdiatement les paquets au port sans terminer dabord le protocole Spanning Tree (lequel bloque compltement le port jusqu ce quil ait fini). La carte Ethernet partage est conue pour viter les boucles rseau. Toutefois, titre de prcaution supplmentaire, vous pouvez activer la protection Bridge Protocol Data Unit (BPDU) Guard sur les ports de commutateur connects aux cartes physiques de la carte Ethernet partage. BPDU Guard dtecte les paquets BPDU en protocole Spanning Tree en boucle et arrte le port. Ceci participe viter les saturations de diffusion sur le rseau. Une saturation de diffusion se produit lorsquun message diffus sur un rseau gnre de multiples rponses. Comme chaque rponse gnre dautres rponses, il sensuit une transmission excessive de messages de diffusion. Les saturations de diffusion importantes peuvent bloquer le trafic rseau, mais il est gnralement possible de les viter en configurant le rseau avec soin de faon bloquer les messages de diffusions illgaux. Remarque : Lorsque la carte Ethernet partage utilise le protocole GVRP (GARP VLAN Registration Protocol) elle gnre des paquets BPDU, ce qui provoque larrt inutile du port par BPDU Guard. Par consquent, lorsque la carte Ethernet partage utilise le protocole GVRP, nactivez pas la protection BPDU Guard. Pour plus dinformations sur lactivation du protocole Spanning Tree, de loption portfast et de BPDU Guard sur les ports, consultez la documentation fournie avec le commutateur. Tches associes Scnario : Configuration de la reprise par transfert de carte Ethernet partage, la page 46 Cette section prsente un scnario classique de reprise par transfert de carte Ethernet partage.

Partition logique Virtual I/O Server


Les options de redondance de Virtual I/O Server comprennent notamment la fonction daccs chemins multiples (multi-path), les configurations RAID et lagrgation de liaisons (ou EtherChannel). Fonction multi-path (multi-accs) :

72

Virtual I/O Server

La fonction multi-path (multi-accs) applique la mmoire physique dans un serveur Virtual I/O Server offre une redondance de chemin physique de reprise par transfert et un quilibrage de charge. Les solutions de fonction multi-path disponibles dans le serveur Virtual I/O Server comprennent la fonction MPIO, ainsi que les solutions offertes par les fournisseurs de stockage. RAID : Les solutions RAID (Redundant Array of Independent Disks) offrent une redondance au niveau des units du serveur Virtual I/O Server. Certaines options RAID, telles la fonction miroir LVM et la fonction de segmentation, sont fournies par le logiciel Virtual I/O Server, alors que dautres sont mises votre disposition via le sous-systme de stockage physique. Units dagrgation de liaisons ou EtherChannel : Une unit dagrgation de liaisons, ou EtherChannel, est une technologie de regroupement de ports rseau permettant de regrouper plusieurs cartes Ethernet. Les cartes constituent alors une unit Ethernet unique. agrgation de liaisons offre un meilleur dbit via une seule adresse IP que ne le permettrait une seule carte Ethernet. Par exemple, ent0 et ent1 peuvent tre regroupes pour former ent3. Le systme considre ces cartes regroupes comme une seule et mme carte. La mme adresse matrielle est fournie toutes les cartes de lunit dagrgation de liaisons, alors les systmes distants les traitent comme sil sagissait dune seule et mme carte. Lagrgation de liaisons amliore la redondance : en cas dchec dun lien, lunit dagrgation de liaisons bascule sur une autre carte de lunit afin de conserver la liaison. Dans lexemple prcdent, si ent0 choue, les paquets sont automatiquement envoys la carte disponible suivante ent1, sans interrompre les connexions utilisateur existantes. Apres sa restauration, lunit ent0 est automatiquement renvoye au service de lunit dagrgation de liaisons. Vous pouvez configurer une carte Ethernet partage de faon utiliser une unit dagrgation de liaisons (ou EtherChannel) en tant que carte physique.

Configuration de la redondance laide de cartes Fibre Channel virtuelles


Les configurations de la redondance permettent de protger votre rseau contre les dfaillances de carte physique et les dfaillances de Virtual I/O Server. Grce NPIV (N_Port ID Virtualization), vous pouvez configurer le systme gr de sorte que plusieurs partitions logiques puissent accder la mmoire physique indpendante par lintermdiaire de la mme carte Fibre Channel physique. Chaque carte Fibre Channel virtuelle est identifie par un WWPN unique, ce qui signifie que vous avez la possibilit de connecter chaque carte Fibre Channel virtuelle la mmoire physique indpendante dun rseau SAN. A linstar de la redondance SCSI virtuelle, la redondance Fibre Channel virtuelle peut tre obtenue laide de la fonction MPIO (Multi-path I/O) et de la fonction miroir au niveau de la partition client. La diffrence entre la redondance traditionnelle avec cartes SCSI et la technologie NPIV utilisant des cartes Fibre Channel virtuelles consiste en ce que la redondance a lieu sur le client, car seul ce dernier reconnat le disque. Virtual I/O Server est essentiellement et simplement un canal de communication. Le second exemple ci-dessous utilise plusieurs partitions logiques Virtual I/O Server pour ajouter une redondance galement au niveau du serveur Virtual I/O Server.

Exemple : reprise par transfert avec adaptateur de bus hte


Cet exemple utilise la reprise par transfert avec adaptateur de bus hte pour fournir un niveau de base de redondance la partition logique client. La figure illustre les connexions suivantes :

Virtual I/O Server

73

v Le rseau de systmes (SAN) connecte une mmoire physique deux cartes Fibre Channel physiques du systme gr. v Ces cartes sont attribues au Virtual I/O Server et prennent en charge NPIV. v Chaque port Fibre Channel physique est connect une carte Fibre Channel virtuelle sur le serveur Virtual I/O Server. Les deux cartes Fibre Channel virtuelles du serveur Virtual I/O Server sont connectes aux ports de deux cartes Fibre Channel physiques diffrentes de faon fournir une redondance pour les cartes physiques. v Chaque carte Fibre Channel virtuelle du serveur Virtual I/O Server est connecte une carte Fibre Channel virtuelle dune partition logique client. Chaque carte Fibre Channel virtuelle de chaque partition logique client reoit une paire de WWPN uniques. La partition logique client utilise un WWPN pour se connecter tout moment au rseau SAN. Lautre WWPN est utilis pour dplacer la partition logique client vers un autre systme gr. Les cartes Fibre Channel virtuelles prsentent toujours une relation un un entre les partitions logiques client et les cartes Fibre Channel virtuelles sur la partition logique Virtual I/O Server. En dautres termes, chaque carte Fibre Channel virtuelle attribue une partition logique client doit se connecter une seule carte Fibre Channel virtuelle du serveur Virtual I/O Server, et inversement.

Le client peut crire dans la mmoire physique via la carte Fibre Channel virtuelle client 1 ou 2. Si une carte Fibre Channel physique fait tat dune dfaillance, le client utilise lautre chemin. Cet exemple ne montre pas de redondance au niveau de la mmoire physique, mais suppose plutt quelle est tablie au niveau du rseau de systmes (SAN). Remarque : Il est recommand de configurer des cartes Fibre Channel virtuelles issues de plusieurs partitions logiques sur le mme adaptateur de bus hte ou de configurer des cartes Fibre Channel virtuelles issues de la mme partition logique sur diffrents adaptateurs de bus hte.

Exemple : reprise par transfert avec adaptateur de bus hte et Virtual I/O Server
Cet exemple utilise la reprise par transfert avec adaptateur de bus hte et Virtual I/O Server pour fournir un niveau avanc de redondance la partition logique client. La figure illustre les connexions suivantes : v Le rseau de systmes (SAN) connecte une mmoire physique deux cartes Fibre Channel physiques du systme gr.

74

Virtual I/O Server

v Deux partitions logiques Virtual I/O Server fournissent une redondance au niveau du serveur Virtual I/O Server. v Les cartes Fibre Channel physiques sont attribues leur Virtual I/O Server respectif et prennent en charge NPIV. v Chaque port Fibre Channel physique est connect une carte Fibre Channel virtuelle sur le serveur Virtual I/O Server. Les deux cartes Fibre Channel virtuelles du serveur Virtual I/O Server sont connectes aux ports de deux cartes Fibre Channel physiques diffrentes de faon fournir une redondance pour les cartes physiques. Une carte unique peut prsenter plusieurs ports. v Chaque carte Fibre Channel virtuelle du serveur Virtual I/O Server est connecte une carte Fibre Channel virtuelle dune partition logique client. Chaque carte Fibre Channel virtuelle de chaque partition logique client reoit une paire de WWPN uniques. La partition logique client utilise un WWPN pour se connecter tout moment au rseau SAN. Lautre WWPN est utilis pour dplacer la partition logique client vers un autre systme gr.

Le client peut crire dans la mmoire physique via la carte Fibre Channel virtuelle 1 ou 2 sur la partition logique client par le biais de VIOS 2. Il peut galement crire dans la mmoire physique via la carte Fibre Channel virtuelle 3 ou 4 sur la partition logique client par le biais de VIOS 1. Si une carte Fibre Channel physique montre une dfaillance sur VIOS 1, le client utilise lautre carte physique connecte VIOS 1 ou les chemins connects via VIOS 2. Si VIOS 1 montre une dfaillance, le client utilise alors le chemin via VIOS 2. Cet exemple ne montre pas de redondance au niveau de la mmoire physique, mais suppose plutt quelle est tablie au niveau du rseau de systmes (SAN).

Aspects prendre en compte


Ces exemples peuvent devenir de plus en plus complexes au fur et mesure de lajout dune redondance de mmoire physique et de plusieurs clients, mais les concepts restent les mmes. Tenez compte des points suivants : v Pour viter que la carte Fibre Channel physique soit le seul point dchec de la connexion entre la partition logique client et son stockage physique sur le rseau SAN, ne connectez pas deux cartes Fibre
Virtual I/O Server

75

Channel virtuelles de la mme partition logique client la mme carte Fibre Channel physique. Connectez la place chaque carte virtuelle Fibre Channel une carte physique Fibre Channel distincte. v Tenez compte de lquilibrage de charge lors du mappage dune carte Fibre Channel virtuelle du serveur Virtual I/O Server sur un port physique de la carte Fibre Channel physique. v Tenez compte du niveau de redondance qui existe dj sur le rseau SAN pour dfinir la configuration ou non de plusieurs units de mmoire physique. v Envisagez dutiliser deux partitions logiques Virtual I/O Server. Etant donn que Virtual I/O Server est essentiel pour la communication entre les partitions logiques et le rseau externe, il est important de fournir un niveau de redondance pour ce serveur. Plusieurs partitions logiques Virtual I/O Server ncessitent galement davantage de ressources ; vous devez donc planifier en consquence. v La technologie NPIV est utile lorsque vous souhaitez dplacer des partitions logiques entre serveurs. Par exemple, dans une Mobilit de partition active, si vous utilisez les configurations de redondance ci-dessus, en combinaison avec des cartes physiques, vous pouvez arrter lensemble de lactivit dentre-sortie par le biais de la carte physique ddie et diriger la totalit du trafic via une carte Fibre Channel virtuelle jusqu ce que la partition logique soit correctement dplace. Il est ncessaire que la carte physique ddie soit connecte au mme stockage que le chemin virtuel. Etant donn que vous ne pouvez pas migrer une carte physique, lensemble de lactivit dentre-sortie est achemine via le chemin virtuel au moment du dplacement de la partition. Une fois la partition logique dplace, vous devez dfinir le chemin ddi (sur la partition logique de destination) si vous souhaitez utiliser la configuration de redondance qui avait t dfinie sur la partition logique dorigine. Lactivit dentre-sortie peut alors reprendre par le biais de la carte ddie, la carte Fibre Channel virtuelle servant de chemin secondaire. Information associe Virtual I/O Server Deployment Examples Configuration dune carte Fibre Channel virtuelle laide de la console HMC Configuration des partitions logiques pour utiliser une carte virtuelle Fibre Channel sur Integrated Virtualization Manager IBM PowerVM Live Partition Mobility

Remarques sur la scurit


Informations de scurit relatives linterface SCSI virtuelle, la carte Ethernet virtuelle, la carte Ethernet partage et aux options de scurit supplmentaires disponibles. Les systmes permettent le partage et la communication des units dune partition lautre. Les fonctions, telles que les partitions logiques (LPAR) dynamiques, les processeurs partags, les rseaux virtuels, la mmoire virtuelle et la gestion des charges de travail, ncessitent toutes des fonctionnalits permettant de sassurer que les exigences de scurit systme sont respectes. Les fonctions de virtualisation et doprations entre partitions sont conues de manire ne pas mettre en pril la scurit au-del de ce qui est ncessaire. Par exemple, une connexion de rseau local (LAN) virtuelle aura les mmes exigences en matire de scurit quune connexion de rseau physique. Soyez particulirement vigilant lorsque vous utilisez des fonctions de virtualisation entre partitions dans les environnements prsentant une scurit leve. Toute visibilit entre partitions logiques doit tre cre manuellement et doit tre le rsultat de choix de configuration systme de ladministrateur. Avec linterface SCSI virtuelle, Virtual I/O Server permet le stockage sur les partitions logiques client. Cependant, au lieu dtre tablie via des cbles SCSI ou optiques, la connexion pour cette fonctionnalit est tablie par le microprogramme. Les pilotes de lunit SCSI virtuelle du serveur Virtual I/O Server et le microprogramme permettent de sassurer que seul ladministrateur systme Virtual I/O Server contrle les partitions logiques qui peuvent accder aux donnes des units de stockage du serveur Virtual I/O Server. Par exemple, une partition logique client ayant accs au volume logique lv001 export par la partition logique Virtual I/O Server ne peut pas accder lv002, mme si elle appartient au mme groupe de volumes.

76

Virtual I/O Server

Tout comme linterface SCSI virtuelle, le microprogramme fournit galement une connexion entre les partitions logiques lorsquil utilise cette interface. Il fournit une fonction de commutateur Ethernet. La connexion vers le rseau externe est fournie par la fonction de carte Ethernet partage de Virtual I/O Server. Cette partie de Virtual I/O Server agit comme un pont de couche 2 vers les cartes physiques. Une marque dID VLAN est insre dans toute trame Ethernet. Le commutateur Ethernet limite les trames aux ports autoriss recevoir des cadres portant cet ID VLAN. Chaque port dun commutateur Ethernet peut tre configur afin dtre membre de plusieurs rseaux VLAN (rseaux locaux virtuels). Seules les cartes rseau (physiques et virtuelles) connectes un port (virtuel ou physique) appartenant au mme rseau VLAN peuvent recevoir les trames. La mise en oeuvre de cette norme VLAN permet de sassurer que les partitions logiques nont pas accs des donnes restreintes.

Installation de Virtual I/O Server et des partitions logiques client


Informations relatives linstallation de Virtual I/O Serveret des partitions logiques client via le dploiement dune planification systme ou via la cration manuelle de la partition logique et des profils de partition logique et linstallation de Virtual I/O Serveret des systmes dexploitation client. Ces instructions concernent linstallation de Virtual I/O Serveret des partitions logiques client sur un systme gr par une console HMC (Hardware Management Console). Si vous envisagez dinstaller Virtual I/O Server sur un systme non gr par une console HMC, vous devez installer Integrated Virtualization Manager. Pour obtenir des instructions, voir Installing the Integrated Virtualization Manager. La procdure dinstallation suivre dpend des facteurs suivants : v Version de la console HMC relie au systme gr sur lequel vous souhaitez installer Virtual I/O Serveret des partitions logiques client. Linterface de la console HMC version 7 est diffrente de celle des versions prcdentes de la console HMC. La console HMC version 7 permet galement de dployer une planification systme incluant Virtual I/O Serveret des partitions logiques client. v Si vous envisagez ou non de dployer une planification systme incluant Virtual I/O Server et des partitions logiques client. Lorsque vous dployez une planification systme, la console HMC effectue automatiquement les tches suivantes partir des informations fournies par la planification systme : Cration de la partition logique et du profil de partition logique Virtual I/O Server. Installation de Virtual I/O Server et spcification de ressources virtuelles. Cration de partitions logiques client et de profils de partition logique. Installation des systmes dexploitation AIX et Linux sur des partitions logiques client. Vous devez disposer de la version V7R3.3.0 ou ultrieure de la console HMC. Information associe Installing the Virtual I/O Server using NIM

Installation de Virtual I/O Server et des partitions logiques client en dployant une planification systme
Si vous dployez une planification systme incluant Virtual I/O Serveret, ventuellement, des partitions logiques client, lassistant de dploiement de planification systme cre la partition logique et le profil de partition logique Virtual I/O Server, puis il installe Virtual I/O Serveret les partitions logiques client.

Avant de commencer
Avant de commencer, vrifiez que les conditions suivantes sont remplies : v Le systme sur lequel vous envisagez de dployer la planification systme est gr par une console HMC (Hardware Management Console). v Vous disposez de la console HMC version 7 ou ultrieure.

Virtual I/O Server

77

v Si vous envisagez de dployer diffrentes entits de la configuration de Virtual I/O Server diffrents moments, assurez-vous que la console HMC correspond la version V7R3.3.0, ou une version ultrieure. (Les entits de Virtual I/O Server comprennent des cartes de rseau Ethernet partages, des cartes EtherChannel ou des units agrgation de liaisons, des pools de stockage et des units de sauvegarde.) Si la console HMC ne correspond pas la version V7R3.3.0, ou une version ultrieure, les planifications systme comprenant Virtual I/O Server peuvent tre dployes uniquement sur un nouveau systme, ou sur un systme ne comportant aucune partition logique configure pour Virtual I/O Server. (Vous pouvez installer Virtual I/O Server, mais pas le configurer.) Plus prcisment, aucune entit de Virtual I/O Server ne peut tre configure sur le systme gr, notamment aucune carte Ethernet partage, aucune carte EtherChannel ou aucune unit agrgation de liaisons, aucun pool de stockage et aucune unit de sauvegarde. v Si vous envisagez de dployer une planification systme incluant des informations dinstallation AIX ou Linux pour au moins une partition logique client, vrifiez que les conditions suivantes sont remplies : La console HMC doit correspondre la version V7R3.3.0. Aucun systme dexploitation nest install pour la partition logique client. La console HMC installe AIX et Linux sur les partitions logiques client sur lesquelles aucun systme dexploitation nest install. Si la partition logique client dispose dj dun systme dexploitation, la console HMC ne dploie pas le systme dexploitation indiqu dans la planification systme.

Saisie du code dactivation de PowerVM Editions via la console HMC version 7


Cette procdure explique comment saisir le code dactivation de PowerVM Editions (ou Advanced POWER Virtualization) partir de la console HMC (Hardware Management Console) version 7 ou suprieure.

A propos de cette tche


Si PowerVM Editions nest pas activ sur votre systme, vous devez utiliser la console HMC pour entrer le code dactivation que vous avez reu lors de la votre commande. Procdez comme suit pour entrer le code dactivation de PowerVM Standard Edition et de PowerVM Enterprise Edition. Pour plus dinformations sur PowerVM Editions, voir PowerVM Editions overview. Pour entrer votre code dactivation, procdez comme suit : 1. Dans la zone de Navigation, dveloppez Gestion de systmes. 2. Slectionnez Serveurs. 3. Dans la zone de contenu, slectionnez le systme gr sur lequel vous souhaitez utiliser PowerVM Editions. Il peut sagir, par exemple, du systme sur lequel vous envisagez dinstaller Virtual I/O Server ou celui dans lequel vous envisagez dutiliser la technologie Micro-Partitioning. 4. Cliquez sur Tches et slectionnez Capacity on Demand (CoD) AdvancedPOWER Virtualization Saisie du code dactivation. 5. Entrez votre code dactivation et cliquez sur OK.

Importation dune planification systme dans une console HMC


Vous pouvez importer un fichier de planification systme sur une console HMC (Hardware Management Console) partir de divers types de supports, dun site FTP distant ou de lordinateur partir duquel vous accdez distance la console HMC. Vous pouvez alors dployer la planification systme importe sur un systme gr par la console HMC.

Avant de commencer
Vous pouvez importer un fichier de planification systme dans la console HMC partir de lun des emplacements suivants : v Lordinateur sur lequel vous accdez distance la console HMC.

78

Virtual I/O Server

v Divers supports monts sur la console HMC, tels que des disques optiques ou des units USB. v Un site loign laide du protocole FTP. Pour utiliser cette option, vous devez effectuer les oprations obligatoires suivantes : La console HMC doit disposer dune connexion rseau au site distant. Un serveur FTP doit tre actif sur le site distant. Le port 21 doit tre ouvert sur le site distant. Remarque : Vous ne pouvez pas importer une planification systme portant un nom identique une planification disponible sur la console HMC. Pour importer un fichier de planification systme, vous devez avoir le rle dadministrateur central. Pour plus dinformations sur les rles utilisateur, voir Gestion des utilisateurs et tches HMC.

A propos de cette tche


Pour importer un fichier de planification systme dans la console HMC, excutez la procdure suivante : 1. Dans la zone de navigation de la console HMC, slectionnez Planifications systme. 2. Dans la zone des tches, slectionnez Importation dune planification systme. La fentre Importation de la planification systme souvre. 3. Slectionnez la source du fichier de planification systme importer. Servez-vous du tableau ci-aprs pour effectuer la procdure approprie dimportation de la planification systme partir de lemplacement source slectionn du fichier.
Source de la planification systme importer Cet ordinateur et procdez comme suit : 1. Slectionnez Importation partir de cet ordinateur vers la console HMC. 2. Cliquez sur Importer pour afficher la fentre Tlchargement du fichier. 3. Cliquez sur Parcourir. 4. Slectionnez le fichier de planification systme importer et cliquez sur Ouvrir. 5. Cliquez sur OK pour tlcharger le fichier. Support 1. Slectionnez limportation depuis un support. 2. Dans la zone Nom du fichier de planification systme, entrez le nom du fichier de planification systme. Remarque : Le nom de ce fichier doit se terminer par le suffixe .sysplan et ne peut comporter que des caractres alphanumriques. 3. Dans la zone Sous-rpertoire du support, entrez le chemin du rpertoire dans lequel se trouve le fichier de planification systme sur le support. Remarque : Indiquez uniquement lemplacement du sous-rpertoire, plutt que le chemin qualifi complet et le nom de fichier. 4. Cliquez sur Importation pour afficher la fentre Choix de lunit de stockage. 5. Slectionnez le support qui contient le fichier de planification systme importer. 6. Cliquez sur OK.

Virtual I/O Server

79

Source de la planification systme importer Site FTP distant

et procdez comme suit : 1. Slectionnez loption permettant deffectuer une importation partir dun site FTP distant. 2. Dans la zone Nom du fichier de planification systme, entrez le nom du fichier de planification systme. Remarque : Le nom de ce fichier doit se terminer par le suffixe .sysplan et ne peut comporter que des caractres alphanumriques. 3. Dans la zone Nom dhte du site distant, entrez le nom dhte ou ladresse IP du site FTP distant. 4. Dans la zone ID utilisateur, entrez lID utilisateur employer pour accder au site FTP distant. 5. Dans la zone Mot de passe, entrez le mot de passe employer pour accder au site FTP distant. 6. Dans la zone Rpertoire distant, entrez le chemin daccs au fichier de planification systme sur le site FTP distant. Si vous ne le faites pas, la console HMC recherche le fichier de planification systme dans le chemin par dfaut spcifi sur le site FTP distant.

4. Cliquez sur Importer. Si la console HMC renvoie une erreur, revenez dans la fentre Importation de la planification systme et vrifiez que les informations que vous avez entres sont correctes. Si besoin est, cliquez sur Annulation, retournez ltape 2 et recommencez la procdure depuis le dbut, en vous assurant que les informations tapes chaque tape sont correctes.

Que faire ensuite


Remarque : A la place de linterface utilisateur Web de la console HMC, vous pouvez utiliser la commande cpysysplan partir de linterface de ligne de commande de la console HMC pour importer une planification systme. Une fois la procdure dimportation termine, vous pouvez dployer la planification systme du fichier correspondant sur un systme gr par la console HMC. Si vous avez import le fichier de planification systme depuis un support, vous pouvez dmonter celui-ci en utilisant la commande umount dans linterface de ligne de commande de la console HMC. Tches associes Dploiement dune planification systme via la console HMC Vous pouvez utiliser la console HMC (Hardware Management Console) pour dployer tout ou partie dune planification systme sur un systme gr. Information associe Gestion de la console HMC Cette publication destine aux administrateurs systme et aux oprateurs systme fournit des informations sur lutilisation de la console HMC (Hardware Management Console).

Dploiement dune planification systme via la console HMC


Vous pouvez utiliser la console HMC (Hardware Management Console) pour dployer tout ou partie dune planification systme sur un systme gr.

Avant de commencer
Lorsque vous dployez une planification systme, la console HMC cre des partitions logiques sur le systme gr, en fonction des spcifications de cette planification. Selon le contenu de la planification

80

Virtual I/O Server

systme, vous pouvez galement prvoir dans la planification dinstaller des environnements dexploitation sur les partitions logiques, notamment Virtual I/O Server (VIOS), AIX ou Linux. Si la planification comporte des informations dapplication des accs VIOS pour une partition logique, telles que des affectations de mmoire une utilisation en rseau virtuel pour les partitions logiques client VIOS, la console HMC peut assurer ces affectations de ressource pour les partitions logiques client. Il nest pas ncessaire de dployer une planification systme dans son intgralit, il est possible deffectuer cette opration partiellement sur le systme cible en slectionnant dans la planification les partitions logiques dployer. Vous pouvez rexcuter lassistant de dploiement de planification systme par la suite afin de dployer le reste des partitions logiques dans la planification systme. Toutefois, si vous slectionnez une partition VIOS pour le dploiement, lassistant dploie tous les lments dapplication des accs VIOS qui sont planifis pour la partition mme si la partition logique client client qui utilise lun des lments nest pas slectionne pour le dploiement. Si la planification systme comporte des informations dinstallation pour VIOS, vous pouvez utiliser lassistant de dploiement de planification systme pour installer VIOS et configurer lutilisation du rseau virtuel et les ressources mmoire pour les partitions logiques client VIOS. Avant de commencer la procdure, excutez les tches suivantes : v Vrifiez que le fichier de planification systme existe bien sur la console HMC. Si ce nest pas le cas, vous devez limporter dans la console HMC. Pour des instructions, voir Importation dune planification systme sur une console HMC. v Assurez-vous de satisfaire les exigences appropries au dploiement de la planification systme. Pour plus dinformations, voir Exigences concernant le dploiement de la planification systme.

A propos de cette tche


Dploiement dune planification systme Pour utiliser la console HMC pour dployer une planification systme sur un systme gr, procdez comme suit : 1. Dans la zone de navigation de la console HMC, slectionnez Planifications systme. 2. Dans la zone de contenu, slectionnez la planification systme dployer. 3. Slectionnez Tches Dploiement de la planification systme. Lassistant de dploiement de planification systme dmarre. 4. Sur la page dAccueil, procdez comme suit : a. Slectionnez le fichier de planification systme qui contient la planification systme dployer. b. Choisissez le systme gr sur lequel vous souhaitez dployer la planification systme et cliquez sur Suivant. Si la planification systme ne correspond pas au systme gr sur lequel vous souhaitez la dployer, lassistant affiche une fentre vous en informant. Cliquez sur OK pour continuer ou sur Annulation pour slectionner une autre planification systme. Remarque : Si le fichier de planification systme contient plusieurs planifications systme, lassistant contient une phase qui vous permet den slectionner une spcifique dans le fichier. Cette phase nest pas accessible si le fichier spcifi ne contient quune planification systme. 5. Sur la page Validation, procdez comme suit : a. Attendez que lassistant valide le systme gr et son matriel, grce une comparaison avec la planification systme. Le processus de validation peut prendre un certain temps. b. Sil sachve correctement, cliquez sur Suivant. c. Dans le cas contraire, corrigez les erreurs dcrites par les messages derreur, cliquez sur Annulation pour quitter lassistant, puis recommencez la procdure depuis le dbut. Pour vous aider corriger des incidents de validation, vous pouvez crer une planification systme base sur
Virtual I/O Server

81

la configuration en cours du systme gr. Une telle planification systme vous permet de comparer la planification systme que vous voulez dployer avec la configuration actuelle du systme gr. Vous pouvez pour ce faire utiliser la tche Cration dune planification systme dans la console HMC ou excuter la commande suivante partir de la ligne de commande de la console HMC :
mksysplan -m nom_du_systme_gr -f nom_de_la_nouvelle_planification_systme.sysplan

Cette commande cre une nouvelle planification systme que vous pouvez afficher et comparer avec lancienne pour vous aider diagnostiquer les incidents. 6. Facultatif : Sur la page de dploiement de partition, si, dans la planification systme, vous ne souhaitez pas crer lensemble des partitions logiques et leurs profils, ni les types dadaptateur virtuel ou les adaptateurs eux-mmes, dcochez les cases correspondantes dans la colonne Dploiement. Les adaptateurs srie virtuels sont requis et doivent se trouver dans les emplacements 0 et 1 de chaque partition logique. Vous ne pouvez pas crer de partition logique tant que vous navez pas cr ces adaptateurs. 7. Facultatif : Sur la page Installation de lenvironnement dexploitation, si des informations dinstallation de lenvironnement dexploitation sont spcifies dans la planification systme, procdez comme suit : a. Slectionnez les environnements dexploitation que vous souhaitez dployer sur le systme gr pour chaque partition logique. Pour la console HMC V7R3.2.0 ou V7R3.1.0, vous pouvez dployer lenvironnement dexploitation Virtual I/O Server uniquement. Pour la console HMC V7R3.3.0 ou des versions ultrieures, vous pouvez en outre choisir de dployer les environnements dexploitation AIX ou Linux si la planification systme contient des informations dinstallation les concernant. b. Saisissez lemplacement de limage dinstallation de Virtual I/O Server. c. Entrez ou modifiez les paramtres dinstallation attribus a posteriori lenvironnement dexploitation Virtual I/O Server, AIX ou Linux. Les paramtres dinstallation dattribution a posteriori sont des paramtres qui sont spcifiques linstance dinstallation et doivent tre fournis au cours de la phase dinstallation pour garantir quils sont corrects pour cette instance. Ainsi, vous pouvez entrer ladresse IP de la partition logique cible sur laquelle vous installez lenvironnement dexploitation. Remarque : Si vous devez utiliser des fichiers dinstallation automatique pour dployer un environnement dexploitation, vous ne pouvez pas les ajouter pendant le processus de dploiement de la console HMC. d. Enregistrez toutes les modifications apportes aux paramtres dinstallation dattribution a posteriori. Vous pouvez les enregistrer dans le fichier de planification systme actuel ou dans un nouveau fichier de planification systme. 8. Sur la page Rcapitulatif, contrlez lordre des tapes de dploiement du systme et cliquez sur Terminer. La console HMC sappuie sur la planification systme pour crer les partitions logiques spcifies et pour installer tous les environnements dexploitation spcifis. Ce processus peut prendre plusieurs minutes.

Que faire ensuite


Une fois le dploiement de la planification systme termin, installez les environnements dexploitation et le logiciel sur les partitions logiques sils nont pas t installs lors du dploiement de la planification systme.

82

Virtual I/O Server

Tches associes Importation dune planification systme dans une console HMC, la page 78 Vous pouvez importer un fichier de planification systme sur une console HMC (Hardware Management Console) partir de divers types de supports, dun site FTP distant ou de lordinateur partir duquel vous accdez distance la console HMC. Vous pouvez alors dployer la planification systme importe sur un systme gr par la console HMC. Information associe Partitionnement logique Gestion de la console HMC Cette publication destine aux administrateurs systme et aux oprateurs systme fournit des informations sur lutilisation de la console HMC (Hardware Management Console).

Finalisation de linstallation de Virtual I/O Server


Aprs linstallation de Virtual I/O Server, recherchez les ventuelles mises jour, configurez les connexions distance, crez les autres ID utilisateur, etc.

Avant de commencer
Cette procdure suppose que Virtual I/O Server est install. Pour plus dinformations, voir Installation de Virtual I/O Server et des partitions logiques client, la page 77.

A propos de cette tche


Pour terminer linstallation, procdez comme suit : 1. Acceptez les termes et conditions de maintenance logicielle, ainsi que la licence produit de Virtual I/O Server. Pour plus dinformations, voir Affichage et acceptation du contrat de licence de Virtual I/O Server, la page 88. 2. Etablissez les connexions distantes au Virtual I/O Server. Pour plus dinformations, voir Connexion au serveur Virtual I/O Server laide dOpenSSH, la page 151. 3. Facultatif : Crez les autres ID utilisateur. A la fin de linstallation, le seul ID utilisateur actif est celui de ladministrateur principal (padmin). Vous pouvez crer les ID utilisateur suivants : administrateur systme, technicien de maintenance et ingnieur de dveloppement. Pour plus dinformations sur la cration dID utilisateur, voir Gestion des utilisateurs sur le serveur Virtual I/O Server, la page 156. 4. Configurez la connexion TCP/IP pour Virtual I/O Server laide de la commande mktcpip. Vous devez accomplir cette tche pour pouvoir effectuer une opration de partitionnement logique dynamique. Vous avez galement la possibilit dutiliser le menu dassistance de configuration pour configurer les connexions TCP/IP. Pour accder au menu dassistance de la configuration, excutez la commande cfgassist.

Que faire ensuite


Lorsque vous avez termin, effectuez lune des oprations suivantes : v Si vous avez install Virtual I/O Server, des partitions logiques client et des systmes dexploitation en dployant entirement une planification systme, linstallation est termine. Pour plus dinformations sur la gestion de Virtual I/O Server, voir Gestion du serveur Virtual I/O Server, la page 121. v Si vous avez install Virtual I/O Server manuellement laide de la console HMC version 6 ou version 7, vous devez configurer Virtual I/O Server, crer des partitions logiques client et installer des systmes dexploitation client. Pour plus dinformations, voir Configuration de Virtual I/O Server, la page 94 et le manuel Partitionnement logique. Pour visualiser le fichier PDF de la rubrique Partitionnement logique (environ 1 Mo), voir oemiphat.pdf .

Virtual I/O Server

83

Installation manuelle de Virtual I/O Server via la console HMC version 7


Vous pouvez crer la partition logique et le profil de partition Virtual I/O Server, puis installer Virtual I/O Server via la console HMC (Hardware Management Console) version 7 ou ultrieure.

Avant de commencer
Avant de commencer, vrifiez que les conditions suivantes sont remplies : v Le systme sur lequel vous envisagez dinstaller Virtual I/O Server est gr par une console HMC (Hardware Management Console). v Vous disposez de la console HMC version 7 ou ultrieure. Si vous disposez dune console HMC version 6 ou antrieure, voir Installation manuelle de Virtual I/O Server via la console HMC version 6.

Saisie du code dactivation de PowerVM Editions via la console HMC version 7


Cette procdure explique comment saisir le code dactivation de PowerVM Editions (ou Advanced POWER Virtualization) partir de la console HMC (Hardware Management Console) version 7 ou suprieure.

A propos de cette tche


Si PowerVM Editions nest pas activ sur votre systme, vous devez utiliser la console HMC pour entrer le code dactivation que vous avez reu lors de la votre commande. Procdez comme suit pour entrer le code dactivation de PowerVM Standard Edition et de PowerVM Enterprise Edition. Pour plus dinformations sur PowerVM Editions, voir PowerVM Editions overview. Pour entrer votre code dactivation, procdez comme suit : 1. Dans la zone de Navigation, dveloppez Gestion de systmes. 2. Slectionnez Serveurs. 3. Dans la zone de contenu, slectionnez le systme gr sur lequel vous souhaitez utiliser PowerVM Editions. Il peut sagir, par exemple, du systme sur lequel vous envisagez dinstaller Virtual I/O Server ou celui dans lequel vous envisagez dutiliser la technologie Micro-Partitioning. 4. Cliquez sur Tches et slectionnez Capacity on Demand (CoD) AdvancedPOWER Virtualization Saisie du code dactivation. 5. Entrez votre code dactivation et cliquez sur OK.

Cration de la partition logique et du profil de partition Virtual I/O Server via la console HMC version 7
Vous pouvez utiliser la console HMC version 7 pour crer une partition logique et un profil de partition pour le serveur Virtual I/O Server.

Avant de commencer
Avant de commencer, vrifiez que les conditions suivantes sont remplies : v Vous tes un super administrateur ou un oprateur. v La fonction PowerVM Editions (ou Advanced POWER Virtualization) est active. Pour plus dinformations, voir Saisie du code dactivation de PowerVM Editions via la console HMC version 7, la page 78.

A propos de cette tche


Virtual I/O Server requiert un espace disque minimum de 16 Go.

84

Virtual I/O Server

Pour crer une partition logique et un profil de partition sur votre serveur via la console HMC, procdez comme suit : 1. Dans la zone de Navigation, dveloppez Gestion de systmes. 2. Slectionnez Serveurs. 3. Dans la zone de contenu, ouvrez le serveur sur lequel vous voulez crer le profil de partition. 4. Cliquez sur Tches et slectionnez Configuration Cration dune partition logique Serveur dE-S virtuel. 5. Sur la page Cration de partition, entrez le nom et lID de la partition Virtual I/O Server. 6. Sur la page Profil de partition, procdez comme suit : a. Entrez un nom de profil pour la partition Virtual I/O Server. b. Assurez-vous que la case cocher Utiliser toutes les ressources du systme nest pas slectionne. 7. Sur la page Processeurs, indiquez si vous souhaiter utiliser des processeurs partags ou ddis (en fonction de votre environnement), en slectionnant loption correspondante. 8. Sur la page Paramtres de traitement, entrez la quantit dunits de traitement et de processeurs virtuels que vous souhaitez attribuer la partition Virtual I/O Server. 9. Sur la page Mmoire, slectionnez la quantit de mmoire que vous souhaitez attribuer la partition Virtual I/O Server. La quantit minimale requise est de 512 Mo. 10. Sur la page E-S, slectionnez les ressources dE-S physiques que vous souhaitez avoir sur la partition Virtual I/O Server. 11. Sur la page Cartes virtuelles, crez les cartes destines votre environnement. 12. Sur la page Carte Ethernet hte logique (LHEA), configurez une ou plusieurs cartes de ce type pour la partition Virtual I/O Server. (La carte Ethernet hte est parfois appele carte Ethernet virtuelle intgre.) 13. Sur la page Paramtres facultatifs, procdez comme suit : a. Dcidez si vous souhaitez surveiller les connexions en slectionnant loption approprie. b. Pour que Virtual I/O Server dmarre en mme temps que le systme gr, slectionnez loption Dmarrer automatiquement avec le systme gr. c. Indiquez si vous souhaitez activer ldition de rapports sur le chemin de traitement des erreurs en slectionnant loption correspondante. d. Slectionnez le mode damorage de la partition Virtual I/O Server. Dans la plupart des cas, le mode damorage Normal est loption approprie. 14. Vrifiez vos slections dans la fentre Rcapitulatif du profil et appuyez sur Terminer.

Que faire ensuite


Aprs la cration de la partition et du profil de partition, vous pouvez installer Virtual I/O Server. Pour plus dinformations, consultez lune des procdures suivantes : v Installation de Virtual I/O Server partir de la console HMC v Installation de Virtual I/O Server partir dun CD ou dun DVD, la page 86

Installation de Virtual I/O Server partir de la console HMC


Cette rubrique contient des instructions sur linstallation de Virtual I/O Server via la console HMC laide de la commande installios.

Avant de commencer
Avant de commencer, effectuez les tches suivantes : 1. Vrifiez que les conditions suivantes sont remplies : v Une console HMC est connecte au systme gr.
Virtual I/O Server

85

v La partition logique et le profil de partition logique Virtual I/O Server sont crs. Pour plus dinformations, voir Cration de la partition logique et du profil de partition Virtual I/O Server via la console HMC version 7, la page 84. v La partition logique Virtual I/O Server dispose dau moins une carte Ethernet et un disque de 16 Go lui a t attribu. v Vous disposez des droits daccs hmcsuperadmin. 2. Collectez les informations suivantes : v ladresse IP statique du serveur Virtual I/O Server v le masque de sous-rseau du serveur Virtual I/O Server v la passerelle par dfaut du serveur Virtual I/O Server

A propos de cette tche


Pour installer Virtual I/O Server, procdez comme suit : 1. Insrez le CD-ROM ou le DVD-ROM de Virtual I/O Server dans la console HMC. 2. Si vous installez Virtual I/O Server via linterface rseau publique, passez ltape 3. Si vous installez Virtual I/O Server via une interface rseau prive, entrez la commande suivante sur la ligne de commande de la console HMC :
export INSTALLIOS_PRIVATE_IF=interface

o interface correspond linterface rseau o doit avoir lieu linstallation. 3. Dans la ligne de commande de la console HMC, tapez :
installios

4. Suivez les instructions dinstallation conformment aux invites du systme.

Que faire ensuite


Aprs linstallation de Virtual I/O Server, effectuez les tches complmentaires linstallation (recherchez les mises jour, configurez la connexion distance, crez dautres ID utilisateur, etc.). Pour plus dinformations, voir Finalisation de linstallation de Virtual I/O Server, la page 83.

Installation de Virtual I/O Server partir dun CD ou dun DVD


Instructions relatives linstallation de Virtual I/O Server partir dune unit de CD-ROM ou de DVD-ROM connecte la partition logique du serveur de Virtual I/O Server.

Avant de commencer
Avant de commencer, vrifiez que les conditions suivantes sont remplies : v Une console HMC est connecte au systme gr. v La partition logique et le profil de partition logique Virtual I/O Server sont crs. Pour plus dinformations, voir Cration de la partition logique et du profil de partition Virtual I/O Server via la console HMC version 7, la page 84. v Une unit optique CD ou DVD est attribue la partition logique Virtual I/O Server.

A propos de cette tche


Pour installer Virtual I/O Server partir dun CD ou dun DVD, procdez comme suit : 1. Activez la partition logique Virtual I/O Server laide de la console HMC version 7 (ou ultrieure) ou version 6 (ou antrieure) : v Activez le serveur Virtual I/O Server laide de la console HMC version 7 ou ultrieure : a. Insrez le CD ou le DVD du serveur Virtual I/O Server dans la partition logique Virtual I/O Server.

86

Virtual I/O Server

b. c. d. e.

f. g. h. i. j.

Dans la zone de navigation de la console HMC, cliquez sur Gestion de systmes Serveurs. Slectionnez le serveur sur lequel se trouve la partition logique Virtual I/O Server. Dans la zone Contenu, slectionnez la partition logique Virtual I/O Server. Cliquez sur Tches Utilisation Activation. Le menu Activation dune partition souvre en proposant une slection de profils de partition logique. Vrifiez que le bon profil est mis en vidence. Slectionnez Ouverture dune fentre de terminal ou dune session de console pour ouvrir une fentre de terminal virtuel (vterm). Cliquez sur Options avances pour ouvrir le menu des options avances. Pour le mode damorage, slectionnez SMS. Cliquez sur OK pour fermer le menu des options avances. Cliquez sur OK. Une fentre de terminal virtuel souvre pour la partition logique.

v Activez le serveur Virtual I/O Server laide de la console HMC version 6 ou antrieure : a. Insrez le CD ou le DVD du serveur Virtual I/O Server dans la partition logique Virtual I/O Server. b. Sur la console HMC, cliquez avec le bouton droit de la souris sur la partition logique pour ouvrir le menu correspondant. c. Cliquez sur Activer. Le menu Activation dune partition souvre en proposant une slection de profils de partition logique. Vrifiez que le bon profil est mis en vidence. d. Slectionnez Ouverture dune fentre de terminal ou dune session de console pour ouvrir une fentre de terminal virtuel (vterm). e. Cliquez sur Options avances pour ouvrir le menu des options avances. f. Pour le mode damorage, slectionnez SMS. g. Cliquez sur OK pour fermer le menu des options avances. h. Cliquez sur OK. Une fentre de terminal virtuel souvre pour la partition logique. 2. Slectionnez lunit damorage : a. b. c. d. Slectionnez Choix options damorage et appuyez sur Entre. Slectionnez Choix unit installation/amorage et appuyez sur Entre. Slectionnez Slection de la premire unit damorage et appuyez sur Entre. Slectionnez CD/DVD et appuyez sur Entre.

e. Slectionnez le type de support correspondant lunit optique, puis appuyez sur Entre. f. Slectionnez le numro de lunit correspondant lunit optique, puis appuyez sur Entre. g. Dfinissez la squence damorage pour configurer la premire unit damorage. Lunit optique est dsormais la premire unit de la liste Squence damorage en cours. h. Quittez le menu SMS en appuyant sur la touche x puis confirmez que vous souhaitez quitter SMS. 3. Installez Virtual I/O Server : a. Slectionnez la console souhaite et appuyez sur Entre. b. Slectionnez une langue pour les menus du systme dexploitation de base et appuyez sur Entre. c. Slectionnez Lancement de linstallation avec paramtres par dfaut et appuyez sur Entre. d. Slectionnez Suite de linstallation. Le systme redmarre une fois linstallation termine.

Que faire ensuite


Aprs avoir install Virtual I/O Server, terminez linstallation en recherchant les mises jour, en tablissant les connexions distantes, en crant dautres ID utilisateur, etc. Pour plus dinformations, voir Finalisation de linstallation de Virtual I/O Server, la page 83.

Virtual I/O Server

87

Finalisation de linstallation de Virtual I/O Server


Aprs linstallation de Virtual I/O Server, recherchez les ventuelles mises jour, configurez les connexions distance, crez les autres ID utilisateur, etc.

Avant de commencer
Cette procdure suppose que Virtual I/O Server est install. Pour plus dinformations, voir Installation de Virtual I/O Server et des partitions logiques client, la page 77.

A propos de cette tche


Pour terminer linstallation, procdez comme suit : 1. Acceptez les termes et conditions de maintenance logicielle, ainsi que la licence produit de Virtual I/O Server. Pour plus dinformations, voir Affichage et acceptation du contrat de licence de Virtual I/O Server. 2. Etablissez les connexions distantes au Virtual I/O Server. Pour plus dinformations, voir Connexion au serveur Virtual I/O Server laide dOpenSSH, la page 151. 3. Facultatif : Crez les autres ID utilisateur. A la fin de linstallation, le seul ID utilisateur actif est celui de ladministrateur principal (padmin). Vous pouvez crer les ID utilisateur suivants : administrateur systme, technicien de maintenance et ingnieur de dveloppement. Pour plus dinformations sur la cration dID utilisateur, voir Gestion des utilisateurs sur le serveur Virtual I/O Server, la page 156. 4. Configurez la connexion TCP/IP pour Virtual I/O Server laide de la commande mktcpip. Vous devez accomplir cette tche pour pouvoir effectuer une opration de partitionnement logique dynamique. Vous avez galement la possibilit dutiliser le menu dassistance de configuration pour configurer les connexions TCP/IP. Pour accder au menu dassistance de la configuration, excutez la commande cfgassist.

Que faire ensuite


Lorsque vous avez termin, effectuez lune des oprations suivantes : v Si vous avez install Virtual I/O Server, des partitions logiques client et des systmes dexploitation en dployant entirement une planification systme, linstallation est termine. Pour plus dinformations sur la gestion de Virtual I/O Server, voir Gestion du serveur Virtual I/O Server, la page 121. v Si vous avez install Virtual I/O Server manuellement laide de la console HMC version 6 ou version 7, vous devez configurer Virtual I/O Server, crer des partitions logiques client et installer des systmes dexploitation client. Pour plus dinformations, voir Configuration de Virtual I/O Server, la page 94 et le manuel Partitionnement logique. Pour visualiser le fichier PDF de la rubrique Partitionnement logique (environ 1 Mo), voir oemiphat.pdf .

Affichage et acceptation du contrat de licence de Virtual I/O Server : Avant dutiliser Virtual I/O Server, vous devez afficher et accepter le contrat de licence. Avant de commencer Avant de commencer, vrifiez que le profil de la partition logique Virtual I/O Server est cre et que Virtual I/O Server est install. Pour plus dinformations, voir Installation de Virtual I/O Server et des partitions logiques client, la page 77. A propos de cette tche Pour consulter et accepter la licence de Virtual I/O Server, procdez comme suit : 1. Connectez-vous au serveur Virtual I/O Server avec lID utilisateur padmin.

88

Virtual I/O Server

2. Choisissez un nouveau mot de passe. Les dispositions relatives la maintenance logicielle apparaissent. 3. Affichez et acceptez le contrat de licence du produit Virtual I/O Server. Remarque : Si vous avez install Virtual I/O Server en dployant une planification systme, vous avez dj accept le contrat de licence du produit Virtual I/O Server. Il est donc inutile dexcuter cette procdure. a. Pour afficher le contrat de licence du produit Virtual I/O Server, tapez license -ls sur la ligne de commande. Par dfaut, la licence saffiche en anglais. Pour modifier la langue daffichage de la licence, procdez comme suit : 1) Affichez la liste des paramtres nationaux disponibles pour laffichage de la licence en entrant la commande suivante :
license -ls

2) Affichez la licence dans une autre langue en entrant la commande suivante :


license -view -lang Nom

Par exemple, pour afficher la licence en japonais, entrez la commande suivante :


license -view -lang ja_JP

b. Pour accepter le contrat de licence du produit Virtual I/O Server, tapez license -accept sur la ligne de commande. 4. Dans le programme dinstallation, langlais est la langue par dfaut. Si vous voulez modifier le paramtre de langue du systme, procdez comme suit : a. Affichez les langues disponibles en entrant la commande suivante :
chlang -ls

b. Modifiez la langue en entrant la commande suivante, en remplaant Nom par le nom de la langue que vous souhaitez utiliser.
chlang -lang Nom

Remarque : Si le jeu de fichiers de langue nest pas install, utilisez loption -dev Support pour linstaller. Par exemple, pour installer et slectionner du japonais, entrez la commande suivante :
chlang -lang ja_JP -dev /dev/cd0

Rinstallation de Virtual I/O Server pour une partition VIOS de pagination


Lorsque vous rinstallez le serveur Virtual I/O Server (VIOS) qui est affect au pool de mmoire partage (appel ici partition VIOS de pagination), vous devez reconfigurer lenvironnement de mmoire partage. Par exemple, il peut tre ncessaire dajouter nouveau des units despace de pagination au pool de mmoire partage.

A propos de cette tche


Les partitions VIOS de pagination stockent des informations sur les units despace de pagination qui sont affectes un pool de mmoire partage. La console HMC (Hardware Management Console) obtient des informations sur les units despace de pagination qui sont affectes au pool de mmoire partage partir des partitions VIOS de pagination. Lorsque vous rinstallez le VIOS, les informations sur les units despace de pagination sont perdues. Pour que les partitions VIOS de pagination retrouvent les informations, vous devez affecter nouveau les units despace de pagination au pool de mmoire partage aprs la rinstallation du VIOS. Le tableau ci-dessous rpertorie les tches de reconfiguration effectuer dans lenvironnement de mmoire partage lorsque vous rinstallez le serveur Virtual I/O Server pour une partition VIOS de
Virtual I/O Server

89

pagination.
Tableau 29. Tches de reconfiguration de la mmoire partage pour la rinstallation du serveur Virtual I/O Server pour une partition VIOS de pagination Nombre de partitions VIOS de pagination affectes au pool de mmoire partage 1 Nombre de partitions VIOS de pagination pour lesquelles rinstaller le VIOS 1

Etapes de reconfiguration 1. Arrtez toutes les partitions logiques qui utilisent la mmoire partage (appeles ici partitions de mmoire partage). 2. Rinstallez le VIOS. 3. Ajoutez nouveau les units despace de pagination au pool de mmoire partage.

Instructions 1. Arrt et redmarrage de partitions logiques 2. Installation manuelle du serveur Virtual I/O Server avec la console HMC version 7 3. Ajout et suppression despace de pagination dans le pool de mmoire partage

1. Arrt et redmarrage de 1. Arrtez toutes les partitions logiques partitions de mmoire partage qui utilisent la 2. Suppression dune partition VIOS de partition VIOS de pagination (que vous pagination du pool de prvoyez de rinstaller) mmoire partage comme partition VIOS 3. Installation manuelle du de pagination principale serveur Virtual I/O ou secondaire. Server avec la console 2. Supprimez la partition HMC version 7 VIOS de pagination du 4. Ajout dune partition pool de mmoire VIOS de pagination au partage. pool de mmoire 3. Rinstallez le VIOS. partage 4. Ajoutez nouveau la partition VIOS de pagination au pool de mmoire partage. 1. Arrtez toutes les partitions de mmoire partage. 2. Rinstallez le VIOS de chaque partition VIOS de pagination. 3. Ajoutez nouveau les units despace de pagination au pool de mmoire partage. 1. Arrt et redmarrage de partitions logiques 2. Installation manuelle du serveur Virtual I/O Server avec la console HMC version 7 3. Ajout et suppression despace de pagination dans le pool de mmoire partage

Migration de Virtual I/O Server


Vous pouvez migrer la partition logique Virtual I/O Server partir de la console HMC (Hardware Management Console) version 7 (ou ultrieure) ou partir dune unit de DVD-ROM relie la partition logique Virtual I/O Server. Avant de commencer, vrifiez que les conditions suivantes sont remplies :

90

Virtual I/O Server

v Le systme sur lequel vous envisagez de migrer Virtual I/O Server est gr par une console HMC version 7 ou ultrieure. v Vous disposez de la version 1.3 ou ultrieure de Virtual I/O Server. v Le groupe de volumes rootvg a t attribu au serveur Virtual I/O Server. Remarque : Si vous utilisez un environnement IVM (Integrated Virtualization Manager), voir Migration du serveur Virtual I/O Server partir dune unit DVD. Dans la plupart des cas, les fichiers de configuration utilisateur de la version prcdente de Virtual I/O Server sont sauvegards lorsque la nouvelle version est installe. Si vous disposez de plusieurs partitions logiques Virtual I/O Server dans votre environnement des fins de redondance, vous avez la possibilit darrter et de migrer une partition logique Virtual I/O Server sans interrompre les clients. Une fois la migration effectue, la partition logique Virtual I/O Server est redmarre et disponible pour les clients sans configuration supplmentaire. Avertissement : Nutilisez pas la commande updateios du serveur Virtual I/O Server pour migrer ce dernier. Information associe Migrating the Virtual I/O Server using NIM

Migration de Virtual I/O Server partir de la console HMC


Cette rubrique contient des instructions sur la migration de Virtual I/O Server partir de la console HMC laide de la commande installios.

Avant de commencer
Avant de commencer, vrifiez que les conditions suivantes sont remplies : v Une console HMC est connecte au systme gr. v La partition logique Virtual I/O Server dispose dau moins une carte Ethernet et un disque de 16 Go lui a t attribu. v Vous disposez des droits daccs hmcsuperadmin. v Vous disposez du support de migration de Virtual I/O Server. Remarque : Ce support est distinct du support dinstallation. v Vous disposez actuellement de la version 1.3 ou ultrieure de Virtual I/O Server. v Le groupe de volumes rootvg a t attribu au Virtual I/O Server. v Sauvegardez limage mksysb avant de migrer Virtual I/O Server. Excutez la commande backupios et sauvegardez limage mksysb un emplacement sr.

A propos de cette tche


Pour migrer Virtual I/O Server, procdez comme suit : 1. Insrez le DVD de migration du Virtual I/O Server dans la console HMC. 2. Si vous installez Virtual I/O Server via linterface rseau public, passez ltape 3. Si vous installez Virtual I/O Server via une interface rseau priv, entrez la commande suivante sur la ligne de commande de la console HMC :
export INSTALLIOS_PRIVATE_IF=interface

o interface correspond linterface rseau o doit avoir lieu linstallation. 3. Sur la ligne de commande de la console HMC, tapez :
installios

Virtual I/O Server

91

Avertissement : Nutilisez pas la commande updateios de Virtual I/O Server pour migrer ce dernier. 4. Suivez les instructions dinstallation conformment aux invites du systme.

Que faire ensuite


Une fois la migration effectue, la partition logique de Virtual I/O Server est redmarre avec la configuration en vigueur avant linstallation de la migration. Il est recommand deffectuer les tches suivantes : v Sassurer que la migration a abouti en vrifiant les rsultats de la commande installp et en excutant la commande ioslevel. Cette commande doit indiquer un niveau ioslevel correspondant $ ioslevel 2.1.0.0. v Redmarrez les dmons et les agents qui taient en cours dexcution auparavant : 1. Connectez-vous au serveur Virtual I/O Server en tant quutilisateur padmin. 2. Excutez la commande suivante : $ motd -overwrite <entrer le message de bannire prcdent> 3. Dmarrez les dmons qui taient en cours dexcution auparavant, tels que FTP et Telnet. 4. Dmarrez les agents qui taient en cours dexcution auparavant, tels quituam. v Vrifiez sil existe des mises jour pour Virtual I/O Server. Pour des instructions, voir le site de support de Virtual I/O Server. A faire : Le support de migration de Virtual I/O Server est diffrent du support dinstallation de Virtual I/O Server. Nutilisez pas le support dinstallation pour effectuer des mises jour aprs une migration. Il ne contient pas les mises jour et vous perdrez votre configuration actuelle. Appliquez les mises jour en suivant les instructions qui figurent sur le site de support de Virtual I/O Server uniquement. Tches associes Sauvegarde du serveur Virtual I/O Server sur un systme de fichiers distant via une image mksysb, la page 134 Vous pouvez sauvegarder sur un systme de fichiers distant diffrentes donnes Virtual I/O Server (le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur) en crant un fichier mksysb Information associe Migration de Virtual I/O Server partir dune unit DVD Migration de Virtual I/O Server partir dune unit DVD

Migration de Virtual I/O Server partir dune unit DVD


Instructions relatives la migration de Virtual I/O Server partir dune unit de DVD-ROM connecte la partition logique Virtual I/O Server.

Avant de commencer
Avant de commencer, vrifiez que les conditions suivantes sont remplies : v Une console HMC est connecte au systme gr. v Une unit optique DVD est affecte la partition logique de Virtual I/O Server. v Le support dinstallation pour la migration de Virtual I/O Server est obligatoire. Remarque : Ce support est distinct du support dinstallation de Virtual I/O Server. v Vous disposez actuellement de la version 1.3 ou suprieure de Virtual I/O Server. v Le groupe de volumes rootvg a t attribu au Virtual I/O Server.

92

Virtual I/O Server

v Sauvegardez limage mksysb avant de migrer Virtual I/O Server. Excutez la commande backupios et sauvegardez limage mksysb un emplacement sr. Remarque : Si vous utilisez un environnement IVM (Integrated Virtualization Manager), reportez-vous Migration de Virtual I/O Server partir dune unit DVD laide du gestionnaire Integrated Virtualization Manager.

A propos de cette tche


Pour migrer Virtual I/O Server partir dune unit DVD, procdez comme suit : 1. Activez la partition logique Virtual I/O Server laide de la console HMC, version 7 (ou ultrieure) : a. Insrez le Virtual I/O ServerDVD de migration dans lunit de DVD-ROM affecte la partition logique Virtual I/O Server. b. Dans la zone de navigation de la console HMC, cliquez sur Gestion de systmes Serveurs. c. Slectionnez le serveur sur lequel se trouve la partition logique Virtual I/O Server. d. Dans la zone Contenu, slectionnez la partition logique Virtual I/O Server. e. Cliquez sur Tches Utilisation Activation. Le menu Activation dune partition souvre en proposant une slection de profils de partition logique. Assurez-vous que le profil correct est mis en vidence. f. Slectionnez Ouverture dune fentre de terminal ou dune session de console pour ouvrir une fentre de terminal virtuel (vterm). g. Cliquez sur Options avances pour ouvrir le menu des options avances. h. Pour le mode damorage, slectionnez SMS. i. Cliquez sur OK pour fermer le menu des options avances. j. Cliquez sur OK. Une fentre de terminal virtuel souvre pour la partition logique. 2. Slectionnez lunit damorage : a. Slectionnez Slection des options damorage et appuyez sur Entre. b. Slectionnez Choix unit installation/amorage et appuyez sur Entre. c. Slectionnez CD/DVD et appuyez sur Entre. d. Slectionnez le numro dunit correspondant lunit DVD et appuyez sur Entre. Vous pouvez galement cliquer sur Liste de toutes les units et slectionner le numro dunit dans la liste puis appuyer sur Entre. e. Slectionnez Amorage en mode normal. f. Slectionnez Oui pour quitter le menu SMS. 3. Installez Virtual I/O Server : a. Slectionnez la console souhaite et appuyez sur Entre. b. Slectionnez une langue pour les menus du systme dexploitation de base et appuyez sur Entre. c. Slectionnez Lancement de linstallation avec paramtres par dfaut et appuyez sur Entre. Vous pouvez galement vrifier les paramtres systme et les paramtres dinstallation en entrant 2 pour slectionner Modif/affich des paramtres dinstallation et installation. Remarque : Vous navez pas besoin de modifier les paramtres dinstallation pour slectionner la mthode dinstallation pour la migration. Sil existe une version prcdente du systme dexploitation, la migration est la mthode dinstallation par dfaut. d. Slectionnez Suite de linstallation. Le systme redmarre une fois linstallation termine.

Virtual I/O Server

93

Que faire ensuite


Une fois la migration effectue, la partition logique Virtual I/O Server est redmarre avec la configuration en vigueur avant linstallation de la migration. Il est recommand deffectuer les tches suivantes : v Sassurer que la migration a abouti en vrifiant les rsultats de la commande installp et en excutant la commande ioslevel. Cette commande doit indiquer un niveau ioslevel correspondant $ ioslevel 2.1.0.0. v Redmarrez les dmons et les agents qui taient en cours dexcution auparavant : 1. Connectez-vous au serveur Virtual I/O Server en tant quutilisateur padmin. 2. Excutez la commande suivante : $ motd -overwrite <entrer le message de bannire prcdent> 3. Dmarrez les dmons qui taient en cours dexcution auparavant, tels que FTP et Telnet. 4. Dmarrez les agents qui taient en cours dexcution auparavant, tels quituam. v Vrifiez sil existe des mises jour pour Virtual I/O Server. Pour des instructions, voir le site de support de Virtual I/O Server. A faire : Le support de migration de Virtual I/O Server est diffrent du support dinstallation de Virtual I/O Server. Nutilisez pas le support dinstallation pour effectuer des mises jour aprs une migration. Il ne contient pas les mises jour et vous perdrez votre configuration actuelle. Appliquez les mises jour en suivant les instructions qui figurent sur le site de support de Virtual I/O Server uniquement. Tches associes Sauvegarde du serveur Virtual I/O Server sur un systme de fichiers distant via une image mksysb, la page 134 Vous pouvez sauvegarder sur un systme de fichiers distant diffrentes donnes Virtual I/O Server (le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur) en crant un fichier mksysb Information associe Migration de Virtual I/O Server partir dune unit DVD Migration de Virtual I/O Server partir dune unit DVD

Configuration de Virtual I/O Server


Vous devez configurer les units Ethernet virtuelles et SCSI virtuelles sur le serveur Virtual I/O Server. Vous pouvez galement (facultatif) configurer des cartes Fibre Channel virtuelles, des agents et des clients Tivoli et configurer Virtual I/O Server en tant que client LDAP.

A propos de cette tche


Important : Avant de mettre niveau un systme Virtual I/O Server (VIOS) existant vers un systme POWER6 VIOS, vous devez configurer le nombre maximal demplacements dE-S virtuels et toute carte virtuelle Ethernet, srie ou dinterface SCSI virtuelle utilisant les emplacements VIOS 0 10. Prenez connaissance des rgles de configuration applicables en consultant la rubrique Rgles de configuration de VIOS lors de la mise niveau dun systme existant.

Configuration dunits SCSI virtuelles sur le serveur Virtual I/O Server


Vous pouvez configurer des units SCSI virtuelles en dployant une planification systme, en crant des groupes de volumes et des volumes logiques et en configurant Virtual I/O Server de faon activer la prise en charge des fonctions de verrouillage SCSI-2.

94

Virtual I/O Server

A propos de cette tche


Les ressources de disque virtuel sont fournies sur le serveur Virtual I/O Server. Les disques physiques appartenant au Virtual I/O Server peuvent tre exports et affects ensemble une partition logique client ou partitionns en volumes ou fichiers logiques. Ces volumes et fichiers logiques peuvent ensuite tre exports sous forme de disques virtuels sur une ou plusieurs partitions logiques client. Par consquent, linterface SCSI virtuelle permet de partager des cartes et des units de disque. Pour mettre un volume physique, un volume logique ou un fichier la disposition dune partition client, il doit tre affect une carte SCSI virtuelle du serveur Virtual I/O Server. La carte du client SCSI est lie une carte serveur SCSI virtuelle prcise dans la partition logique Virtual I/O Server. La partition logique client accde aux disques qui lui sont allous via la carte client SCSI virtuelle. La carte client du serveur Virtual I/O Server dtecte les units SCSI standard et les LUN grce cette carte virtuelle. Lattribution de ressources de disques une carte du serveur SCSI sur le serveur Virtual I/O Server permet dallouer de faon effective les ressources une carte client SCSI dans la partition logique client.

Cration de lunit cible virtuelle sur le serveur Virtual I/O Server


La cration dune unit cible virtuelle sur le serveur Virtual I/O Server mappe la carte SCSI virtuelle sur le fichier, le volume logique, lunit de bande, lunit optique ou le disque physique.

A propos de cette tche


Avec Virtual I/O Server version 2.1 et suprieure, vous pouvez exporter les types dunit physique suivants : v v v v v Un disque SCSI virtuel associ Un disque SCSI virtuel associ Un disque SCSI virtuel associ Une unit optique SCSI virtuelle Une unit optique SCSI virtuelle un volume physique un volume logique un fichier associe une unit optique physique associe un fichier

v Une unit de bande SCSI virtuelle associe une unit de bande physique Une fois que lunit virtuelle est alloue une partition client, Virtual I/O Server doit tre disponible pour que les partitions logiques client puissent y accder. Cration dune unit cible virtuelle sur un serveur Virtual I/O Server avec mappage vers un volume physique ou logique, une unit de bande ou une unit optique physique : Vous pouvez crer une unit cible virtuelle sur un serveur Virtual I/O Server qui mappe la carte SCSI virtuelle un disque physique, une unit de bande ou une unit optique physique, ou un volume logique bas sur un groupe de volumes. A propos de cette tche Vous pouvez rpter cette procdure pour fournir de lespace de stockage sur disque virtuel supplmentaire partir de toute partition logique client. Avant de commencer, vrifiez que les conditions suivantes sont remplies : 1. Au moins un volume physique, une unit de bande ou une unit optique, ou un volume logique doit tre dfini sur le serveur Virtual I/O Server. Pour plus dinformations, voir Volumes logiques, la page 13. 2. Les cartes virtuelles Virtual I/O Server et des partitions logiques client doivent avoir t cres. Elles sont gnralement cres en mme temps que le profil de partition logique. Pour plus dinformations sur la cration de la partition logique, voir Virtual I/O Server.

Virtual I/O Server

95

3. Gardez lesprit la limitation de taille de transfert maximale lorsque vous utilisez des clients AIX et des units physiques. Sil existe un client AIX actif et si vous souhaitez ajouter une autre unit cible virtuelle la carte serveur SCSI virtuelle utilise par ce client, assurez-vous que lattribut max_transfer prsente une taille gale ou suprieure celle des units en cours dutilisation. Conseil : Si vous utilisez la console HMC, version 7 dition 3.4.2 ou ultrieure, vous pouvez utiliser linterface graphique de la console HMC pour crer une unit cible virtuelle sur le serveur Virtual I/O Server. Pour crer une unit cible virtuelle qui mappe une carte serveur SCSI virtuelle une unit physique ou un volume logique, effectuez les oprations suivantes partir de linterface de ligne de commande de Virtual I/O Server : 1. Pour vous assurer que la carte SCSI virtuelle est disponible, utilisez la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un rsultat similaire au suivant :
name ent3 vhost0 vhost1 vsa0 vtscsi0 vtscsi1 vtscsi2 status description Available Virtual I/O Ethernet Adapter (l-lan) Available Virtual SCSI Server Adapter Available Virtual SCSI Server Adapter Available LPAR Virtual Serial Adapter Available Virtual Target Device - Logical Volume Available Virtual Target Device - File-backed Disk Available Virtual Target Device - File-backed Disk

2. Pour crer une unit cible virtuelle qui mappe la carte serveur SCSI virtuelle sur une unit physique ou un volume logique, excutez la commande mkvdev :
mkvdev -vdev TargetDevice -vadapter VirtualSCSIServerAdapter

O : v TargetDevice est le nom de lunit cible, comme suit : Pour mapper un volume logique sur la carte serveur SCSI virtuelle, utilisez le nom du volume logique. Par exemple, lv_4G. Pour mapper un volume physique sur la carte serveur SCSI virtuelle, utilisez hdiskx. Par exemple, hdisk5. Pour mapper une unit optique sur la carte serveur SCSI virtuelle, utilisez cdx. Par exemple, cd0. Pour mapper une unit de bande sur une carte SCSI virtuelle, utilisez rmtx. Par exemple, rmt1. v VirtualSCSIServerAdapter est le nom de la carte serveur SCSI virtuelle. Remarque : Si ncessaire, utilisez les commandes lsdev et lsmap -all pour dterminer lunit cible et la carte serveur SCSI virtuelle mapper. La mmoire de stockage est mise disposition de la partition logique client lors du prochain dmarrage de cette partition ou lors de la prochaine analyse (sur une partition logique Linux) ou de la prochaine configuration (sur une partition logique AIX) de la carte client SCSI virtuelle approprie . 3. Affichez lunit cible virtuelle que vous venez de crer en excutant la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un rsultat similaire au suivant :
name status description vhost3 Available Virtual SCSI Server Adapter vsa0 Available LPAR Virtual Serial Adapter vtscsi0 Available Virtual Target Device - Logical Volume vttape0 Available Virtual Target Device - Tape

4. Affichez la connexion logique entre les nouvelles units en excutant la commande lsmap. Par exemple, la commande lsmap -vadapter vhost3 renvoie un rsultat similaire au suivant :
SVSA Empl.Phys Client IDPartition ------------------------------------------------------vhost3 U9111.520.10DDEEC-V1-C20 0x00000000 VTD vtscsi0

96

Virtual I/O Server

Status LUN Backing device Physloc

Available 0x8100000000000000 lv_4G

Lemplacement physique est une association du numro demplacement (20, dans le cas prsent) et de lID de partition logique. La mmoire sera disponible sur la partition logique client soit lors du prochain dmarrage de la mmoire, soit lors de la prochaine analyse ou de la prochaine configuration de la carte client SCSI virtuelle approprie. Que faire ensuite Si vous devez par la suite supprimer lunit virtuelle cible, utilisez la commande rmvdev. Concepts associs Considrations sur le dimensionnement de linterface SCSI virtuelle, la page 58 Cette rubrique dcrit les critres de taille de mmoire et de processeur prendre en compte lors de limplmentation de linterface SCSI virtuelle. Information associe Cration dun disque virtuel pour une partition logique VIOS laide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Cration dune unit cible virtuelle sur un serveur Virtual I/O Server qui mappe un fichier ou un volume logique : Vous pouvez crer une unit cible virtuelle sur un serveurVirtual I/O Server qui mappe la carte SCSI virtuelle un fichier ou un volume logique bas sur un pool de stockage. A propos de cette tche Vous pouvez rpter cette procdure pour fournir de lespace de stockage sur disque virtuel supplmentaire partir de toute partition logique client. Avant de commencer, vrifiez que les conditions suivantes sont remplies : v Vous devez disposer de la version 1.5 (ou dune version suprieure) de Virtual I/O Server. v Un fichier minimum doit tre dfini dans un pool de stockage de fichiers ou un volume logique minimum doit tre dfini dans un pool de stockage de volumes logiques sur le serveur Virtual I/O Server. Pour plus dinformations, voir Stockage virtuel, la page 18 et Pools de stockage, la page 17. v Les cartes virtuelles du serveur Virtual I/O Server et des partitions logiques client doivent avoir t cres. Elles sont gnralement cres en mme temps que le profil de partition logique. Pour plus dinformations sur la cration de la partition logique, voir Virtual I/O Server. Conseil : Si vous utilisez la console HMC, version 7 dition 3.4.2 ou ultrieure, vous pouvez utiliser linterface graphique de la console HMC pour crer une unit cible virtuelle sur le serveur Virtual I/O Server. Pour crer une unit cible virtuelle qui mappe une carte serveur SCSI virtuelle un fichier ou un volume logique, effectuez les oprations suivantes partir de linterface de ligne de commande de Virtual I/O Server : 1. Pour vous assurer que la carte SCSI virtuelle est disponible, utilisez la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un rsultat similaire au suivant :
name ent3 vhost0 status description Available Virtual I/O Ethernet Adapter (l-lan) Available Virtual SCSI Server Adapter
Virtual I/O Server

97

vhost1 Available Virtual SCSI Server Adapter vsa0 Available LPAR Virtual Serial Adapter vtscsi0 Available Virtual Target Device - Logical Volume vtscsi1 Available Virtual Target Device - File-backed Disk vtscsi2 Available Virtual Target Device - File-backed Disk

2. Pour crer une unit cible virtuelle qui mappe sur la carte serveur SCSI virtuelle, excutez la commande mkbdsp :
mkbdsp -sp StoragePool -bd BackingDevice -vadapter VirtualSCSIServerAdapter -tn TargetDeviceName

O : v StoragePool est le nom du pool de stockage contenant le fichier ou le volume logique sur lequel vous envisagez de mapper la carte serveur SCSI virtuelle. Par exemple, fbPool. v BackingDevice est le nom du fichier ou du volume logique sur lequel vous envisagez de mapper la carte serveur SCSI virtuelle. Par exemple, devFile. v VirtualSCSIServerAdapter est le nom de la carte serveur SCSI virtuelle. Par exemple, vhost4. v TargetDeviceName est le nom de lunit cible. Par exemple, fbvtd1. La mmoire de stockage est mise disposition de la partition logique client lors du prochain dmarrage de cette partition ou lors de la prochaine analyse (sur une partition logique Linux) ou de la prochaine configuration (sur une partition logique AIX). 3. Affichez lunit cible virtuelle que vous venez de crer en excutant la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un rsultat similaire au suivant :
name vhost4 vsa0 fbvtd1 status description Available Virtual SCSI Server Adapter Available LPAR Virtual Serial Adapter Available Virtual Target Device - File-backed Disk

4. Affichez la connexion logique entre les nouvelles units en excutant la commande lsmap. Par exemple, la commande lsmap -vadapter vhost4 renvoie un rsultat similaire au suivant :
SVSA Empl.Phys Client IDPartition ------------------------------------------------------vhost4 U9117.570.10C8BCE-V6-C2 0x00000000 VTD Status LUN Backing device Physloc fbvtd1 Available 0x8100000000000000 /var/vio/storagepools/fbPool/devFile

Lemplacement physique est une combinaison du numro demplacement (2, dans le cas prsent) et de lID de partition logique. Lunit virtuelle peut alors tre connecte partir de la partition logique client. Que faire ensuite Si vous devez par la suite supprimer lunit cible virtuelle et lunit de secours (fichier ou volume logique), utilisez la commande rmbdsp. Une option de la commande rmbdsp permet de supprimer lunit cible virtuelle sans supprimer lunit de secours. Un fichier dunit de secours est associ une unit cible virtuelle avec un numro inode plutt quun nom de fichier ; par consquent, ne changez pas le numro inode des fichiers dunit de support. Le numro inode peut changer si vous modifiez un fichier dunit de support (avec les commandes AIX rm, mv et cp) alors que celui-ci est associ une unit cible virtuelle.

98

Virtual I/O Server

Information associe Cration dun disque virtuel pour une partition logique VIOS laide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Cration dune unit cible virtuelle sur un serveur Virtual I/O Server avec mappage vers une unit optique virtuelle associe un fichier : Vous pouvez crer une unit cible virtuelle sur un serveur Virtual I/O Server qui mappe la carte SCSI virtuelle une unit optique virtuelle associe un fichier. A propos de cette tche Vous pouvez rpter cette procdure pour fournir de lespace de stockage sur disque virtuel supplmentaire partir de toute partition logique client. Avant de commencer, excutez les tapes suivantes : 1. Vrifiez que vous disposez de la version 1.5 (ou dune version suprieure) de Virtual I/O Server. 2. Vrifiez que les cartes virtuelles du serveur Virtual I/O Server et des partitions client ont t cres. Elles sont gnralement cres en mme temps que le profil de partition logique. Pour plus dinformations sur la cration de partitions logiques, voir Installation de Virtual I/O Server et des partitions logiques client, la page 77. Conseil : Si vous utilisez la console HMC, version 7 dition 3.4.2 ou ultrieure, vous pouvez utiliser linterface graphique de la console HMC pour crer une unit cible virtuelle sur le serveur Virtual I/O Server. Pour crer une unit cible virtuelle qui mappe une carte serveur SCSI virtuelle une unit optique virtuelle associe un fichier, effectuez les oprations suivantes dans linterface de ligne de commande de Virtual I/O Server : 1. Pour vous assurer que la carte SCSI virtuelle est disponible, utilisez la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un rsultat similaire au suivant :
name ent3 vhost0 vhost1 vsa0 vtscsi0 vtscsi1 vtscsi2 status description Available Virtual I/O Ethernet Adapter (l-lan) Available Virtual SCSI Server Adapter Available Virtual SCSI Server Adapter Available LPAR Virtual Serial Adapter Available Virtual Target Device - Logical Volume Available Virtual Target Device - File-backed Disk Available Virtual Target Device - File-backed Disk

2. Pour crer une unit cible virtuelle qui mappe la carte serveur SCSI virtuelle sur une unit optique virtuelle associe un fichier, excutez la commande mkvdev:
mkvdev -fbo -vadapter VirtualSCSIServerAdapter

o VirtualSCSIServerAdapter est le nom de la carte serveur SCSI virtuelle. Par exemple, vhost1. Remarque : Aucune unit de sauvegarde nest spcifie lors de la cration dunits cibles virtuelles pour des units optiques virtuelles associes des fichiers, car cette unit ne contient en principe aucun support. Pour plus dinformations sur le chargement de supports dans une unit optique associe un fichier, voir la commande loadopt. Lunit optique est mise disposition de la partition logique client lors du prochain dmarrage de cette partition ou lors de la prochaine analyse (sur une partition logique Linux) ou de la prochaine configuration (sur une partition logique AIX). 3. Affichez lunit cible virtuelle que vous venez de crer en excutant la commande lsdev. Par exemple, la commande lsdev -virtual renvoie un rsultat similaire au suivant :
Virtual I/O Server

99

name vhost4 vsa0 vtopt0

status description Available Virtual SCSI Server Adapter Available LPAR Virtual Serial Adapter Available Virtual Target Device - File-backed Optical

4. Affichez la connexion logique entre les nouvelles units en excutant la commande lsmap. Par exemple, la commande lsmap -vadapter vhost1 renvoie un rsultat similaire au suivant :
SVSA Empl.Phys Client IDPartition ---------------------------------------------------vhost1 U9117.570.10C8BCE-V6-C2 0x00000000 VTD LUN Backing device vtopt0 0x8200000000000000 Physloc

Lemplacement physique est une combinaison du numro demplacement (2, dans le cas prsent) et de lID de partition logique. Lunit virtuelle peut alors tre connecte partir de la partition logique client. Que faire ensuite Vous pouvez utiliser la commande loadopt pour charger un support optique virtuel associ un fichier dans lunit optique virtuelle associe un fichier. Si vous devez par la suite supprimer lunit virtuelle cible, utilisez la commande rmvdev. Information associe Cration dun disque virtuel pour une partition logique VIOS laide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes Dfinition des attributs de rgle de rservation dune unit : Dans certaines configurations, vous devez tenir compte de la rgle de rservation de lunit sur le serveur Virtual I/O Server. A propos de cette tche Le tableau ci-aprs explique les cas dans lesquels la rgle de rservation dune unit sur le serveur Virtual I/O Server est importante pour les systmes qui sont grs par la console HMC (Hardware Management Console) et Integrated Virtualization Manager (IVM).
Tableau 30. Cas dans lesquels la rgle de rservation dune unit est importante Systmes grs par la console HMC v Pour que vous puissiez utiliser une configuration MPIO (Multipath I/O) sur le client, aucune unit SCSI virtuelle du serveur Virtual I/O Server ne doit rserver lunit SCSI virtuelle. v Pour Live Partition Mobility, lattribut de rservation sur le stockage physique utilis par la partition mobile doit tre associ la valeur no_reserve pour que la partition mobile puisse y accder la fois partir du serveur source et du serveur cible. v Pour PowerVM Active Memory Sharing, Virtual I/O Server associe automatiquement lattribut de rservation sur le volume physique la valeur no_reserve lorsque vous ajoutez une unit despace de pagination au pool de mmoire partage. Systmes grs par IVM Pour Live Partition Mobility, lattribut de rservation sur le stockage physique utilis par la partition mobile doit tre associ la valeur no_reserve pour que la partition mobile puisse y accder la fois partir du serveur source et du serveur cible.

100

Virtual I/O Server

Dans ces configurations, vous devez vrifier que lattribut reserve_policy de lunit est associ la valeur no_reserve. 1. A partir dune partition logique Virtual I/O Server, rpertoriez les disques (ou units despace de pagination) auxquels Virtual I/O Server a accs. Excutez la commande suivante :
lsdev -type disk

2. Pour dterminer la rgle de rservation dun disque, excutez la commande suivante, o hdiskX est le nom du disque que vous avez identifi ltape 1. Par exemple, hdisk5.
lsdev -dev hdiskX -attr reserve_policy

Si la valeur de reserve_policy value nest pas no_reserve, vous devez la modifier pour pouvoir utiliser le disque dans les autres configurations rpertories ci-dessus. Les rsultats peuvent ressembler ce qui suit :
.. reserve_policy no_reserve Reserve Policy True

3. Pour associer reserve_policy no_reserve, excutez la commande suivante, o hdiskX est le nom du disque pour lequel vous voulez associer lattribut reserve_policy la valeur no_reserve.
chdev -dev hdiskX -attr reserve_policy=no_reserve

4. Rptez cette procdure partir de lautre partition logique Virtual I/O Server. Bien que lattribut reserve_policy soit propre lunit, chaque serveur Virtual I/O Server sauvegarde sa valeur. Vous devez dfinir lattribut reserve_policy sur les deux partitions logiques Virtual I/O Server pour quelles puissent toutes les deux reconnatre quil est associ la valeur no_reserve.

Cration de pools de stockage de volumes logiques sur un serveur Virtual I/O Server
Vous pouvez crer un pool de stockage de volumes logiques sur un serveur Virtual I/O Server avec la console HMC ou les commandes mksp et mkbdsp.

Avant de commencer
Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou dune version ultrieure) de Virtual I/O Server. Conseil : Si vous utilisez la console HMC, version 7 dition 3.4.2 ou ultrieure, vous pouvez utiliser linterface graphique de la console HMC pour crer des pools de stockage de volumes logiques sur le serveur Virtual I/O Server.

A propos de cette tche


Les pools de stockage de volumes logiques sont des groupes de volumes constitus dun ou plusieurs volumes physiques. La taille et le type des volumes physiques composant un pool de stockage de volumes logiques peuvent varier. Pour crer un pool de stockage de volumes logiques, effectuez les oprations suivantes partir de linterface de ligne de commande de Virtual I/O Server : 1. Crez un pool de stockage de volumes logiques en excutant la commande mksp :
mksp -f dev_clients hdisk2 hdisk4

Dans cet exemple, dev_clients est le nom du pool de stockage, et celui-ci contient hdisk2 et hdisk4. 2. Dfinissez un volume logique qui sera visible en tant que disque sur la partition logique client. La taille de ce volume logique dfinira la taille de disques qui sera disponible sur la partition logique client. Utilisez la commande mkbdsp pour crer un volume logique de 11 Go appel dev_dbsrv :
mkbdsp -sp dev_clients 11G -bd dev_dbsrv

Virtual I/O Server

101

Si vous souhaitez crer galement une unit cible virtuelle qui mappe la carte serveur SCSI virtuelle sur le volume logique, ajoutez -vadapter vhostx la fin de la commande. Exemple :
mkbdsp -sp dev_clients 11G -bd dev_dbsrv -vadapter vhost4

Information associe Cration de pools de stockage sur un serveur Virtual I/O Server via la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes

Cration de pools de stockage de fichiers sur un serveur Virtual I/O Server


Vous pouvez crer un pool de stockage de fichiers sur un serveur Virtual I/O Server avec les commandes mksp etmkbdsp.

Avant de commencer
Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou dune version ultrieure) de Virtual I/O Server. Conseil : Si vous utilisez la console HMC, version 7 dition 3.4.2 ou ultrieure, vous pouvez utiliser linterface graphique de la console HMC pour crer des pools de stockage de fichiers sur le serveur Virtual I/O Server.

A propos de cette tche


Les pools de stockage de fichiers sont crs dans un pool de stockage de volumes logiques parent et contiennent un volume logique incluant un systme de fichiers et des fichiers. Pour crer un pool de stockage de fichiers, effectuez les oprations suivantes partir de linterface de ligne de commande de Virtual I/O Server : 1. Crez un pool de stockage de fichiers en excutant la commande mksp :
mksp -fb dev_fbclt -sp dev_clients -size 7g

Dans cet exemple, le nom du pool de stockage de fichiers est dev_fbclt et le nom du stockage parent est dev_clients. 2. Dfinissez un fichier qui sera visible en tant que disque sur la partition logique client. La taille de ce fichier dtermine la taille du disque prsent la partition logique client. Utilisez comme suit la commande mkbdsp pour crer un fichier de 3 Go appel dev_dbsrv :
mkbdsp -sp dev_fbclt 3G -bd dev_dbsrv

Si vous souhaitez crer galement une unit cible virtuelle qui mappe la carte serveur SCSI virtuelle sur le fichier, ajoutez -vadapter vhostx la fin de la commande. Exemple :
mkbdsp -sp dev_fbclt 3G -bd dev_dbsrv -vadapter vhost4

Information associe Cration de pools de stockage sur un serveur Virtual I/O Server via la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes

Cration du rfrentiel de supports virtuels sur un serveur Virtual I/O Server


Vous pouvez crer le rfrentiel de supports virtuels sur un serveur Virtual I/O Server avec la commande mkrep.

Avant de commencer
Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou dune version ultrieure) de Virtual I/O Server.

102

Virtual I/O Server

A propos de cette tche


Le rfrentiel de supports virtuels constitue un conteneur unique pour stocker et grer les fichiers multimdias optiques virtuels sauvegards sur fichier. Il est possible de charger les supports stocks dans le rfrentiel dans des units optiques virtuelles sauvegardes sur fichier afin de les exporter vers des partitions client. Vous ne pouvez crer quun seul rfrentiel dans un serveur Virtual I/O Server. Conseil : Si vous utilisez la console HMC, version 7 dition 3.4.2 ou ultrieure, vous pouvez utiliser linterface graphique de la console HMC afin de crer un rfrentiel de supports virtuels sur Virtual I/O Server. Pour crer le rfrentiel de supports virtuels partir de linterface de ligne de commande de Virtual I/O Server, excutez la commande mkrep :
mkrep -sp prod_store -size 6g

Dans cet exemple, le nom du pool de stockage parent est prod_store. Information associe Changement dunits optiques laide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes

Cration de volumes logiques et de groupes de volumes sur un serveur Virtual I/O Server
Vous pouvez crer des volumes logiques et des groupes de volumes sur un serveur Virtual I/O Server avec les commandes mkvg et mklv.

A propos de cette tche


Si vous utilisez la console HMC, version 7 dition 3.4.2 ou ultrieure, vous pouvez utiliser linterface graphique de la console HMC pour crer les volumes logiques et les groupes de volumes sur un serveur Virtual I/O Server. Sinon, utilisez la commande mklv partir de linterface de ligne de commande de Virtual I/O Server. Pour crer le volume logique sur un disque distinct, vous devez pralablement crer un groupe de volumes et allouer un ou plusieurs disques via la commande mkvg. 1. Crez un groupe de volumes et allouez un disque ce groupe laide de la commande mkvg. Dans lexemple suivant, le nom du groupe de volumes est rootvg_clients :
mkvg -f -vg rootvg_clients hdisk2

2. Dfinissez un volume logique qui sera visible en tant que disque sur la partition logique client. La taille de ce volume logique dfinira la taille de disques qui sera disponible sur la partition logique client. Utilisez comme suit la commande mklv pour crer un volume logique de 2 Go :
mklv -lv rootvg_dbsrv rootvg_clients 2G

Information associe Changement de volume physique pour une partition logique VIOS via la console HMC Changement de pool de stockage pour une partition logique VIOS via la console HMC

Configuration de Virtual I/O Server pour la prise en charge des fonctions de verrouillage SCSI-2
Connatre les conditions pralables linstallation de linterface SCSI virtuelle afin de prendre en charge les applications qui utilisent les fonctions de verrouillage et de libration SCSI.

Virtual I/O Server

103

A propos de cette tche


Les versions de Virtual I/O Server 1.3 et suivantes permettent une prise en charge des applications qui sont actives pour utiliser les fonctions de verrouillage SCSI-2 contrles par la partition logique client. En rgle gnrale, les fonctions de verrouillage et libration SCSI sont utilises dans les environnements groups dans lesquels les conflits relatifs aux ressources de disque SCSI peuvent ncessiter un contrle plus approfondi. Pour garantir la prise en charge de ces environnements par le serveur Virtual I/O Server, configurez ce dernier pour quil prenne en charge les fonctions de verrouillage et libration SCSI-2. Si les applications que vous utilisez fournissent des informations sur la rgle suivre pour utiliser les fonctions de verrouillage SCSI-2 sur la partition logique client, excutez les procdures ci-aprs pour dfinir la rgle de verrouillage. Excutez les tches suivantes pour configurer la prise en charge sur le serveur Virtual I/O Server des environnements de verrouillage SCSI-2 : 1. Configurez lattribut reserve_policy de Virtual I/O Server sur single_path, en excutant la commande suivante :
chdev -dev1 hdiskN -attr reserve_policy=single_path

Remarque : Effectuez cette opration lorsque lunit nest pas en cours dutilisation. Si vous excutez cette commande alors que lunit est ouverte ou en cours dutilisation, vous devez utiliser loption -perm avec cette commande. Si vous utilisez loption -perm, les modifications ne prendront effet que lorsque lunit sera dconfigure puis reconfigure. 2. Configurez la fonction client_reserve sur le serveur Virtual I/O Server. v Si vous crez une unit cible virtuelle, utilisez la commande suivante :
mkvdev -vdev hdiskN -vadapter vhostN -attr client_reserve=yes

o hdiskN correspond au nom de lunit cible virtuelle et vhostN au nom de la carte du serveur SCSI. v Si lunit cible virtuelle a dj t cre, utilisez la commande suivante :
chdev -dev vtscsiN -attr client_reserve=yes

o vtscsiN dsigne le nom de lunit virtuelle. 3. Sur le client virtuel, procdez comme suit pour configurer la prise en charge des fonctions de verrouillage et libration SCSI pour le disque virtuel sauvegard par le disque physique que vous avez configur ltape 1 : a. Affectez la rgle de libration la valeur single_path sur le client virtuel, laide de la commande suivante :
chdev -a reserve_policy=single_path -1 hdiskN

o hdiskN dsigne le nom du disque virtuel Remarque : Effectuez cette opration lorsque lunit nest pas en cours dutilisation. Si vous excutez cette commande alors que lunit est ouverte ou en cours dutilisation, utilisez loption -p. Dans ce cas, les modifications ne prendront effet que lorsque lunit sera dconfigure puis reconfigure. b. Dfinissez lattribut hcheck_cmd de sorte que le code MPIO utilise loption inquiry. Si lattribut hcheck_cmd a la valeur test unit ready et que lunit de sauvegarde est verrouille, le paramtre test unit ready chouera et consignera un message derreur sur le client.
chdev -a hcheck_cmd=inquiry -1 hdiskN

o hdiskN dsigne le nom du disque virtuel.

104

Virtual I/O Server

Identification des disques exportables


Pour exporter un volume physique en tant quunit virtuelle, le volume physique doit comporter un attribut de volume IEEE, un identificateur unique (UDID) ou un identificateur physique (PVID).

A propos de cette tche


Pour identifier les disques exportables, procdez comme suit : 1. Dterminez si une unit est associe un identificateur dattribut de volume IEEE en excutant la commande suivante sur la ligne de commande Virtual I/O Server :
lsdev -dev hdiskX -attr

Une valeur est indique dans le champ ieee_volname pour les disques ayant un identificateur dattribut de volume IEEE. Des informations comparables celles qui suivent saffichent :
... cache_method False ieee_volname False lun_id False ... fast_write Write Caching method

600A0B800012DD0D00000AB441ED6AC IEEE Unique volume name 0x001a000000000000 Logical Unit Number

Si le champ ieee_volname napparat pas, lunit na pas didentificateur dattribut de volume IEEE. 2. Si lunit na pas didentificateur dattribut de volume IEEE, dterminez si elle a un UDID en procdant comme suit : a. Entrez oem_setup_env. b. Saisissez odmget -qattribute=id_unique CuAt. Les disques comportant un UDID sont alors rpertoris. Des informations comparables celles qui suivent saffichent :
CuAt: name = "hdisk1" attribute = "unique_id" value = "2708ECVBZ1SC10IC35L146UCDY10-003IBMscsi" type = "R" generic = "" rep = "nl" nls_index = 79 CuAt: name = "hdisk2" attribute = "unique_id" value = "210800038FB50AST373453LC03IBMscsi" type = "R" generic = "" rep = "nl" nls_index = 79

Les units de cette liste qui sont accessibles partir dautres partitions Virtual I/O Server peuvent tre utilises dans les configurations SCSI MPIO virtuelles. c. Entrez exit. 3. Si lunit na ni identificateur dattribut de volume IEEE ni UDID, dterminez si elle a un PVID en procdant comme suit :
lspv

Les disques et leurs PVID respectifs sont indiqus. Des informations comparables celles qui suivent saffichent :

Virtual I/O Server

105

NAME hdisk0 hdisk1 hdisk2 hdisk3 hdisk4

PVID 00c5e10c1608fd80 00c5e10cf7eb2195 00c5e10c44df5673 00c5e10cf3ba6a9a none

VG rootvg rootvg None None None

STATUS active active

4. Si lunit na ni identificateur dattribut de volume IEEE ni UDID ni PVID, effectuez lune des tches suivantes pour lui affecter un identificateur : a. Mettez niveau votre logiciel fournisseur et rptez lintgralit de la procdure didentification de disques exportables, depuis le dbut. Les versions les plus rcentes de certains logiciels fournisseur incluent lidentification des units laide dun UDID. Avant deffectuer une mise niveau, veillez prserver les units SCSI virtuelles que vous avez cres avec des versions du logiciel qui ne prennent pas en charge lidentification dunits laide dun UDID. Pour plus dinformations, voir la documentation fournie par le fournisseur du logiciel. b. Si le logiciel fournisseur ne fournit pas didentificateur dattribut de volume UDID ou IEEE, attribuez un PVID au volume physique en excutant la commande suivante :
chdev -dev hdiskX -attr pv=yes

Configuration dunits Ethernet virtuelles sur le serveur Virtual I/O Server


Vous pouvez configurer des units Ethernet virtuelles en dployant une planification systme, crer et configurer une carte Ethernet partage et configurer une unit agrgation de liaisons device.

Cration dune carte Ethernet virtuelle via la console HMC version 7


Vous pouvez crer une carte Ethernet virtuelle sur un serveur Virtual I/O Server pour que les partitions logiques client puissent accder au rseau externe mme si elles ne disposent pas dune carte Ethernet physique.

Avant de commencer
Si vous envisagez dutiliser une carte Ethernet partage avec une carte Ethernet hte (ou carte Ethernet virtuelle intgre), vrifiez que la carte Ethernet hte logique (LHEA) du serveur Virtual I/O Server est en mode espion. Pour plus dinformations, voir Configuration dune carte Ethernet hte logique (LHEA) en mode espion, la page 107.

A propos de cette tche


Pour crer une carte Ethernet virtuelle sur le serveur Virtual I/O Server laide de la console HMC (Hardware Management Console), version 7 ou ultrieure, effectuez les oprations suivantes : 1. Dans la zone de navigation, dveloppez Gestion de systmes Serveurs et slectionnez le serveur sur lequel se trouve la partition logique Virtual I/O Server. 2. Dans la zone de contenu, slectionnez la partition logique Virtual I/O Server. 3. Cliquez sur Tches et slectionnez Configuration Gestion de profils. La page Gestion de profils saffiche. 4. Slectionnez le profil dans lequel vous voulez crer la carte Ethernet partage et cliquez sur Actions Edition. La page Proprits du profil de partition logique saffiche. 5. Cliquez sur longlet Cartes virtuelles. 6. Cliquez sur Actions Cration Carte Ethernet. 7. Slectionnez Carte compatible IEEE 802.1Q. 8. Si vous utilisez plusieurs rseaux locaux virtuels (VLAN), ajoutez tout ID VLAN supplmentaire pour les partitions logiques client devant communiquer avec le rseau externe laide de cette carte virtuelle.

106

Virtual I/O Server

9. Slectionnez Accs au rseau externe pour utiliser cette carte comme passerelle entre les rseaux locaux virtuels (VLAN) et un rseau externe. Cette carte Ethernet est configure dans le cadre de la carte Ethernet partage. 10. Si vous nutilisez pas la fonction de reprise par transfert de la carte Ethernet partage, vous pouvez utiliser la priorit de liaison par dfaut. Si vous utilisez la reprise par transfert de la carte Ethernet partage, attribuez la priorit de liaison de la carte Ethernet partage principale un nombre infrieur celui de la carte Ethernet partage de secours. 11. Lorsque vous avez termin, cliquez sur OK. 12. Affectez ou crez lune des cartes relles suivantes : v Affectez une carte physique Ethernet au Virtual I/O Server. v Si vous envisagez dagrger plusieurs cartes physiques Ethernet dans une unit dagrgation de liaisons ou EtherChannel, affectez plusieurs cartes physiques Ethernet au Virtual I/O Server. v Si vous envisagez dutiliser la carte Ethernet partage avec une carte Ethernet hte, crez une carte Ethernet hte logique (LHEA) pour la partition logique Virtual I/O Server. 13. Cliquez sur OK pour quitter la page Proprits de profil de partition logique. 14. Cliquez sur Fermer pour quitter la page Profils grs. 15. Effectuez nouveau cette procdure pour chaque carte Ethernet partage requise.

Que faire ensuite


Une fois que vous avez termin, configurez la carte Ethernet partage partir de linterface de ligne de commande de Virtual I/O Server ou de linterface graphique de la console HMC, version 7 dition 3.4.2 ou ultrieure. Tches associes Configuration dune carte Ethernet partage, la page 108 Instructions relatives la configuration dune carte Ethernet partage. Configuration dune carte Ethernet hte logique (LHEA) en mode espion : Pour utiliser une carte Ethernet partage avec une carte Ethernet hte (ou carte Ethernet virtuelle intgre), vous devez configurer la carte Ethernet hte logique (LHEA) en mode espion. Avant de commencer Avant de commencer, identifiez sur la console HMC (Hardware Management Console) le port physique de la carte Ethernet hte qui est associ au port Ethernet hte logique. Recherchez cette information pour le port Ethernet hte logique qui constitue la carte relle de la carte Ethernet partage sur le serveur Virtual I/O Server. Vous pouvez trouver cette information dans les proprits de la partition Virtual I/O Server et les proprits du systme gr du serveur sur lequel se trouve Virtual I/O Server. A propos de cette tche Pour configurer le port Ethernet hte logique (la carte relle de la carte Ethernet partage) en mode espion, procdez comme suit sur la console HMC : 1. Dans la zone de navigation, dveloppez Gestion de systmes et cliquez sur Serveurs. 2. Dans la zone de contenu, slectionnez le serveur sur lequel se trouve la partition logique Virtual I/O Server. 3. Cliquez sur Tches et slectionnez Matriel (information) Cartes Ethernet hte. La page des cartes Ethernet hte (HEA) saffiche. 4. Slectionnez le code demplacement physique de la carte Ethernet hte.

Virtual I/O Server

107

5. Slectionnez le port physique associ au port Ethernet hte logique sur la partition logique Virtual I/O Server, puis cliquez sur Configuration. La page de Configuration du port physique HEA saffiche. 6. Slectionnez VIOS dans la zone Partition logique espionne. 7. Cliquez sur OK deux fois pour revenir la zone de contenu.

Configuration dune carte Ethernet partage


Instructions relatives la configuration dune carte Ethernet partage.

Avant de commencer
Pour configurer une carte Ethernet partage, vous devez dabord crer la carte laide de la console HMC (Hardware Management Console). Pour plus dinformations, voir Cration dune carte Ethernet virtuelle via la console HMC version 7, la page 106.

A propos de cette tche


Pour apprendre configurer une carte Ethernet partage avec la console HMC, version 7 dition 3.4.2 ou ultrieure, voir Cration dune carte Ethernet partage pour une partition logique Virtual I/O Server avec la console HMC. Pour configurer une carte Ethernet partage sur des versions antrieures la console HMC, version 7 dition 3.4.2, effectuez les oprations suivantes dans linterface de ligne de commande de Virtual I/O Server : 1. Vrifiez que la carte de ligne Ethernet virtuelle est disponible en entrant la commande suivante :
lsdev -virtual

2. Identifiez la carte Ethernet physique utiliser pour crer la carte Ethernet partage en excutant la commande suivante :
lsdev -type adapter

Remarques : v Vrifiez que le protocole TCP/IP nest pas configur sur linterface pour la carte Ethernet physique. Sil est configur, la commande mkvdev chouera ltape suivante. v Une unit dagrgation de liaisons, ou EtherChannel, peut galement servir de carte Ethernet partage. v Si vous envisagez dutiliser la carte Ethernet hte (ou carte Ethernet virtuelle intgre) avec la carte Ethernet partage, veillez utiliser la carte LHEA pour crer la carte Ethernet partage. 3. Configurez la carte Ethernet partage en excutant la commande suivante :
mkvdev -sea unit_cible -vadapter cartes_ethernet_virtuelles \ -default CarteEthernetVirtuelleDfaut -defaultid PVIDCarteEthernetPartageDfaut

O : target_device Carte physique utiliser en tant que partie intgrante de lunit de carte Ethernet partage. virtual_ethernet_adapters Cartes Ethernet virtuelles qui utiliseront la carte Ethernet partage. DefaultVirtualEthernetAdapter Carte Ethernet virtuelle par dfaut utilise pour traiter les paquets non marqus. Si vous ne disposez que dune seule carte Ethernet virtuelle pour cette partition logique, utilisez-la comme carte par dfaut. SEADefaultPVID PVID associ la carte Ethernet virtuelle par dfaut.

108

Virtual I/O Server

Par exemple, pour crer une carte Ethernet partage ent3 en utilisant la carte Ethernet physique ent0 (ou agrgation de liaisons) et une seule carte Ethernet virtuelle, ent2, (dfinie avec PVID = 1), entrez la commande suivante :
mkvdev -sea ent0 -vadapter ent2 -default ent2 -defaultid 1

4. Vrifiez la cration de la carte Ethernet partage laide de la commande suivante :


lsdev -virtual

5. Prvoyez-vous daccder au Virtual I/O Server partir du rseau avec lunit physique permettant de crer la carte Ethernet partage ? v Oui : Passez ltape 6. v Non : La procdure est termine et vous navez pas effectuer les tapes restantes. 6. Envisagez-vous de paramtrer la rpartition de bande passante en dfinissant une qualit de service ? v Oui : Passez ltape 11 pour activer la carte Ethernet partage en vue de prioriser le trafic. v Non : Passez ltape 9 pour configurer une connexion TCP/IP. 7. Envisagez-vous de dfinir des adresses IP sur des VLAN autres que celui qui est spcifi par le PVID de la carte Ethernet partage ? v Oui : Passez ltape 8 pour crer des pseudo-units VLAN. v Non : Passez ltape 9 pour configurer une connexion TCP/IP. 8. Pour configurer des pseudo-units VLAN, procdez comme suit : a. Crez une pseudo-unit VLAN sur la carte Ethernet partage en excutant la commande suivante :
mkvdev -vlan CarteCible -tagid IDBalise

O : v CarteCible est la carte Ethernet partage. v IDBalise est lID du rseau local virtuel (VLAN) que vous avez dfini lors de la cration de la carte Ethernet virtuelle associe la carte Ethernet partage. Par exemple, pour crer une pseudo-unit VLAN laide de la carte Ethernet partage ent3 que vous venez de crer avec lID de rseau local virtuel (VLAN) 1, entrez la commande suivante :
mkvdev -vlan ent3 -tagid 1

b. Vrifiez que la pseudo-unit VLAN a t cre en entrant la commande suivante :


lsdev -virtual

c. Rptez cette procdure pour toute pseudo-unit VLAN supplmentaire requise. 9. Excutez la commande suivante pour configurer la premire connexion TCP/IP. La premire connexion doit se situer sur les mmes VLAN et sous-rseau logique que la passerelle par dfaut.
mktcpip -hostname NomHte -inetaddr Adresse -interface Interface -netmask \ MasqueSousRseau -gateway Passerelle -nsrvaddr AdresseServeurNoms -nsrvdomain Domaine

O : v NomHte est le nom dhte du serveur Virtual I/O Server v Adresse est ladresse IP que vous souhaitez utiliser pour la connexion TCP/IP v Interface est linterface associe lunit de la carte Ethernet partage ou une pseudo-unit VLAN. Par exemple, si lunit de la carte Ethernet partage est ent3, linterface associe est en3. v MasqueSousRseau est ladresse de masque de sous-rseau dfinie pour votre sous-rseau. v Passerelle est ladresse de passerelle de votre sous-rseau. v AdresseServeurNoms est ladresse de votre serveur de noms de domaine. v Domaine est le nom de votre domaine.

Virtual I/O Server

109

Si vous navez pas dautres VLAN, la procdure est termine et vous navez pas effectuer les tapes restantes. 10. Excutez la commande suivante pour configurer dautres connexions TCP/IP :
chdev -dev interface -perm -attr netaddr=adresseIP -attr netmask=netmask -attr state=up

Lorsque vous utilisez cette commande, indiquez linterface (enX) associe lunit de la carte Ethernet partage ou la pseudo-unit VLAN. 11. Activez lunit de la carte Ethernet partage pour prioriser le trafic. Les partitions logiques client doivent insrer une valeur de priorit VLAN dans leur en-tte VLAN. Pour les clients AIX, une pseudo-unit VLAN doit tre cre sur la carte Ethernet dE-S virtuelle et lattribut de priorit VLAN doit tre dfini (la valeur par dfaut est 0). Excutez les tapes suivantes pour activer la priorisation du trafic sur un client AIX : a. Dfinissez lattribut qos_mode de la carte Ethernet partage sur le mode strict ou loose. Utilisez lune des commandes suivantes : chdev -dev <nom unit SEA> -attr qos_mode=strict ou chdev -dev <nom unit SEA> -attr qos_mode=loose. Pour plus dinformations sur les modes, voir carte Ethernet partage. b. A partir de la console HMC, crez une carte Ethernet dE-S virtuelle pour le client AIX avec tous les VLAN marqus ncessaires (indiqus dans la liste ID rseau local virtuel supplmentaires). Les paquets envoys via lID rseau local virtuel par dfaut (indiqu dans la zone ID carte ou ID rseau local virtuel) ne seront pas marqus VLAN ; par consquent, une valeur de priorit VLAN ne peut pas leur tre attribue. c. Sur le client AIX, excutez la commande smitty vlan. d. Slectionnez Add a VLAN. e. Slectionnez le nom de la carte Ethernet dE-S virtuelle cre ltape 1. f. Dans lattribut VLAN Tag ID, indiquez lun des rseaux locaux virtuels marqus, configurs sur la carte Ethernet dE-S virtuelle cre ltape 1. g. Dans lattribut VLAN Priority, indiquez une valeur dattribut (0 - 7) correspondant limportance que le serveur VIOS doit accorder au trafic passant par cette pseudo-unit VLAN. h. Configurez linterface sur la pseudo-unit VLAN cre ltape 6. Le trafic envoy sur linterface cre ltape 7 sera marqu VLAN et son en-tte VLAN prsentera la valeur de priorit VLAN indique ltape 6. Lorsque ce trafic est en mode pont par le biais dune carte Ethernet partage active pour la rpartition de bande passante, la valeur de priorit VLAN est utilise pour dterminer la rapidit de lenvoi par rapport dautres paquets avec diffrentes priorits.

Rsultats
La carte Ethernet partage est dsormais configure. Lorsque vous aurez configur les connexions TCP/IP pour les cartes virtuelles des partitions logiques client laide des systmes dexploitation de ces dernires, ces partitions logiques pourront communiquer avec le rseau externe.

110

Virtual I/O Server

Concepts associs Reprise par transfert de carte Ethernet partage, la page 71 La fonction de reprise par transfert de carte Ethernet partage assure la redondance, car elle permet de configurer une carte Ethernet partage de secours sur une autre partition logique Virtual I/O Server, laquelle peut tre utilise en cas de dfaillance de la carte Ethernet partage principale. La connectivit rseau des partitions logiques client est maintenue, sans interruption. Cartes Ethernet partages, la page 26 Les cartes Ethernet partages de la partition logique Virtual I/O Server permettent aux cartes Ethernet virtuelles des partitions logiques client deffectuer des envois et des rceptions en dehors du trafic rseau. Information associe Cration dune carte Ethernet partage pour une partition logique VIOS laide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes

Configuration dune unit dagrgation de liaisons ou EtherChannel


Configurez une unit dagrgation de liaisons, galement appele unit EtherChannel, laide de la commande mkvdev. Une unit dagrgation de liaisons peut tre utilise comme carte Ethernet physique dans la configuration dune carte Ethernet partage.

A propos de cette tche


Configurez une unit dagrgation de liaisons en entrant la commande suivante :
mkvdev -lnagg CarteCible ... [-attr Attribut=Valeur ...]

Par exemple, pour crer lunit dagrgation de liaisons ent5 avec les cartes Ethernet physiques ent3, ent4 et la carte de secours ent2, entrez :
mkvdev -lnagg ent3,ent4 -attr backup_adapter=ent2

Aprs la configuration de lunit dagrgation de liaisons, vous pouvez lui ajouter des cartes, en retirer ou encore modifier ses attributs laide de la commande cfglnagg.

Affectation de la carte Fibre Channel virtuelle une carte Fibre Channel physique
Pour activer la technologie NPIV (N-Port ID Virtualization) sur les systmes grs, connectez la carte Fibre Channel virtuelle de la partition logique Virtual I/O Server un port physique dune carte Fibre Channel physique.

Avant de commencer
Avant de commencer, vrifiez que les conditions suivantes sont remplies : v Vrifiez que vous avez cr les cartes Fibre Channel virtuelles sur la partition logique Virtual I/O Server et que vous les avez associes celles de la partition logique client. v Vrifiez que vous avez cr les cartes Fibre Channel virtuelles sur chaque partition logique client et que vous les avez associes une carte Fibre Channel virtuelle de la partition logique Virtual I/O Server.

A propos de cette tche


Une fois les cartes Fibre Channel virtuelles cres, vous devez connecter la carte Fibre Channel virtuelle de la partition logique Virtual I/O Server aux ports physiques de la carte Fibre Channel physique. Il convient de connecter la carte Fibre Channel physique la mmoire physique laquelle vous souhaitez que la partition logique client associe accde.

Virtual I/O Server

111

Conseil : Si vous utilisez la console HMC, version 7 dition 3.4.2 ou ultrieure, vous pouvez utiliser linterface graphique de la console HMC pour affecter la carte Fibre Channel virtuelle sur un serveur Virtual I/O Server une carte Fibre Channel physique. Pour attribuer la carte Fibre Channel virtuelle un port physique dune carte Fibre Channel physique, effectuez les oprations suivantes dans linterface de ligne de commande de Virtual I/O Server : 1. Utilisez la commande lsnports pour afficher des informations relatives au nombre disponible de ports NPIV et aux noms de port universels (WWPN) disponibles. Par exemple, lexcution de la commande lsnports renvoie des rsultats semblables ce qui suit :
Name Physloc fabric tports aports swwpns awwpns ----------------------------------------------------------------------------------fcs0 U789D.001.DQDMLWV-P1-C1-T1 1 64 64 2048 2047 fcs1 U787A.001.DPM0WVZ-P1-C1-T2 1 63 62 504 496

Remarque : Si aucun port NPIV ne figure dans la partition logique Virtual I/O Server, le code derreur E_NO_NPIV_PORTS(62) saffiche. 2. Pour connecter la carte Fibre Channel virtuelle de la partition logique Virtual I/O Server un port physique dune carte Fibre Channel physique, excutez la commande vfcmap : vfcmap -vadapter carte Fibre Channel virtuelle -fcp nom port Fibre Channel o : v carte Fibre Channel virtuelle est le nom de la carte Fibre Channel virtuelle cre sur la partition logique Virtual I/O Server. v nom port Fibre Channel est le nom du port Fibre Channel physique. Remarque : Si aucun paramtre nest spcifi avec loption -fcp, la commande supprime le mappage de la carte Fibre Channel virtuelle sur le port Fibre Channel physique. 3. Utilisez la commande lsmap pour afficher le mappage entre les cartes hte virtuelles et les units physiques qui les prennent en charge. Pour afficher les informations de mappage NPIV, entrez : lsmap -all -npiv. Le systme affiche un message similaire au texte suivant :
Name Physloc ClntID ClntName ClntOS --------------------------------------------------------------vfchost0 U8203.E4A.HV40026-V1-C12 1 HV-40026 AIX Status:NOT_LOGGED_IN FC name:fcs0 FC loc code:U789C.001.0607088-P1-C5-T1 Ports logged in:0 Flags:1 <not_mapped, not_connected> VFC client name: VFC client DRC:

Que faire ensuite


Lorsque vous avez termin, prenez en considration les tches suivantes : v Pour chaque partition logique, vrifiez que les deux noms de port WWPN sont affects la mme mmoire physique et prsentent le mme niveau daccs sur le rseau de systmes (SAN). Pour des instructions, voir System Storage SAN Volume Controller. Remarque : Pour dterminer les noms de port WWPN affects une partition logique, utilisez la console HMC (Hardware Management Console) pour visualiser les proprits ou les proprits de profil de la partition logique client. v Si vous devez, par la suite, supprimer la connexion entre la carte Fibre Channel virtuelle cre sur la partition logique Virtual I/O Server et le port physique, utilisez la commande vfcmap et nindiquez pas de paramtre pour loption -fcp.

112

Virtual I/O Server

Information associe Configuration dune carte Fibre Channel virtuelle Modification dune connexion par canal optique pour un serveur laide de la console HMC Virtual I/O Server et Integrated Virtualization Manager - Guide des commandes

Configuration des agents et des clients Tivoli sur le serveur Virtual I/O Server
Vous pouvez configurer et dmarrer lagent Tivoli Monitoring , Tivoli Usage and Accounting Manager, le client Tivoli Storage Manager, et les agents Tivoli TotalStorage Productivity Center. Concepts associs Logiciels Tivoli et Virtual I/O Server, la page 38 Apprenez intgrer le serveur Virtual I/O Server dans votre environnement Tivoli pour Tivoli Application Dependency Discovery Manager,Tivoli Monitoring, Tivoli Storage Manager, Tivoli Usage and Accounting Manager, Tivoli Identity Manageret TotalStorage Productivity Center. Information associe Commande cfgsvc

Configuration de lagent Tivoli Monitoring


Vous pouvez configurer et dmarrer lagent Tivoli Monitoring sur le serveur Virtual I/O Server.

Avant de commencer
Tivoli Monitoring System Edition permet de surveiller la sant et la disponibilit de plusieurs serveurs (y compris Virtual I/O Server) partir du portail Tivoli Enterprise. Tivoli Monitoring System Edition regroupe les donnes du serveur Virtual I/O Server, notamment les donnes relatives aux volumes physiques, aux volumes logiques, aux pools de stockage, aux mappages de mmoire, aux mappages de rseau, la mmoire relle, aux ressources de processeur, la taille des systmes de fichiers monts, etc. Le portail Tivoli Enterprise permet de visualiser une reprsentation graphique des donnes, dutiliser des seuils prdfinis afin de recevoir des alertes sur les mesures cls et de rsoudre les problmes daprs les recommandations fournies par la fonction Expert Advice de Tivoli Monitoring. Avant de commencer, effectuez les tches suivantes : v Vrifiez que Virtual I/O Server excute le groupe de correctifs 8.1.0. v Vrifiez que vous tes administrateur central de la console HMC. v Vrifiez que vous tes administrateur principal de Virtual I/O Server.

A propos de cette tche


Pour configurer et dmarrer lagent de surveillance, procdez comme suit : 1. Rpertoriez tous les agents de surveillance disponibles laide de la commande lssvc. Par exemple :
$lssvc ITM_base

2. En fonction de la sortie de la commande lssvc, choisissez lagent de surveillance que vous voulez configurer. Par exemple, ITM_base 3. Rpertoriez tous les attributs associs lagent de surveillance laide de la commande cfgsvc. Exemple :
$cfgsvc ls ITM_base HOSTNAME RESTART_ON_REBOOT MANAGING_SYSTEM

4. Configurez lagent de surveillance et ses attributs laide de la commande cfgsvc :


Virtual I/O Server

113

cfgsvc ITM_agent_name -attr Restart_On_Reboot=value hostname=name_or_address1 managing_system=name_or_address2

O : v ITM_agent_name est le nom de lagent de surveillance. Par exemple, ITM_base. v La variable value doit avoir la valeur TRUE ou FALSE comme suit : TRUE : ITM_agent_name redmarre chaque fois que Virtual I/O Server est redmarr FALSE : ITM_agent_name ne redmarre pas lorsque Virtual I/O Server est redmarr v name_or_address1 dsigne soit le nom dhte soit ladresse IP du serveur Tivoli Enterprise Monitoring Server (TEMS) auquel ITM_agent_name envoie des donnes. v name_or_address2 dsigne soit le nom dhte soit ladresse IP de la console HMC relie au systme gr sur lequel se trouvent Virtual I/O Server et lagent de surveillance. Exemple :
cfgsvc ITM_base attr Restart_On_Reboot=TRUE hostname=tems_server managing_system=hmc_console

Dans cet exemple, lagent de surveillance ITM_base est configur pour envoyer les donnes tems_server, et pour redmarrer chaque fois que Virtual I/O Server redmarre. 5. Dmarrez lagent de surveillance laide de la commande startsvc. Exemple :
startsvc ITM_base

6. Sur la console HMC, effectuez les oprations suivantes pour que lagent de surveillance puisse collecter des informations issues de la console HMC. Remarque : Aprs la configuration dune connexion shell scurise pour un agent de surveillance, il nest pas ncessaire de la configurer nouveau pour les autres agents. a. Dterminez le nom du systme gr sur lequel rsident Virtual I/O Server et lagent de surveillance. b. Obtenez la cl publique de Virtual I/O Server en excutant la commande suivante :
viosvrcmd -m managed_system_name -p vios_name -c "cfgsvc -key ITM_agent_name"

O : v managed_system_name est le nom du systme gr sur lequel sont installs Virtual I/O Server et lagent de surveillance ou le client. v vios_name est le nom de la partition logique Virtual I/O Server (incluant lagent de surveillance) tel que dfini sur la console HMC. v ITM_agent_name est le nom de lagent de surveillance. Par exemple, ITM_base. c. Mettez jour le fichier authorized_key2 sur la console HMC en excutant la commande mkauthkeys :
mkauthkeys --add public_key

o public_key est la sortie de la commande viosvrcmd ltape 6b. Exemple :


$ viosvrcmd -m commo126041 -p VIOS7 -c "cfgsvc ITM_base -key" ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAvjDZ sS0guWzfzfp9BbweG0QMXv1tbDrtyWsgPbA2ExHA+xduWA51K0oFGarK2F C7e7NjKW+UmgQbrh/KSyKKwozjp4xWGNGhLmfan85ZpFR7wy9UQG1bLgXZ xYrY7yyQQQODjvwosWAfzkjpG3iW/xmWD5PKLBmob2QkKJbxjne+wqGwHT RYDGIiyhCBIdfFaLZgkXTZ2diZ98rL8LIv3qb+TsM1B28AL4t+1OGGeW24 2lsB+8p4kamPJCYfKePHo67yP4NyKyPBFHY3TpTrca4/y1KEBT0Va3Pebr 5JEIUvWYs6/RW+bUQk1Sb6eYbcRJFHhN5l3F+ofd0vj39zwQ== root@vi os7.vios.austin.ibm.com $ mkauthkeys --add 'ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAvjDZ sS0guWzfzfp9BbweG0QMXv1tbDrtyWsgPbA2ExHA+xduWA51K0oFGarK2F

114

Virtual I/O Server

C7e7NjKW+UmgQbrh/KSyKKwozjp4xWGNGhLmfan85ZpFR7wy9UQG1bLgXZ xYrY7yyQQQODjvwosWAfzkjpG3iW/xmWD5PKLBmob2QkKJbxjne+wqGwHT RYDGIiyhCBIdfFaLZgkXTZ2diZ98rL8LIv3qb+TsM1B28AL4t+1OGGeW24 2lsB+8p4kamPJCYfKePHo67yP4NyKyPBFHY3TpTrca4/y1KEBT0Va3Pebr 5JEIUvWYs6/RW+bUQk1Sb6eYbcRJFHhN5l3F+ofd0vj39zwQ== root@vi os7.vios.austin.ibm.com'

Rsultats
Lorsque vous avez termin, vous pouvez afficher les donnes recueillies par lagent de surveillance partir du portail Tivoli Enterprise. Information associe Documentation Tivoli Monitoring 6.1 Tivoli Monitoring Virtual I/O Server Premium Agent - Guide dutilisation

Configuration de lagent Tivoli Usage and Accounting Manager


Vous pouvez configurer et dmarrer lagent Tivoli Usage and Accounting Manager sur le serveur Virtual I/O Server.

A propos de cette tche


Avec Virtual I/O Server 1.4, vous pouvez configurer lagent Tivoli Usage and Accounting Manager sur Virtual I/O Server. Tivoli Usage and Accounting Manager permet de suivre, dimputer et de facturer les cots informatiques via la collecte et lanalyse de donnes ainsi que ldition de rapports sur les ressources relles utilises par des entits telles que les centres de cots, les services et les utilisateurs. Tivoli Usage and Accounting Manager permet de collecter des donnes provenant de centres de donnes multi-niveaux qui utilisent Windows, AIX, Virtual I/O Server, HP/UX Sun Solaris, Linux et VMware. Avant de commencer, assurez-vous que Virtual I/O Server est install. Lagent Tivoli Usage and Accounting Manager est livr avec lagent Virtual I/O Server et install en mme temps que Virtual I/O Server. Pour plus dinformations, voir Installation de Virtual I/O Server et des partitions logiques client , la page 77. Pour configurer et dmarrer lagent Tivoli Usage and Accounting Manager, procdez comme suit : 1. Facultatif : Ajoutez les variables facultatives dans le fichier A_config.par pour amliorer la collecte de donnes. Le fichier A_config.par se trouve sous /home/padmin/tivoli/ituam/A_config.par. 2. Rpertoriez tous les agents Tivoli Usage and Accounting Manager disponibles laide de la commande lssvc. Par exemple :
$lssvc ITUAM_base

3. Selon le rsultat de la commande lssvc, choisissez lagent Tivoli Usage and Accounting Manager que vous voulez configurer. Par exemple, ITUAM_base 4. Rpertoriez tous les attributs associs lagent Tivoli Usage and Accounting Manager laide de la commande cfgsvc. Exemple :
$cfgsvc ls ITUAM_base ACCT_DATA0 ACCT_DATA1 ISYSTEM IPROCESS

5. Configurez lagent Tivoli Usage and Accounting Manager et les attributs associs laide de la commande cfgsvc :
cfgsvc ITUAM_agent_name -attr ACCT_DATA0=value1 ACCT_DATA1=value2 ISYSTEM=value3 IPROCESS=value4

O :
Virtual I/O Server

115

v ITUAM_agent_name est le nom de lagent Tivoli Usage and Accounting Manager. Par exemple, ITUAM_base. v value1 est la taille (en Mo) du premier fichier de donnes contenant les informations statistiques journalires. v value2 est la taille (en Mo) du second fichier de donnes contenant les informations statistiques journalires. v value3 dfinit le moment (en minutes) o lagent gnre des enregistrements systme par intervalles. v value4 dfinit le moment (en minutes) o le systme gnre des enregistrements de processus regroups. 6. Dmarrez lagent Tivoli Usage and Accounting Manager laide de la commande startsvc. Exemple :
startsvc ITUAM_base

Rsultats
Une fois lanc, lagent Tivoli Usage and Accounting Manager commence collecter les donnes et gnrer des fichiers journaux. Vous pouvez configurer le serveur Tivoli Usage and Accounting Manager de faon rcuprer les fichiers journaux qui sont ensuite traits par le moteur de traitement Tivoli Usage and Accounting Manager. Vous pouvez utiliser comme suit les donnes du moteur de traitement Tivoli Usage and Accounting Manager : v Vous pouvez gnrer des rapports, des feuilles de calcul et des graphiques personnaliss. Tivoli Usage and Accounting Manager fournit un accs complet aux donnes et des fonctions ddition de rapports grce lintgration de Microsoft SQL Server Reporting Services ou Crystal Reports dans un systme de gestion de base de donnes. v Vous pouvez visualiser des informations prcises et dtailles sur lutilisation et les cots. v Vous pouvez attribuer, rpartir ou facturer les cots des technologies de linformation en fonction des utilisateurs, des centres de cots et des organisations de faon quitable, claire et reproductible. Pour plus dinformations, reportez-vous au Tivoli Usage and Accounting Manager Information Center. Rfrence associe Configuration des attributs des agents et des clients Tivoli, la page 164 Informations sur les variables et les attributs de configuration requis et facultatifs de lagent Tivoli Monitoring , lagent Tivoli Usage and Accounting Manager , du client Tivoli Storage Manager et des agents TotalStorage Productivity Center.

Configuration du client Tivoli Storage Manager


Vous pouvez configurer le client Tivoli Storage Manager sur le serveur Virtual I/O Server.

A propos de cette tche


Avec Virtual I/O Server 1.4, vous pouvez configurer le client Tivoli Storage Manager sur le serveur Virtual I/O Server. Tivoli Storage Manager vous permet de protger vos donnes en cas de dfaillance ou derreur laide de la fonction de sauvegarde et de reprise aprs incident qui stocke les donnes dans une hirarchie darchivage hors ligne. Tivoli Storage Manager protge les ordinateurs fonctionnant dans divers environnements dexploitation, notamment Virtual I/O Server, et sur diffrents types de matriel. Si vous configurez le client Tivoli Storage Manager sur le serveur Virtual I/O Server, vous pouvez inclure le serveur Virtual I/O Server dans une infrastructure de sauvegarde standard. Avant de commencer, assurez-vous que Virtual I/O Server est install. Le client Tivoli Storage Manager est livr avec Virtual I/O Server et install en mme temps que Virtual I/O Server. Pour plus dinformations, voir Installation de Virtual I/O Server et des partitions logiques client, la page 77. Pour configurer et dmarrer le client Tivoli Storage Manager, procdez comme suit :

116

Virtual I/O Server

1. Rpertoriez tous les clients Tivoli Storage Manager disponibles laide de la commande lssvc. Par exemple :
$lssvc TSM_base

2. Selon le rsultat de la commande lssvc, choisissez le client Tivoli Storage Manager que vous voulez configurer. Par exemple, TSM_base 3. Rpertoriez tous les attributs associs au client Tivoli Storage Manager laide de la commande cfgsvc. Exemple :
$cfgsvc ls TSM_base SERVERNAME SERVERIP NODENAME

4. Configurez le client Tivoli Storage Manager et les attributs associs laide de la commande cfgsvc :
cfgsvc nom_client_TSM -attr SERVERNAME=nom_hte SERVERIP=non_ou_adresse NODENAME=vios

O : v nom_client_TSM est le nom du client Tivoli Storage Manager. Par exemple, TSM_base. v nom_hte est le nom dhte du serveur Tivoli Storage Manager auquel est associ le client Tivoli Storage Manager. v nom_ou_adresse est ladresse IP ou le nom de domaine du serveur Tivoli Storage Manager auquel est associ le client Tivoli Storage Manager. v vios est le nom de la machine sur laquelle est install le client Tivoli Storage Manager. Ce nom doit correspondre au nom enregistr sur le serveur Tivoli Storage Manager. 5. Demandez ladministrateur de Tivoli Storage Manager denregistrer le poste client, Virtual I/O Server, avec le serveur Tivoli Storage Manager.

Rsultats
Lorsque vous avez termin, vous tes prt sauvegarder et restaurer Virtual I/O Server laide du gestionnaire Tivoli Storage Manager. Pour plus dinformations, voir les procdures suivantes : v Sauvegarde du serveur Virtual I/O Server laide du gestionnaire Tivoli Storage Manager, la page 137 v Restauration de Virtual I/O Server avec Tivoli Storage Manager, la page 143

Configuration des agents TotalStorage Productivity Center


Vous pouvez configurer et dmarrer les agents TotalStorage Productivity Center sur le serveur Virtual I/O Server.

A propos de cette tche


Virtual I/O Server 1.5.2 permet de configurer les agents TotalStorage Productivity Center sur le serveur Virtual I/O Server. TotalStorage Productivity Center est une suite de gestion de linfrastructure de stockage intgre conue pour simplifier et automatiser la gestion des units de stockage et des rseaux de stockage, ainsi que lutilisation de la capacit des systmes de fichiers et des bases de donnes. Lors de la configuration des agents TotalStorage Productivity Center sur le serveur Virtual I/O Server, vous pouvez utiliser linterface utilisateur de TotalStorage Productivity Center pour collecter et afficher des informations sur le serveur Virtual I/O Server. Avant de commencer, effectuez les tches suivantes : 1. Vrifiez laide de la commande ioslevel que la version de Virtual I/O Server est 1.5.2 ou une version ultrieure. 2. Vrifiez quaucune autre opration ne sexcute sur le serveur Virtual I/O Server. La configuration de TotalStorage Productivity Center utilise la totalit du temps de traitement.
Virtual I/O Server

117

3. En plus de la mmoire requise par la partition logique Virtual I/O Server, assurez-vous que vous avez attribu un minimum de 1 Go de mmoire au Virtual I/O Server pour les agents TotalStorage Productivity Center. Pour configurer et dmarrer les agents TotalStorage Productivity Center, procdez comme suit : 1. Rpertoriez tous les agents TotalStorage Productivity Center disponibles laide de la commande lssvc. Par exemple :
$lssvc TPC

Lagent TPC contient les agents TPC_data et TPC_fabric. Lorsque vous configurez lagent TPC, vous configurez les agents TPC_data et TPC_fabric. 2. Rpertoriez tous les attributs associs lagent TotalStorage Productivity Center laide de la commande lssvc. Exemple :
$lssvc TPC A: S: devAuth: caPass: caPort: amRegPort: amPubPort: dataPort: devPort: newCA: oldCA: daScan: daScript: daInstall: faInstall: U:

Les attributs A, S, devAuth et caPass sont requis. Les autres sont facultatifs. Pour plus dinformations sur ces attributs, voir Configuration des attributs des agents et des clients Tivoli, la page 164. 3. Configurez lagent TotalStorage Productivity Center et les attributs associs laide de la commande cfgsvc :
cfgsvc TPC -attr S=nom_hte_serv_tpc A=nom_hte_gest_agents devAuth=mot_passe_1 caPass=mot_passe_2

O : v nom_hte_serv_tpc correspond au nom dhte ou ladresse IP du serveur TotalStorage Productivity Center associ lagent TotalStorage Productivity Center. v nom_hte_gest_agents correspond au nom ou ladresse IP du gestionnaire dagents. v mot_passe_1 correspond au mot de passe requis pour lauthentification auprs du serveur dunits TotalStorage Productivity Center. v mot_passe_2 correspond au mot de passe requis pour lauthentification auprs de lagent commun. 4. Slectionnez la langue utiliser pour linstallation et la configuration. 5. Acceptez le contrat de licence pour installer les agents en fonction des attributs dfinis ltape 3. 6. Dmarrez chaque agent TotalStorage Productivity Center laide de la commande startsvc : v Pour dmarrer lagent TPC_data, excutez la commande suivante :
startsvc TPC_data

v Pour dmarrer lagent TPC_fabric, excutez la commande suivante :


startsvc TPC_fabric

118

Virtual I/O Server

Rsultats
Aprs le dmarrage des agents TotalStorage Productivity Center, vous pouvez effectuer les tches suivantes laide de linterface utilisateur de TotalStorage Productivity Center : 1. Excuter un travail de reprage pour les agents sur le serveur Virtual I/O Server. 2. Effectuer des sondes, des analyses et des travaux ping pour collecter les informations de stockage relatives au Virtual I/O Server. 3. Gnrer des rapports laide de Fabric Manager et du gestionnaire de donnes pour afficher les informations de stockage regroupes. 4. Afficher les informations de stockage regroupes laide du visualiseur de topologie. Pour plus dinformations, voir le fichier PDF TotalStorage Productivity Center support for agents on a Virtual I/O Server. Pour consulter ou tlcharger le fichier PDF, accdez au site Web TotalStorage Productivity Center v3.3.1.81 Interim Fix.

Configuration de lagent Director


Vous pouvez configurer et dmarrer lagent Director sur le serveur Virtual I/O Server.

Avant de commencer
Avant de commencer, utilisez la commande ioslevel pour vrifier que vous disposez de la version 1.5.2 ou ultrieure de Virtual I/O Server.

A propos de cette tche


Avec Virtual I/O Server 1.5.2, vous pouvez configurer lagent Director sur le serveur Virtual I/O Server. Lagent Director vous permet de consulter et de suivre les dtails relatifs la configuration matrielle du systme, ainsi que de surveiller les performances et lutilisation des composants essentiels, tels que les processeurs, disques et la mmoire. Pour configurer et dmarrer lagent Director, procdez comme suit : 1. Rpertoriez les agents Director disponibles laide de la commande lssvc. Par exemple :
$lssvc DIRECTOR_agent

2. Configurez lagent Director et les attributs associs laide de la commande cfgsvc :


cfgsvc DIRECTOR_agent -attr RESTART_ON_REBOOT=TRUE

RESTART_ON_REBOOT indique si lagent Director sera redmarr lors de la rinitialisation de Virtual I/O Server. 3. Dmarrez lagent Director laide de la commande startsvc. Pour dmarrer lagent DIRECTOR_agent, excutez la commande suivante :
startsvc DIRECTOR_agent

Concepts associs Logiciel Systems Director, la page 41 Cette rubrique dcrit lintgration de Virtual I/O Server un environnement Systems Director. Information associe Commande cfgsvc

Configuration de Virtual I/O Server en tant que client LDAP


Vous pouvez configurer Virtual I/O Server version 1.4 en tant que client LDAP et ensuite grer Virtual I/O Server partir dun serveur LDAP.
Virtual I/O Server

119

Avant de commencer
Avant de commencer, notez les informations suivantes : v Nom du ou des serveurs LDAP (Lightweight Directory Access Protocol) pour lesquels vous souhaitez dfinir Virtual I/O Server comme client LDAP. v Nom distinctif (DN) et mot de passe de ladministrateur du ou des serveurs LDAP pour lesquels vous souhaitez dfinir Virtual I/O Server comme client LDAP.

A propos de cette tche


Pour configurer Virtual I/O Server en tant que client LDAP, procdez comme suit : 1. Convertissez les utilisateurs Virtual I/O Server en utilisateurs LDAP en excutant la commande suivante :
chuser -ldap username

o username est le nom de lutilisateur que vous souhaitez convertir en utilisateur LDAP. 2. Configurez le client LDAP en excutant la commande suivante :
mkldap host ldapserv1 bind cn=admin passwd adminpwd

O : v ldapserv1 est le serveur LDAP ou la liste de serveurs LDAP pour lesquels vous souhaitez dfinir Virtual I/O Server comme client LDAP v cn=admin est le nom distinctif (DN) de ladministrateur ldapserv1 v adminpwd est le mot de passe associ cn=admin La configuration du client LDAP dclenche automatiquement la communication entre le serveur LDAP et le client LDAP (le Virtual I/O Server). Pour arrter la communication, utilisez la commande stopnetsvc.

Configuration de Virtual I/O Server pour les systmes POWER6


Avant de mettre niveau un systme Virtual I/O Server (VIOS) existant vers un systme POWER6 VIOS, vous devez configurer le nombre maximal demplacements dE-S virtuels et toute carte virtuelle Ethernet, srie ou dinterface SCSI virtuelle utilisant les emplacements VIOS 0 10.

A propos de cette tche


Les rgles de configuration suivantes sappliquent : v Le nombre maximal demplacements dE-S virtuels doit tre dau moins 11, plus le nombre demplacements dE-S virtuels dont vous avez besoin. Remarques : Un nombre maximal infrieur 11 peut tre incompatible avec les versions plus rcentes de la console HMC (Hardware Management Console). Le nombre maximal demplacements peut tre suprieur 11. Les emplacements virtuels en trop utilisent une certaine quantit de mmoire supplmentaire mais nont pas dautre impact. v Tous les emplacements virtuels Ethernet, srie et dinterface SCSI virtuelle dfinis par lutilisateur doivent utiliser les ID demplacement 11 ou suprieurs. Remarque : Dans le cas des cartes dinterface SCSI virtuelle existantes, vous devez mapper tous les profils client aux nouvelles cartes serveur.

120

Virtual I/O Server

Ces rgles de configuration sappliquent aux partitions des systmes POWER6 uniquement. Dans le cas dune combinaison de systmes et POWER6 sur une console HMC V7, les systmes peuvent utiliser les emplacements 0 10.

Gestion du serveur Virtual I/O Server


Vous pouvez grer des units Ethernet virtuelles et SCSI virtuelles sur le serveur Virtual I/O Server, ainsi que sauvegarder, restaurer, mettre jour et contrler le serveur Virtual I/O Server.

A propos de cette tche


La plupart des sections de cette rubrique concernent les oprations de gestion dans un environnement HMC. Pour plus dinformations sur les tches de gestion dans un environnement Integrated Virtualization Manager, voir Partitionnement laide du gestionnaire Integrated Virtualization Manager.

Gestion de la mmoire
Vous pouvez importer et exporter des groupes de volumes et des pools de stockage, mapper des disques virtuels des disques physiques, augmenter la capacit des units SCSI virtuelles, modifier la longueur de file dattente SCSI virtuelle, sauvegarder et restaurer des fichiers et des systmes de fichiers et collecter et afficher des informations avec TotalStorage Productivity Center.

Importation et exportation de groupes de volumes et de pools de stockage de volumes logiques


Les commandes importvg et exportvg permettent de dplacer un groupe de volumes dfini par lutilisateur dun systme vers un autre.

A propos de cette tche


Tenez compte des remarques suivantes lors de limportation et de lexportation de groupes de volumes et de pools de stockage de volumes logiques : v La procdure dimportation permet dintroduire le groupe de volumes dans le nouveau systme. v Vous pouvez utiliser la commande importvg pour rintroduire un groupe de volumes ou un pool de stockage de volumes logiques dans le systme auquel il t prcdemment associ et partir duquel il a t export. v La commande importvg permet de modifier le nom du volume logique import si un volume logique portant le mme nom existe dj sur le nouveau systme. Si la commande importvg renomme un volume logique, un message derreur est imprim. v La procdure dexportation provoque la suppression de la dfinition dun groupe de volumes dun systme. v Vous pouvez utiliser les commandes importvg et exportvg pour ajouter un volume physique contenant des donnes un groupe de volumes en plaant le disque ajouter dans son propre groupe de volumes. v Il nest pas possible dexporter ou dimporter le groupe de volumes rootvg. Importation de groupes de volumes et de pools de stockage de volumes logiques : Vous pouvez utiliser la commande importvg pour importer un groupe de volumes ou un pool de stockage de volumes logiques. A propos de cette tche Pour importer un groupe de volumes ou un pool de stockage de volumes logiques, procdez comme suit :

Virtual I/O Server

121

1. Excutez la commande suivante pour importer le groupe de volumes ou le pool de stockage de volumes logiques :
importvg -vg volumeGroupName physicalVolumeName

O : v volumeGroupName est un paramtre facultatif qui indique le nom utiliser pour le groupe de volumes import. v physicalVolumeName est le nom dun volume physique appartenant au groupe de volumes import. 2. Si vous savez que le groupe de volumes ou le pool de stockage de volumes logiques nest pas le parent du rfrentiel de supports virtuels ou dun pool de stockage de fichiers, vous avez termin limportation du groupe de volumes ou du pool de stockage de volumes. Vous pouvez donc ignorer les tapes suivantes. 3. Si vous savez (ou si vous ntes pas sr) que le groupe de volumes ou le pool de stockage de volumes logiques est le parent du rfrentiel de supports virtuels ou dun pool de stockage de fichiers, procdez comme suit : a. Excutez la commande mount all pour monter les systmes de fichiers inclus dans le groupe de volumes ou le pool de stockage de volumes logiques. Il est possible que cette commande renvoie des erreurs pour les systmes de fichiers dj monts. b. Si vous importez un groupe de volumes ou un pool de stockage de volumes logiques dans le mme systme que celui partir duquel vous lavez export, excutez la commande cfgdev pour reconfigurer les units dont vous aviez annul la configuration lors de lexportation du groupe de volumes ou du pool de stockage de volumes logiques. Que faire ensuite Pour exporter un groupe de volumes ou un pool de stockage de volumes logiques, voir Exportation de groupes de volumes et de pools de stockage de volumes logiques. Exportation de groupes de volumes et de pools de stockage de volumes logiques : Vous pouvez utiliser la commande exportvg pour exporter un groupe de volumes ou un pool de stockage de volumes logiques. Avant de commencer Avant de commencer, effectuez les tches suivantes : 1. Dterminez si le groupe de volumes ou le pool de stockage de volumes logiques exporter est un parent du rfrentiel de supports virtuels ou dun pool de stockage de fichiers en procdant comme suit : a. Excutez la commande lsrep pour dterminer si le groupe de volumes ou le pool de stockage de volumes logiques exporter est un parent du rfrentiel de supports virtuels. La zone Pool parent affiche le groupe de volumes ou le pool de volumes logiques parent du rfrentiel de supports virtuels. b. Excutez la commande suivante pour dterminer si un pool de stockage de fichiers est un enfant du groupe de volumes ou du pool de volumes logiques exporter :
lssp -detail -sp FilePoolName

Le rsultat indique le groupe de volumes ou le pool de stockage de volumes logiques parent du pool de stockage de fichiers. 2. Si le groupe de volumes ou le pool de stockage de volumes logiques exporter est un parent du rfrentiel de supports virtuels ou dun pool de stockage de fichiers, excutez les tapes qui suivent.

122

Virtual I/O Server

Tableau 31. Etapes prrequises si le groupe de volumes ou le pool de stockage de volumes logiques est un parent du rfrentiel de supports virtuels ou dun pool de stockage de fichiers Parent du rfrentiel de supports virtuels 1. Procdez comme suit pour dcharger lunit de sauvegarde de chaque unit cible virtuelle sauvegarde sur fichier incluant un fichier multimdia charg : a. Extrayez la liste des units cible virtuelles optiques sauvegardes sur fichier en excutant la commande suivante : lsmap -all -type file_opt b. Pour chaque unit cible virtuelle indiquant une unit de sauvegarde, excutez la commande suivante pour dcharger lunit de sauvegarde : unloadopt -vtd VirtualTargetDevice 2. Dmontez le systme de fichiers du rfrentiel de supports virtuels en excutant la commande suivante : unmount /var/vio/VMLibrary Parent dun pool de stockage de fichiers 1. Annulez la configuration des units cible virtuelles associes aux fichiers contenus dans les pools de stockage de fichiers en procdant comme suit: a. Extrayez la liste des units cible virtuelles en excutant la commande suivante : lssp -bd -sp FilePoolName o FilePoolName est le nom du pool de stockage de fichiers enfant du groupe de volumes ou du pool de stockage de volumes logiques exporter. b. Pour chaque fichier indiquant une unit cible virtuelle, excutez la commande suivante : rmdev -dev VirtualTargetDevice -ucfg 2. Dmontez le pool de stockage de fichiers en excutant la commande suivante : unmount /var/vio/storagepools/FilePoolName o FilePoolName est le nom du pool de stockage de fichiers dmonter.

A propos de cette tche Pour exporter le groupe de volumes ou le pool de stockage de volumes logiques, excutez les commandes suivantes : 1. deactivatevg VolumeGroupName 2. exportvg VolumeGroupName Que faire ensuite Pour importer un groupe de volumes ou un pool de stockage de volumes logiques, voir Importation de groupes de volumes et de pools de stockage de volumes logiques, la page 121.

Mappage de disques virtuels sur des disques physiques


Instructions de mappage dun disque virtuel dune partition logique client sur le disque physique correspondant du serveur Virtual I/O Server.

A propos de cette tche


Cette procdure explique comment mapper un disque SCSI virtuel dune partition logique client AIX avec lunit physique (disque ou volume logique) du serveur Virtual I/O Server. Pour ce faire, vous avez besoin des informations suivantes. Ces informations sont collectes au cours de cette procdure. v Nom dunit virtuelle v Numro demplacement de la carte client SCSI virtuelle v Numro dunit logique (LUN) de lunit SCSI virtuelle v Identificateur de partition logique client

Virtual I/O Server

123

Pour mapper un disque virtuel dune partition logique client AIX avec le disque physique du serveur Virtual I/O Server correspondant, procdez comme suit : 1. Affichez les informations relatives lunit SCSI virtuelle sur la partition logique client AIX en entrant la commande suivante :
lscfg -l nom-unit

Cette commande renvoie un rsultat similaire au suivant :


U9117.570.1012A9F-V3-C2-T1-L810000000000 Unit de disque SCSI virtuelle

2. Notez le numro demplacement figurant dans la sortie la suite du libell demplacement de carte C. Il correspond au numro demplacement de la carte client SCSI virtuelle. Dans cet exemple, le numro demplacement est 2. 3. Notez le numro dunit logique (LUN) figurant dans la sortie la suite du label de LUN L. Dans cet exemple, LUN quivaut 810000000000. 4. Notez lID de la partition logique client AIX : a. Connectez-vous la partition logique client AIX en utilisant, par exemple, Telnet. b. Sur la partition logique AIX, excutez la commande uname -L. Le rsultat doit ressembler ceci :
2 fumi02

Lidentificateur de partition logique est le premier numro indiqu. Dans cet exemple, il sagit de 2. Ce numro est utilis ltape suivante. c. Entrez exit. 5. Si plusieurs partitions logiques Virtual I/O Server sexcutent sur votre systme, dterminez celle qui tient lieu dunit SCSI virtuelle. Elle peut tre dtermine laide du numro demplacement de la carte client relie un Virtual I/O Server et une carte de serveur. Utilisez la ligne de commande de la console HMC pour rpertorier les informations relatives aux cartes client SCSI virtuelles de la partition logique client. Connectez-vous la console HMC et partir de la ligne de commande de la console HMC, entrez lshwres. Indiquez le nom de la console gre pour le paramtre -m et lidentificateur de la partition logique client pour le paramtre lpar_ids. Remarque : v Le nom de la console gre utilise pour le paramtre -m est dtermin en entrant lssyscfg -r sys -F name partir de la ligne de commande de la console HMC. v Utilisez lidentificateur de partition logique client not ltape 4 pour le paramtre -lpar_ids. Par exemple :
lshwres -r virtualio --rsubtype scsi -m fumi --filter lpar_ids=2

Cet exemple renvoie un rsultat similaire au suivant :


lpar_name=fumi02,lpar_id=2,slot_num=2,state=null,adapter_type=client,remote_lpar_id=1, remote_lpar_name=fumi01,remote_slot_num=2,is_required=1,backing_devices=none

Notez le nom du serveur Virtual I/O Server situ dans la zone remote_lpar_name et le numro demplacement de la carte serveur SCSI virtuelle, figurant dans la zone remote_lpar_id. Dans cet exemple, le nom du serveur Virtual I/O Server est fumi01 et le numro demplacement de la carte serveur SCSI virtuelle est 2. 6. Connectez-vous au serveur Virtual I/O Server. 7. Rpertoriez les cartes et les units virtuelles du serveur Virtual I/O Server en entrant la commande suivante :
lsmap -all

124

Virtual I/O Server

8. Localisez la carte serveur SCSI virtuelle (vhostX) qui prsente un numro demplacement correspondant au numro demplacement distant not ltape 5. Sur cette carte, excutez la commande suivante :
lsmap -vadapter nom-unit

9. A partir de la liste des units, faites correspondre le numro dunit logique not ltape 3 avec les numros dunit logique rpertoris. Il sagit de lunit physique.

Rsultats

Augmentation de la capacit de lunit


Augmenter la taille des disques SCSI virtuels.

A propos de cette tche


Lorsque les besoins en stockage des partitions logiques client virtuelles augmentent, vous pouvez ajouter une mmoire physique pour accrotre la taille de vos units virtuelles et allouer cette mmoire votre environnement virtuel. Vous pouvez tendre la capacit de vos units SCSI virtuelles en augmentant la taille des volumes physiques ou logiques. Virtual I/O Server version 1.3 et suprieures permet deffectuer ceci sans interrompre les oprations client. Pour augmenter la taille des fichiers et des volumes logiques en fonction des pools de stockage, vous devez utiliser la version 1.5 ou une version suprieure de Virtual I/O Server. Conseil : Si vous utilisez la console HMC, version 7 dition 3.4.2 ou ultrieure, vous pouvez utiliser linterface graphique de la console HMC pour augmenter la capacit dune unit SCSI virtuelle sur un serveur Virtual I/O Server. Pour augmenter la capacit des units SCSI, procdez comme suit : 1. Augmentation de la taille des volumes physiques, des volumes logiques ou des fichiers : v Volumes physiques : consultez la documentation relative au stockage afin de dterminer si votre sous-systme de stockage prend en charge lextension de la taille dun numro dunit logique (LUN). v Volumes logiques bass sur des groupes de volumes : a. Excutez la commande extendlv. Par exemple, extendlv lv3 100M. Dans cet exemple, le volume logique lv3 est augment de 100 Mo. b. Si le volume logique ne contient pas despace supplmentaire, procdez comme suit : 1) Augmentez la taille du groupe de volumes en procdant comme suit : Augmentez la taille des volumes physiques. Pour plus dinformations, consultez la documentation relative votre systme de stockage. Ajoutez des volumes physiques un groupe de volumes en excutant la commande extendvg. Par exemple, extendvg vg1 hdisk2. Dans cet exemple, le volume physique hdisk2 est ajout au groupe de volumes vg1. 2) Allouez le volume augment aux partitions logiques en redimensionnant les volumes logiques. Excutez la commandeextendlv pour augmenter la taille dun volume logique. v Volumes logiques bass sur des pools de stockage : a. Excutez la commande chbdsp. Par exemple, chbdsp -sp lvPool -bd lv3 -size 100M. Dans cet exemple, le volume logique lv3 est augment de 100 Mo. b. Si le volume logique ne contient pas despace supplmentaire, procdez comme suit : 1) Augmentez la taille du pool de stockage de volumes logiques en procdant de lune des faons suivantes : Augmentez la taille des volumes physiques. Pour plus dinformations, consultez la documentation relative votre systme de stockage.

Virtual I/O Server

125

Ajoutez des volumes physiques au pool de stockage en excutant la commande chsp. Par exemple, chsp -add -sp sp1 hdisk2. Dans cet exemple, le volume physique hdisk2 est ajout au pool de stockage sp1. 2) Allouez le volume augment aux partitions logiques en redimensionnant les volumes logiques. Excutez la commande chbdsp pour augmenter la taille dun volume logique. v Fichiers : a. Excutez la commande chbdsp. Par exemple, chbdsp -sp fbPool -bd fb3 -size 100M. Dans cet exemple, le fichier fb3 est augment de 100 Mo. b. Si le fichier ne contient pas despace supplmentaire, augmentez la taille du pool de stockage de fichiers en excutant la commande chsp. Par exemple, chsp -add -sp fbPool -size 100M. Dans cet exemple, le pool de stockage de fichiers fbPool est augment de 100 Mo. c. Si le pool de stockage de fichiers ne contient pas despace supplmentaire, augmentez la taille du pool de stockage parent en procdant de lune des faons suivantes : Augmentez la taille des volumes physiques. Pour plus dinformations, consultez la documentation relative votre systme de stockage. Ajoutez des volumes physiques au pool de stockage parent en excutant la commande chsp. Par exemple, chsp -add -sp sp1 hdisk2. Dans cet exemple, le volume physique hdisk2 est ajout au pool de stockage sp1. Augmentez la taille du pool de stockage de fichiers en excutant la commande chsp. 2. Si vous excutez des versions de Virtual I/O Server antrieures la version 1.3, vous devez reconfigurer lunit virtuelle ( laide de la commande cfgdev) ou redmarrer Virtual I/O Server. 3. Si vous excutez la version 1.3 ou une version suprieure de Virtual I/O Server, il nest pas obligatoire de redmarrer ou de reconfigurer une partition logique pour pouvoir utiliser les ressources supplmentaires. Si les ressources de la mmoire physique ont t configures et alloues au systme en tant que ressources systme, ds que Virtual I/O Server identifie les modifications dans le volume de stockage, la capacit de stockage tendue est mise la disposition des partitions logiques client. 4. Sur la partition logique client, assurez-vous que le systme dexploitation reconnaisse la nouvelle taille et sy adapte. Par exemple, si AIX est le systme dexploitation sur la partition logique client, excutez la commande suivante :
chvg -g vg1

Dans cet exemple, AIX examine tous les disques dans le groupe de volumes vg1 afin de vrifier que leur taille a augment. Pour les disques dont la taille a augment, AIX tente dajouter des partitions physiques supplmentaires aux volumes physiques. Le cas chant, AIX dterminera le multiplicateur 1016 et la conversion appropris au groupe de volumes. Information associe Commande chvg Changement de pool de stockage pour une partition logique VIOS via la console HMC

Modification de la longueur de file dattente de linterface SCSI virtuelle


Laugmentation de la longueur de la file dattente de linterface SCSI virtuelle peut amliorer les performances de certaines configurations virtuelles. Il est donc important de connatre les facteurs qui interviennent dans la dtermination de la modification de la valeur de longueur de file dattente de linterface SCSI virtuelle. La valeur de longueur de file dattente de linterface SCSI virtuelle dtermine le nombre de requtes que le pilote de la tte du disque transmettra au pilote du client. Pour les partitions logiques client AIX et Linux, vous pouvez modifier cette valeur en remplaant la valeur par dfaut (3) par une valeur comprise entre 1 et 256. Cette modification seffectue laide de la commande chdev. Laugmentation de cette valeur peut amliorer le rendement du disque dans certaines configurations. Toutefois, plusieurs facteurs doivent tre pris en compte. Parmi ces facteurs figurent la valeur de lattribut

126

Virtual I/O Server

de longueur de file dattente de toutes les units de mmoire physique sur le serveur Virtual I/O Server utilises en tant quunit cible virtuelle par linstance de disque sur la partition client et la taille de transfert maximale de linstance de carte client SCSI virtuelle qui constitue lunit parente de linstance de disque. Pour les partitions logiques client AIX et Linux, la taille de transfert maximale pour les cartes client de linterface SCSI est dfinie par Virtual I/O Server, qui dtermine la valeur en fonction des ressources disponibles sur le serveur et de la taille de transfert maximale dfinie pour les units de mmoire physique sur ce serveur. Dautres facteurs incluent la longueur de file dattente et la taille de transfert maximale des autres units impliques dans les configurations de type groupe de volumes en miroir ou MPIO (Multipath I/O). Laugmentation de la longueur de la file dattente pour certaines units peut rduire le nombre de ressources disponibles pour les autres units situes sur la mme carte partage et diminuer le rendement de celles-ci. Pour modifier la longueur de la file dattente AIX ou Linux, utilisez la commande chdev sur la partition logique client avec lattribut queue_depth=value, comme dans lexemple suivant :
chdev -1 hdiskN -a "queue_depth=value"

hdiskN reprsente le nom dun volume physique et value dsigne la valeur comprise entre 1 et 256 que vous attribuez. Pour visualiser le paramtre actuel dfini pour la valeur queue_depth, excutez la commande suivante partir de la partition logique client :
lsattr -El hdiskN

Sauvegarde et restauration de fichiers et de systmes de fichiers


Vous pouvez utiliser les commandes backup et restore pour sauvegarder et restaurer des fichiers individuels ou des systmes de fichiers complets.

A propos de cette tche


La sauvegarde et la restauration de fichiers et de systmes de fichiers peuvent savrer utiles pour les tches telles que l lenregistrement dune unit sauvegarde sur fichier. Pour sauvegarder et restaurer des fichiers et des systmes de fichiers, utilisez les commandes ci-aprs.
Tableau 32. Commandes de sauvegarde et de restauration et leurs descriptions commande backup Description Permet de sauvegarder des fichiers et des systmes de fichiers sur des supports, tels que des bandes et des disques physiques. Exemple : v Vous pouvez sauvegarder tous les fichiers et tous les sous-rpertoires dans un rpertoire laide des chemins daccs complets ou des chemins daccs relatifs. v Vous pouvez sauvegarder le systme de fichiers racine. v Vous pouvez sauvegarder tous les fichiers du systme de fichiers racine qui ont t modifis depuis la dernire sauvegarde. v Vous pouvez sauvegarder les fichiers de support optique virtuel depuis le rfrentiel de support virtuel.

Virtual I/O Server

127

Tableau 32. Commandes de sauvegarde et de restauration et leurs descriptions (suite) commande restore Description Permet de lire les archives cres laide de la commande backup et dextraire les fichiers quelles contiennent. Exemple : v Vous pouvez restaurer un fichier donn dans le rpertoire de travail. v Vous pouvez restaurer un fichier donn depuis une bande sur le rfrentiel de support virtuel. v Vous pouvez restaurer un rpertoire spcifique ainsi que le contenu de ce rpertoire depuis une archive de nom de fichier ou une archive de systme de fichiers. v Vous pouvez restaurer un systme de fichiers complet. v Vous pouvez restaurer uniquement les permissions ou uniquement les attributs ACL des fichiers ou de larchive.

Gestion du stockage laide d TotalStorage Productivity Center


Vous pouvez utiliser TotalStorage Productivity Center pour collecter et afficher des informations sur Virtual I/O Server.

A propos de cette tche


Virtual I/O Server 1.5.2, permet dinstaller et de configurer les agents TotalStorage Productivity Center sur le serveur Virtual I/O Server. TotalStorage Productivity Center est une suite de gestion de linfrastructure de stockage intgre conue pour simplifier et automatiser la gestion des units de stockage et des rseaux de stockage, ainsi que lutilisation de la capacit des systmes de fichiers et des bases de donnes. Lors de linstallation et de la configuration des agents TotalStorage Productivity Center sur le serveur Virtual I/O Server, vous pouvez utiliser linterface de TotalStorage Productivity Center pour collecter et afficher des informations sur le serveur Virtual I/O Server. Vous pouvez ensuite effectuer les tches suivantes laide de linterface TotalStorage Productivity Center : 1. Excuter un travail de reprage pour les agents sur le serveur Virtual I/O Server. 2. Effectuer des sondes, des analyses et des travaux ping pour collecter les informations de stockage relatives au Virtual I/O Server. 3. Gnrer des rapports laide de Fabric Manager et du gestionnaire de donnes pour afficher les informations de stockage regroupes. 4. Afficher les informations de stockage regroupes laide du visualiseur de topologie. Pour plus dinformations, voir Configuration des agents TotalStorage Productivity Center, la page 117.

Gestion des rseaux


Vous pouvez modifier la configuration rseau de la partition logique Virtual I/O Server, activer et dsactiver le protocole GVRP (GARP VLAN Registration Protocol) sur la carte Ethernet partage, utiliser le protocole SNMP (Simple Network Management Protocol) pour grer les systmes et les units sur des rseaux complexes et mettre niveau vers Internet Protocol version 6 (IPv6).

Modification de la configuration rseau de la partition logique Virtual I/O Server


Pour modifier ou supprimer les paramtres rseau sur la partition logique Virtual I/O Server, tels que ladresse IP, le masque de sous-rseau, la passerelle et ladresse de serveur de noms, procdez comme indiqu ici.

A propos de cette tche


Dans ce scnario, la configuration de rseau de la partition logique Virtual I/O Server est dj dfinie. La configuration en cours sera supprime et celle mise jour sera dfinie. Si vous envisagez dannuler la

128

Virtual I/O Server

configuration Internet Protocol version 6 (IPv6), utilisez le processus et les commandes ci-aprs pour supprimer compltement linterface TCP/IP et en configurer une nouvelle pour Internet Protocol version 4 (IPv4). 1. Affichez la configuration de rseau en cours laide de la commande lstcpip. 2. Supprimez la configuration de rseau en cours en excutant la commande rmtcpip. Vous pouvez supprimer tous les paramtres rseau ou uniquement ceux qui doivent tre mis jour. 3. Configurez les nouveaux paramtres rseau laide de la commande mktcpip.

Exemple
Lexemple suivant concerne IPv4 dans lequel ladresse en cours des informations DNS (Domain Name Server) de la partition logique Virtual I/O Server doit tre mise jour vers 9.41.88.180 : 1. Excutez la commande lstcpip -namesrv pour afficher la configuration en cours. Assurez-vous que la configuration a besoin dtre mise jour. 2. Excutez la commande rmtcpip -namesrv pour supprimer la configuration en cours. 3. Excutez mktcpip -nsrvaddr 9.41.88.180 pour mettre jour ladresse du serveur de noms.

Activation et dsactivation du protocole GVRP


Vous pouvez activer et dsactiver le protocole GVRP (GARP VLAN Registration Protocol) sur les cartes Ethernet partages, ce qui permet de grer lenregistrement dynamique des rseaux locaux virtuels (VLAN) sur les rseaux.

Avant de commencer
Sur le serveur Virtual I/O Server version 1.4, les cartes Ethernet partages prennent en charge le protocole GVRP (GARP VLAN Registration Protocol), lequel repose sur le protocole GARP (Generic Attribute Registration Protocol). Le protocole GVRP permet lenregistrement dynamique des rseaux VLAN sur les rseaux. Par dfaut, le protocole GVRP est dsactiv sur les cartes Ethernet partages. Avant de commencer, crez et configurez une carte Ethernet partage. Pour plus dinformations, voir Cration dune carte Ethernet virtuelle via la console HMC version 7, la page 106. Pour activer ou dsactiver le protocole GVRP, excutez la commande suivante :
chdev -dev Nom -attr gvrp=yes/no

O : v Nom est le nom de la carte Ethernet partage. v yes/no indique si le protocole GVRP est activ ou dsactiv. Entrez yes pour activer le protocole GVRP ou entrez no pour le dsactiver.

Gestion du protocole SNMP sur le serveur Virtual I/O Server


Localisation des commandes dactivation, de dsactivation et de gestion du protocole SNMP sur le serveur Virtual I/O Server.

A propos de cette tche


Le protocole SNMP (Simple Network Management Protocol) regroupe plusieurs protocoles de contrle des systmes et des units sur les rseaux complexes. La gestion de rseau SNMP repose sur le modle client-serveur couramment utilis dans les applications rseau fonctionnant avec le protocole IP. Chaque hte gr est excut sur un processus appel agent. Lagent est un processus serveur qui gre les informations sur les units gres de la base dinformations de gestion (MIB) de lhte. Les htes actifs dans la gestion de rseau peuvent excuter un processus appel gestionnaire. Un gestionnaire est une
Virtual I/O Server

129

application client qui envoie des requtes la base dinformations de gestion (MIB) et traite les rponses. De plus, un gestionnaire peut envoyer des requtes aux serveurs pour modifier les informations MIB. En gnral, les administrateurs de rseau utilisent le protocole SNMP pour faciliter la gestion du rseau pour diffrentes raisons : v Il masque le rseau systme sous-jacent. v Ladministrateur peut grer et surveiller lensemble des composants rseau sur une console unique. Le protocole SNMP est disponible sur le serveur Virtual I/O Server version 1.4 et ultrieure. Le tableau ci-dessous rpertorie les tches de gestion SNMP disponibles sur le serveur Virtual I/O Server, ainsi que les commandes permettant deffectuer ces tches.
Tableau 33. Tches et commandes de gestion du protocole SNMP sur le serveur Virtual I/O Server Tche Activation du protocole SNMP Slection de lagent SNMP excuter Envoi de requtes SNMP aux agents Traitement des rponses envoyes par les agents commande startnetsvc snmpv3_ssw cl_snmp cl_snmp

Demande dinformations MIB gres par un agent SNMP snmp_info Modification dinformations MIB gres par un agent SNMP Envoi dune notification signalant un vnement au gestionnaire SNMP au moyen dun message dfini Dsactivation du protocole SNMP snmp_info snmp_trap stopnetsvc

Information associe Gestion du rseau

Mise niveau de Virtual I/O Server de IPv4 vers IPv6


Pour tirer parti des optimisations, telles que la simplification de ladressage et du routage tendus, utilisez la commande mktcpip pour mettre niveau Virtual I/O Server de Internet Protocol version 4 (IPv4) vers Internet Protocol version 6 (IPv6).

A propos de cette tche


IPv6 est le protocole IP de future gnration et remplace graduellement la norme Internet actuelle, Internet Protocol version 4 (IPv4). La principale amlioration dIPv6 est lextension de lespace adresse IP de 32 128 bits, offrant un nombre dadresses IP uniques pratiquement illimit. IPv6 prsente plusieurs avantages par rapport IPv4, notamment le routage et ladressage tendus, la simplification du routage, la simplification du format den-tte, un contrle amlior du trafic, lautoconfiguration et la scurit. Excutez la commande suivante pour mettre niveau Virtual I/O Server de IPv4 vers IPv6 :
mktcpip auto [-interface interface]

o interface indique linterface configurer pour IPv6. Cette commande effectue automatiquement les tches suivantes : v Elle configure pour IPv6 toutes les adresses locales de liaison actuellement configures pour IPv4. v Elle active le dmon des interfaces indiques prenant en charge IPv6. v Elle lance le dmon ndpd-host. v Elle vrifie que la configuration IPv6 reste intacte aprs le redmarrage de Virtual I/O Server.

130

Virtual I/O Server

Que faire ensuite


Si vous dcidez dannuler la configuration IPv6, vous devez entirement supprimer linterface TCP/IP, puis configurer une nouvelle interface TCP/IP pour IPv4. Pour plus dinformations, voir Modification de la configuration rseau de la partition logique Virtual I/O Server, la page 128.

Sauvegarde du serveur Virtual I/O Server


Vous pouvez sauvegarder Virtual I/O Server et les units virtuelles dfinies par lutilisateur laide de la commande backupios. Vous pouvez galement utiliser Tivoli Storage Manager pour programmer des sauvegardes et les stocker sur un autre serveur.

A propos de cette tche


Le serveur Virtual I/O Server comporte les informations suivantes sauvegarder : Virtual I/O Server et les units virtuelles dfinies par lutilisateur. v Virtual I/O Server contient le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur. Toutes ces informations sont sauvegardes lorsque vous utilisez la commande backupios. Dans le cas o vous envisagez de restaurer Virtual I/O Server sur le mme systme partir duquel il a t sauvegard, la sauvegarde de Virtual I/O Server est gnralement suffisante. v Les units dfinies par lutilisateur contiennent des mtadonnes, telles que des mappages dunits virtuelles, qui dfinissent la relation existant entre lenvironnement physique et lenvironnement virtuel. Ces donnes peuvent tre enregistres dans un emplacement qui est automatiquement sauvegard lorsque vous utilisez la commande backupios. Si vous envisagez de sauvegarder Virtual I/O Server sur un autre systme ou un nouveau systme, (par exemple, en cas de panne du systme ou de sinistre), vous devez sauvegarder la fois Virtual I/O Server et les units virtuelles dfinies par lutilisateur. Dautre part, dans ces situations, vous devez galement sauvegarder les composants suivants de votre environnement pour restaurer intgralement la configuration de Virtual I/O Server : Les configurations dunits externes, comme les units de rseau de systmes (SAN). Les ressources dfinies sur la console HMC (Hardware Management Console), telles que les allocations de mmoire et de processeur. Cela implique de sauvegarder vos donnes de profil de partition de la console HMC du serveur Virtual I/O Server et ses partitions client. Les systmes dexploitation et les applications excutes dans les partitions logiques client. Vous pouvez sauvegarder et restaurer Virtual I/O Server comme suit.
Tableau 34. Mthodes de sauvegarde et de restauration de Virtual I/O Server Mthode de sauvegarde Sur bande Sur DVD Sur le systme de fichiers distant Support Bande DVD-RAM image nim_resources.tar Mthode de restauration A partir dune bande A partir dun DVD A partir dune console HMC laide de la fonction Network Installation Management (NIM) sur Linux et de la commande installios A partir dun serveur NIM AIX 5L et dune installation de systme mksysb standard Tivoli Storage Manager

Sur le systme de fichiers distant

image mksysb

Tivoli Storage Manager

image mksysb

Virtual I/O Server

131

Sauvegarde du serveur Virtual I/O Server sur bande


Vous pouvez sauvegarder sur bande diffrentes donnes de Virtual I/O Server : le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur.

Avant de commencer
Si le systme est gr par Integrated Virtualization Manager, vous devez sauvegarder vos donnes de profil de partition pour la partition de gestion et ses clients avant de sauvegarder Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des donnes de partition. (Vous avez galement la possibilit dutiliser la commande bkprofdata.)

A propos de cette tche


Pour sauvegarder le serveur Virtual I/O Server sur une bande, procdez comme suit : 1. Affectez une unit de bande au serveur Virtual I/O Server. 2. Extrayez le nom dunit en entrant la commande suivante :
lsdev -type tape

Si ltat de lunit de bande est Defined, tapez la commande suivante, o dev correspond votre unit de bande :
cfgdev -dev dev

3. Tapez la commande suivante, o unit_bande est le nom de lunit de bande que vous souhaitez utiliser pour la sauvegarde :
backupios -tape unit_bande

Cette commande cre une bande amorable qui peut tre utilise pour restaurer Virtual I/O Server. 4. Si vous envisagez de restaurer Virtual I/O Server sur un autre systme que celui partir duquel il a t sauvegard, vous devez sauvegarder les units virtuelles dfinies par lutilisateur. Pour plus dinformations, voir Sauvegarde des units virtuelles dfinies par lutilisateur, la page 135.

Sauvegarde du serveur Virtual I/O Server sur un ou plusieurs DVD


Vous pouvez sauvegarder sur DVD diffrentes donnes du serveur Virtual I/O Server : le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur.

Avant de commencer
Si le systme est gr par Integrated Virtualization Manager, vous devez sauvegarder vos donnes de profil de partition pour la partition de gestion et ses clients avant de sauvegarder Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des donnes de partition. (Vous avez galement la possibilit dutiliser la commande bkprofdata.)

A propos de cette tche


Pour sauvegarder Virtual I/O Server sur un ou plusieurs DVD, procdez comme suit. Seul le support DVD-RAM peut tre utilis pour sauvegarder Virtual I/O Server. Remarque : Les units de disque des fournisseurs peuvent prendre en charge la gravure sur dautres types de disque, tels que le CD-RW et le DVD-R. Consultez la documentation relative votre unit pour connatre les types de disque pris en charge. 1. Affectez une unit de disque optique la partition logique Virtual I/O Server. 2. Extrayez le nom dunit en entrant la commande suivante :
lsdev -type optical

132

Virtual I/O Server

Si ltat de lunit est Defined, tapez :


cfgdev -dev dev

3. Excutez la commande backupios avec loption -cd. Indiquez le chemin daccs lunit. Par exemple :
backupios -cd /dev/cd0

Remarque : Si Virtual I/O Server ne tient pas sur un DVD, la commandebackupios fournit des instructions de remplacement et de retrait des disques jusqu ce que tous les volumes aient t crs. Cette commande cre un ou plusieurs DVD amorables qui peuvent tre utiliss pour restaurer Virtual I/O Server. 4. Si vous envisagez de restaurer Virtual I/O Server sur un autre systme que celui partir duquel il a t sauvegard, vous devez sauvegarder les units virtuelles dfinies par lutilisateur. Pour plus dinformations, voir Sauvegarde des units virtuelles dfinies par lutilisateur, la page 135.

Sauvegarde du serveur Virtual I/O Server sur un systme de fichiers distant via un fichier nim_resources.tar
Vous pouvez sauvegarder sur un systme de fichiers distant diffrentes donnes Virtual I/O Server (le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur) en crant un fichier nim_resources.tar

Avant de commencer
Le fait de sauvegarder Virtual I/O Server dans un systme de fichiers distant cre limage nim_resources.tar dans le rpertoire indiqu. Le fichier nim_resources.tar contient toutes les ressources ncessaires pour restaurer Virtual I/O Server, notamment limage mksysb, le fichier bosinst.data, limage damorage du rseau et la ressource Shared Product Object Tree (SPOT). La commande backupios vide la section target_disks_stanza du fichier bosinst.data et dfinit RECOVER_DEVICES=Default. Cette opration permet de cloner le fichier mksysb gnr par la commande sur une autre partition logique. Si vous envisagez dutiliser limage nim_resources.tar pour linstaller sur un disque spcifique, vous devez repeupler la section target_disk_stanza du fichier bosinst.data et remplacer ce dernier dans limage nim_resources.tar. Toutes les autres parties de limage nim_resources.tar doivent rester intactes. Avant de commencer, effectuez les tches suivantes : 1. Si le systme est gr par Integrated Virtualization Manager, vous devez sauvegarder vos donnes de profil de partition pour la partition de gestion et ses clients avant de sauvegarder Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des donnes de partition. (Vous avez galement la possibilit dutiliser la commande bkprofdata.) 2. Vrifiez que le systme de fichiers distant est disponible et install. 3. Vrifiez que Virtual I/O Server possde un accs en criture au serveur sur lequel la sauvegarde a t cre.

A propos de cette tche


Pour sauvegarder Virtual I/O Server dans un systme de fichiers distant, procdez comme suit : 1. Crez un rpertoire de montage dans lequel limage de sauvegarde nim_resources.tar va tre crite. Par exemple, pour crer le rpertoire /home/backup, entrez :
mkdir /home/backup

2. Montez un rpertoire export sur le rpertoire de montage. Par exemple :


mount server1:/export/ios_backup /home/backup

Virtual I/O Server

133

3. Excutez la commande backupios avec loption -file. Indiquez le chemin daccs au rpertoire mont. Par exemple :
backupios -file /home/backup

Cette commande cre un fichier nim_resources.tar qui peut tre utilis pour restaurer Virtual I/O Server de la console HMC. 4. Si vous envisagez de restaurer Virtual I/O Server sur un autre systme que celui partir duquel il a t sauvegard, vous devez sauvegarder les units virtuelles dfinies par lutilisateur. Pour plus dinformations, voir Sauvegarde des units virtuelles dfinies par lutilisateur, la page 135.

Sauvegarde du serveur Virtual I/O Server sur un systme de fichiers distant via une image mksysb
Vous pouvez sauvegarder sur un systme de fichiers distant diffrentes donnes Virtual I/O Server (le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur) en crant un fichier mksysb

Avant de commencer
Le fait de sauvegarder Virtual I/O Server dans un systme de fichiers distant cre limage mksysb dans le rpertoire indiqu. Limage mksysb est une image installable du groupe de volumes root dans un fichier. Avant de commencer, effectuez les tches suivantes : 1. Si le systme est gr par Integrated Virtualization Manager, vous devez sauvegarder vos donnes de profil de partition pour la partition de gestion et ses clients avant de sauvegarder Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des donnes de partition. (Vous avez galement la possibilit dutiliser la commande bkprofdata.) 2. Si vous envisagez de restaurer Virtual I/O Server partir dun serveur Network Installation Management (NIM), vrifiez que ce dernier dispose de la dernire version du systme AIX. 3. Vrifiez que le systme de fichiers distant est disponible et install. 4. Vrifiez que Virtual I/O Server possde un accs en criture au serveur sur lequel la sauvegarde a t cre.

A propos de cette tche


Pour sauvegarder Virtual I/O Server dans un systme de fichiers distant, procdez comme suit : 1. Crez un rpertoire de montage dans lequel limage de sauvegarde mksysb va tre enregistre. Par exemple, pour crer le rpertoire /home/backup, entrez :
mkdir /home/backup

2. Montez un rpertoire export sur le rpertoire de montage. Par exemple :


mount server1:/export/ios_backup /home/backup

o server1 dsigne le serveur NIM partir duquel vous allez effectuer la restauration de Virtual I/O Server. 3. Excutez la commande backupios avec loption -file. Indiquez le chemin daccs au rpertoire mont. Par exemple :
backupios -file /home/backup/filename.mksysb -mksysb

o filename dsigne le nom de limage mksysb cre par cette commande dans le rpertoire indiqu. Vous pouvez utiliser limage mksysb pour restaurer Virtual I/O Server partir dun serveur NIM.

134

Virtual I/O Server

4. Si vous envisagez de restaurer Virtual I/O Server sur un autre systme que celui partir duquel il a t sauvegard, vous devez sauvegarder les units virtuelles dfinies par lutilisateur. Pour plus dinformations, voir Sauvegarde des units virtuelles dfinies par lutilisateur.

Sauvegarde des units virtuelles dfinies par lutilisateur


Outre la sauvegarde de Virtual I/O Server, vous devez galement sauvegarder les units virtuelles dfinies par lutilisateur (comme les mappages dunits virtuelles) dans lventualit dun incident systme ou dun sinistre.

Avant de commencer
Les units dfinies par lutilisateur contiennent des mtadonnes, telles que des mappages dunits virtuelles, qui dfinissent la relation existant entre lenvironnement physique et lenvironnement virtuel. Dans les cas o vous envisagez de restaurer Virtual I/O Server sur un nouveau systme ou un systme diffrent (par exemple, en cas de panne systme ou dun sinistre), vous devez sauvegarder Virtual I/O Server ainsi que les units virtuelles dfinies par lutilisateur. Avant de commencer, effectuez les tches suivantes : 1. Sauvegardez Virtual I/O Server sur bande, DVD ou systme de fichiers distant. Pour plus dinformations, consultez lune des procdures suivantes : v Sauvegarde du serveur Virtual I/O Server sur bande, la page 132 v Sauvegarde du serveur Virtual I/O Server sur un ou plusieurs DVD, la page 132 v Sauvegarde du serveur Virtual I/O Server sur un systme de fichiers distant via un fichier nim_resources.tar, la page 133 v Sauvegarde du serveur Virtual I/O Server sur un systme de fichiers distant via une image mksysb, la page 134 2. Dcidez si vous souhaitez crer un script de la procdure suivante. La cration de scripts pour ces commandes facilite la planification de sauvegardes automatiques des informations.

A propos de cette tche


Pour sauvegarder des units virtuelles dfinies par lutilisateur, procdez comme suit : 1. Rpertoriez les groupes de volumes (et les pools de stockage) afin de dterminer quelles structures de disques dfinies par lutilisateur vous voulez sauvegarder laide de la commande suivante :
lsvg

2. Activez chaque groupe de volumes (et pool de stockage) sauvegarder en excutant la commande suivante pour chacun deux :
activatevg volume_group

o volume_group est le nom du groupe de volumes (ou pool de stockage) activer. 3. Sauvegardez chaque groupe de volumes (et pool de stockage) en excutant la commande suivante pour chacun deux :
savevgstruct volume_group

o volume_group est le nom du groupe de volumes (ou pool de stockage) sauvegarder. Cette commande enregistre une sauvegarde de la structure dun groupe de volumes (et par consquent un pool de stockage) dans le rpertoire /home/ios/vgbackups. 4. Enregistrez les informations sur les paramtres rseau, les cartes, les utilisateurs et les paramtres de scurit dans le rpertoire /home/padmin en associant chaque commande la commande tee, comme suit :
command | tee /home/padmin/filename

O :
Virtual I/O Server

135

v command est le nom de la commande qui gnre les informations que vous voulez sauvegarder. v filename est le nom du fichier dans lequel vous voulez enregistrer les informations.
Tableau 35. Commandes qui fournissent les informations sauvegarder Commande cfgnamesrv -ls Informations fournies Affiche toutes les entres de la base de donnes de configuration du systme relatives aux informations de serveur de noms de domaine utilises par les routines Resolver locales. Affiche les statistiques des units et des pilotes Ethernet de lunit indique.

entstat -all devicename devicename est le nom dune unit dont vous voulez sauvegarder les attributs ou les statistiques. Excutez cette commande pour chaque unit dont vous voulez sauvegarder les attributs ou les statistiques. hostmap -ls ioslevel lsdev -dev devicename -attr devicename est le nom dune unit dont vous voulez sauvegarder les attributs ou les statistiques. Excutez cette commande pour chaque unit dont vous voulez sauvegarder les attributs ou les statistiques. lsdev -type adapter lsuser netstat -routinfo netstat -state optimizenet -list

Affiche toutes les entres dans la base de donnes de configuration du systme. Affiche le niveau de maintenance actuel de Virtual I/O Server. Affiche les attributs de lunit indique.

Affiche les informations relatives aux cartes physiques et logiques. Affiche une liste de tous les attributs de lensemble des utilisateurs systme. Affiche les tables de routage, y compris les cots configurs par lutilisateur et en cours de chaque route. Affiche ltat de toutes les interfaces configures. Affiche les caractristiques de lensemble des paramtres doptimisation du rseau, y compris la valeur en cours et de ramorage, la plage, lunit, le type et les dpendances. Affiche la liste des ports autoriss. Affiche tous les paramtres de niveau de scurit relatifs au mode non interactif.

viosecure -firewall view viosecure -view -nonint

Planification des sauvegardes de Virtual I/O Server


Vous pouvez planifier des sauvegardes rgulires de Virtual I/O Server et des units virtuelles dfinies afin de sassurer que votre copie de sauvegarde reflte prcisment la configuration actuelle.

A propos de cette tche


Pour sassurer que votre sauvegarde de Virtual I/O Server reflte le serveur Virtual I/O Server en cours dexcution, vous devez sauvegarder Virtual I/O Server chaque fois que sa configuration est modifie. Par exemple : v Modification de Virtual I/O Server, telle que linstallation dun groupe de correctifs. v Ajout, suppression ou modification de la configuration des units externes, tels que la modification de la configuration SAN.

136

Virtual I/O Server

v Ajout, suppression ou modification des allocations de ressource et attributions pour Virtual I/O Server, par exemple, la mmoire, les processeurs ou les units physiques et virtuelles. v Ajout, suppression ou modification des configurations dunits virtuelles dfinies par lutilisateur, par exemple, les mappages dunits virtuelles. Avant de commencer, vrifiez que vous tes connect au Virtual I/O Server sous le nom dutilisateur de ladministrateur principal (padmin). Pour sauvegarder Virtual I/O Server et les units virtuelles dfinies par lutilisateur, procdez comme suit : 1. Crez un script destin sauvegarder Virtual I/O Server, puis enregistrez-le dans un rpertoire auquel peut accder lID utilisateur padmin. Par exemple, crez un script nomm backup et enregistrez-le dans le rpertoire /home/padmin. Assurez-vous que votre script inclut des commandes permettant de sauvegarder Virtual I/O Server ainsi que des informations de sauvegarde sur les units virtuelles dfinies par lutilisateur. 2. Crez une entre de fichier crontab qui excute le script backup intervalles rguliers. Par exemple, pour excuter le script backup chaque samedi 2:00 a.m., entrez les commandes suivantes : a. crontab -e b. 0 2 0 0 6 /home/padmin/backup Lorsque vous aurez termin, pensez enregistrer le script et quittez lapplication.

Sauvegarde du serveur Virtual I/O Server laide du gestionnaire Tivoli Storage Manager
Vous pouvez utiliser le gestionnaire Tivoli Storage Manager pour sauvegarder automatiquement Virtual I/O Server intervalles rguliers ou effectuer des sauvegardes incrmentielles. Sauvegarde du serveur Virtual I/O Server laide de la fonction automatise du gestionnaire Tivoli Storage Manager : Vous pouvez automatiser les sauvegardes de Virtual I/O Server laide de la commande crontab et du planificateur Tivoli Storage Manager. A propos de cette tche Avant de commencer, effectuez les tches suivantes : v Vrifiez que vous avez configur le client Tivoli Storage Manager sur le serveur Virtual I/O Server. Pour plus dinformations, voir Configuration du client Tivoli Storage Manager, la page 116. v Veillez vous connecter au Virtual I/O Server sous le nom dutilisateur de ladministrateur principal (padmin). Pour automatiser les sauvegardes de Virtual I/O Server, procdez comme suit : 1. Ecrivez un script destin crer une image mksysb de Virtual I/O Server et enregistrez-le dans un rpertoire accessible par lID utilisateur padmin. Par exemple, crez un script nomm backup et enregistrez-le dans le rpertoire /home/padmin. Si vous envisagez de restaurer Virtual I/O Server sur un autre systme que celui partir duquel il a t sauvegard, veillez inclure au script les commandes de sauvegarde des informations relatives aux units virtuelles dfinies par lutilisateur. Pour plus dinformations, consultez les procdures suivantes : v Pour plus dinformations sur la cration dune image mksysb, voir Sauvegarde du serveur Virtual I/O Server sur un systme de fichiers distant via une image mksysb, la page 134. v Pour plus dinformations sur la sauvegarde des units virtuelles dfinies par lutilisateur, voir Sauvegarde des units virtuelles dfinies par lutilisateur, la page 135. 2. Crez une entre de fichier crontab qui excute le script backup intervalles rguliers. Par exemple, pour crer une image mksysb chaque samedi 2:00, entrez les commandes suivantes :
Virtual I/O Server

137

a. crontab -e b. 0 2 0 0 6 /home/padmin/backup Lorsque vous aurez termin, pensez enregistrer le script et quittez lapplication. 3. Avec laide de ladministrateur de Tivoli Storage Manager, associez le noeud du client Tivoli Storage Manager un ou plusieurs plannings du domaine de rgles. Cette tche nest pas excute sur le client Tivoli Storage Manager du serveur Virtual I/O Server. Elle est excute par ladministrateur de Tivoli Storage Manager sur le serveur du gestionnaire Tivoli Storage Manager. 4. Lancez le planificateur client et connectez-vous au planning du serveur laide de la commande dsmc :
dsmc -schedule

5. Pour redmarrer le planificateur client lors du redmarrage du serveur Virtual I/O Server, ajoutez lentre suivante au fichier /etc/inittab :
itsm::once:/usr/bin/dsmc sched > /dev/null 2>&1 # planificateur TSM

Sauvegarde du serveur Virtual I/O Server laide de la sauvegarde incrmentielle du gestionnaire Tivoli Storage Manager : Vous pouvez sauvegarder tout moment Virtual I/O Server en effectuant une sauvegarde incrmentielle laide de Tivoli Storage Manager. A propos de cette tche Excutez une sauvegarde incrmentielle lorsque la sauvegarde automatique ne convient pas. Par exemple, avant de mettre niveau Virtual I/O Server, effectuez une sauvegarde incrmentielle pour obtenir une sauvegarde de la configuration en cours. Aprs la mise niveau de Virtual I/O Server, effectuez une autre sauvegarde incrmentielle pour sauvegarder la configuration de la mise niveau. Avant de commencer, effectuez les tches suivantes : v Vrifiez que vous avez configur le client Tivoli Storage Manager sur le serveur Virtual I/O Server. Pour plus dinformations, voir Configuration du client Tivoli Storage Manager, la page 116. v Assurez-vous de disposer dune image mksysb de Virtual I/O Server. Si vous envisagez de restaurer Virtual I/O Server sur un autre systme que celui partir duquel il a t sauvegard, veillez inclure limage mksysb les informations relatives aux units virtuelles dfinies par lutilisateur. Pour plus dinformations, consultez les procdures suivantes : Pour plus dinformations sur la cration dune image mksysb, voir Sauvegarde du serveur Virtual I/O Server sur un systme de fichiers distant via une image mksysb, la page 134. Pour plus dinformations sur la sauvegarde des units virtuelles dfinies par lutilisateur, voir Sauvegarde des units virtuelles dfinies par lutilisateur, la page 135. Pour effectuer une sauvegarde incrmentielle de Virtual I/O Server, lancez la commande dsmc. Par exemple :
dsmc -incremental SpecFichierSource

o SpecFichierSource est le chemin du rpertoire contenant le fichier mksysb. Par exemple, /home/padmin/mksysb_image.

Restauration de Virtual I/O Server


Vous pouvez restaurer Virtual I/O Server et les units virtuelles dfinies par lutilisateur laide de la commande installios ou Tivoli Storage Manager.

138

Virtual I/O Server

A propos de cette tche


Les informations du serveur Virtual I/O Server restaurer sont les suivantes : Virtual I/O Server et les units virtuelles dfinies par lutilisateur. v Virtual I/O Server contient le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur. Toutes ces informations sont restaures lorsque vous utilisez la commande installios. Dans les cas o vous envisagez de restaurer Virtual I/O Server sur le mme systme partir duquel il a t sauvegard, la restauration de Virtual I/O Server est gnralement suffisante. v Les units dfinies par lutilisateur contiennent des mtadonnes, telles que des mappages dunits virtuelles, qui dfinissent la relation existant entre lenvironnement physique et lenvironnement virtuel. Ces donnes permettent de crer nouveau les units virtuelles. Si vous envisagez de restaurer Virtual I/O Server sur un autre systme ou un nouveau systme (par exemple, en cas dune panne systme ou dun sinistre), vous devez restaurer Virtual I/O Server et crer nouveau les units virtuelles. Dautre part, dans ces situations, vous devez galement restaurer les composants suivants de votre environnement pour restaurer intgralement la configuration de Virtual I/O Server : Les configurations dunits externes, comme les units de rseau de systmes (SAN). Les ressources dfinies sur la console HMC (Hardware Management Console), telles que les allocations de mmoire et de processeur. Ceci implique de restaurer vos donnes de profil de partition HMC du serveur Virtual I/O Server et ses partitions client. Les systmes dexploitation et les applications excutes dans les partitions logiques client. Vous pouvez sauvegarder et restaurer Virtual I/O Server comme suit.
Tableau 36. Mthodes de sauvegarde et de restauration de Virtual I/O Server Mthode de sauvegarde Sur bande Sur DVD Sur le systme de fichiers distant Support Bande DVD-RAM image nim_resources.tar Mthode de restauration A partir dune bande A partir dun DVD A partir dune console HMC laide de la fonction Network Installation Management (NIM) sur Linux et de la commande installios A partir dun serveur NIM AIX 5L et dune installation de systme mksysb standard Tivoli Storage Manager

Sur le systme de fichiers distant

image mksysb

Tivoli Storage Manager

image mksysb

Restauration de Virtual I/O Server partir dune bande magntique


Vous pouvez restaurer diffrentes donnes de Virtual I/O Server partir dune bande : le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur.

Avant de commencer
Si le systme est gr par Integrated Virtualization Manager, vous devez restaurer vos donnes de profil de partition pour la partition de gestion et ses clients avant de restaurer Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des donnes de partition. (Vous avez galement la possibilit dutiliser la commande rstprofdata.)

A propos de cette tche


Pour restaurer Virtual I/O Server partir dune bande, procdez comme suit :

Virtual I/O Server

139

1. Indiquez, laide de la commande bootlist la partition logique Virtual I/O Server amorcer partir de la bande. Par ailleurs, vous pouvez modifier la liste des units damorage dans les menus SMS (System Management Services). 2. 3. 4. 5. Insrez la bande dans lunit de bande. Dans le menu SMS, choisissez deffectuer linstallation partir de lunit de bande. Suivez les tapes dinstallation conformment aux invites du systme. Si vous avez effectu une restauration de Virtual I/O Server sur un autre systme que celui partir duquel il a t sauvegard, vous devez restaurer les units virtuelles dfinies par lutilisateur. Pour plus dinformations, voir Restauration des units virtuelles dfinies par lutilisateur, la page 142.

Restauration de Virtual I/O Server partir dun ou plusieurs DVD


Vous pouvez restaurer diffrentes donnes de Virtual I/O Server partir dun ou plusieurs DVD : le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur.

Avant de commencer
Si le systme est gr par Integrated Virtualization Manager, vous devez restaurer vos donnes de profil de partition pour la partition de gestion et ses clients avant de restaurer Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des donnes de partition. (Vous avez galement la possibilit dutiliser la commande rstprofdata.)

A propos de cette tche


Pour restaurer Virtual I/O Server partir dun ou de plusieurs DVD, procdez comme suit: 1. Indiquez, laide de la commande bootlist, la partition Virtual I/O Server amorcer partir du DVD. Par ailleurs, vous pouvez modifier la liste des units damorage dans les menus SMS (System Management Services). 2. Insrez le DVD dans lunit de disque optique. 3. Dans le menu SMS, choisissez deffectuer linstallation partir de lunit de disque optique. 4. Suivez les tapes dinstallation conformment aux invites du systme. 5. Si vous avez effectu une restauration de Virtual I/O Server sur un autre systme que celui partir duquel il a t sauvegard, vous devez restaurer les units virtuelles dfinies par lutilisateur. Pour plus dinformations, voir Restauration des units virtuelles dfinies par lutilisateur, la page 142.

Restauration de Virtual I/O Server partir dun fichier nim_resources.tar via la console HMC
Vous pouvez restaurer diffrentes donnes de Virtual I/O Server (le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur) partir dune image nim_resources.tar stocke sur un systme de fichiers distant.

Avant de commencer
Si le systme est gr par Integrated Virtualization Manager, vous devez restaurer vos donnes de profil de partition pour la partition de gestion et ses clients avant de restaurer Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des donnes de partition. (Vous avez galement la possibilit dutiliser la commande rstprofdata.)

A propos de cette tche


Pour restaurer Virtual I/O Server partir dune image nim_resources.tar dans un systme de fichiers, procdez comme suit :

140

Virtual I/O Server

1. Excutez la commande installios partir de la ligne de commande de la console HMC. Cette procdure vise restaurer une image de sauvegarde, nim_resources.tar, initialement cre laide de la commande backupios. 2. Suivez les tapes dinstallation conformment aux invites du systme. La source des images dinstallation est le rpertoire export lors de la procdure de sauvegarde. Par exemple, server1:/export/ios_backup. 3. Lorsque la restauration est termine, ouvrez une connexion de terminal virtuel (par exemple, laide de telnet) au systme Virtual I/O Server que vous avez restaur. Vous devrez peut-tre fournir dautres informations. 4. Si vous restaurez Virtual I/O Server sur un autre systme que celui utilis pour la sauvegarde, vous devez restaurer les units virtuelles dfinies par lutilisateur. Pour plus dinformations, voir Restauration des units virtuelles dfinies par lutilisateur, la page 142.

Restauration de Virtual I/O Server via un serveur NIM partir dun fichier mksysb
Vous pouvez restaurer diffrentes donnes de Virtual I/O Server (le code de base, les groupes de correctifs appliqus, les pilotes dunits personnaliss permettant de prendre en charge les sous-systmes de disque et certaines mtadonnes dfinies par lutilisateur) partir dune image mksysb stocke sur un systme de fichiers distant.

Avant de commencer
Avant de commencer, effectuez les tches suivantes : v Vrifiez que le serveur sur lequel vous envisagez de restaurer Virtual I/O Server est dfini comme tant une ressource Network Installation Management (NIM). v Vrifiez que le fichier mksysb (qui contient la sauvegarde de Virtual I/O Server) rside sur le serveur NIM. v Si le systme est gr par Integrated Virtualization Manager, vous devez restaurer vos donnes de profil de partition pour la partition de gestion et ses clients avant de restaurer Virtual I/O Server. Pour obtenir des instructions, voir Sauvegarde et restauration des donnes de partition. (Vous avez galement la possibilit dutiliser la commande rstprofdata.)

A propos de cette tche


Pour restaurer Virtual I/O Server partir dune image mksysb dans un systme de fichiers, procdez comme suit : 1. Dfinissez le fichier mksysb comme tant une ressource NIM, en particulier un objet NIM, en excutant la commande nim. Pour afficher la description dtaille de la commande nim, voir Commande nim. Exemple :
nim -o define -t mksysb -a server=servername -alocation=/export/ios_backup/ filename.mksysb objectname

O : v servername dsigne le nom du serveur comportant la ressource NIM. v filename dsigne le nom du fichier mksysb. v objectname dsigne le nom utilis par NIM pour lenregistrement et lidentification du fichier mksysb. 2. Dfinissez une ressource Shared Product Object Tree (SPOT) pour le fichier mksysb laide de la commande nim. Exemple :
nim -o define -t spot -a server=servername -a location=/export/ios_backup/ SPOT -a source=objectname SPOTname

O : v servername dsigne le nom du serveur comportant la ressource NIM.


Virtual I/O Server

141

v objectname dsigne le nom utilis par NIM pour lenregistrement et lidentification du fichier mksysb. v SPOTname est le nom dobjet NIM pour limage mksysb cre ltape prcdente. 3. Installez Virtual I/O Server partir du fichier mksysb laide de la commande smit. Exemple :
smit nim_bosinst

Vrifiez que les zones de saisie suivantes contiennent les spcifications ci-aprs.
Tableau 37. Spcifications relatives la commande SMIT Zone TYPE dinstallation SPOT MKSYSB Remain NIM client after install? Spcification mksysb SPOTname ltape 3 objectname ltape 2 no

4. Dmarrez la partition logique Virtual I/O Server. Pour plus dinformations, reportez-vous ltape 3, Boot the Virtual I/O Server, du document Installing the Virtual I/O Server using NIM. 5. Si vous restaurez Virtual I/O Server sur un autre systme que celui utilis pour la sauvegarde, vous devez restaurer les units virtuelles dfinies par lutilisateur. Pour plus dinformations, voir Restauration des units virtuelles dfinies par lutilisateur. Information associe Using the NIM define operation Defining a SPOT resource Installing a client using NIM

Restauration des units virtuelles dfinies par lutilisateur


Outre la restauration de Virtual I/O Server, vous pouvez tre amen restaurer les units virtuelles dfinies par lutilisateur (comme les mappages dunits virtuelles), par exemple, dans lventualit dun incident systme, dune migration ou dun sinistre du systme.

Avant de commencer
Les units dfinies par lutilisateur contiennent des mtadonnes, telles que des mappages dunits virtuelles, qui dfinissent la relation existant entre lenvironnement physique et lenvironnement virtuel. Dans les cas o vous envisagez de restaurer Virtual I/O Server sur un nouveau systme ou un systme diffrent (par exemple, en cas de panne systme ou de sinistre), vous devez sauvegarder Virtual I/O Server ainsi que les units virtuelles dfinies par lutilisateur. En premier lieu, restaurez Virtual I/O Server sur bande, DVD ou systme de fichiers distant. Pour plus dinformations, consultez lune des procdures suivantes : v Restauration de Virtual I/O Server partir dune bande magntique, la page 139 v Restauration de Virtual I/O Server partir dun ou plusieurs DVD, la page 140 v Restauration de Virtual I/O Server partir dun fichier nim_resources.tar via la console HMC, la page 140 v Restauration de Virtual I/O Server via un serveur NIM partir dun fichier mksysb, la page 141

A propos de cette tche


Pour restaurer des units virtuelles dfinies par lutilisateur, procdez comme suit :

142

Virtual I/O Server

1. Rpertoriez tous les groupes de volumes sauvegards (ou pools de stockage) laide de la commande suivante :
restorevgstruct -ls

Cette commande rpertorie les fichiers contenus dans le rpertoire /home/ios/vgbackups. 2. Excutez la commande lspv afin de dterminer les disques vides. 3. Restaurez les groupes de volumes (ou les pools de stockage) pour vider les disques, en excutant la commande suivante pour chaque groupe de volumes (ou pool de stockage) :
restorevgstruct -vg volumegroup hdiskx

O : v volumegroup dsigne le nom dun groupe de volumes (ou pool de stockage) de ltape 1. v hdiskx dsigne le nom dun disque vide de ltape 2. 4. Recrez les mappages existant entre les units virtuelles et les units physiques (y compris les mappages dunits de stockage, les mappages de carte Ethernet partages et de carte Ethernet, ainsi que les paramtres LAN virtuels) laide de la commande mkvdev. Des informations sur le mappage sont disponibles dans le fichier que vous avez indiqu dans la commande tee partir de la procdure de sauvegarde. Par exemple, /home/padmin/filename.

Restauration de Virtual I/O Server avec Tivoli Storage Manager


Vous pouvez utiliser Tivoli Storage Manager pour restaurer limage mksysb de Virtual I/O Server.

A propos de cette tche


Vous pouvez restaurer Virtual I/O Server sur le systme partir duquel il a t sauvegard, ou sur un autre systme (par exemple, en cas de dfaillance ou de sinistre sur le systme). La procdure ci-dessous permet de restaurer Virtual I/O Server sur le systme partir duquel il a t sauvegard. Commencez par restaurer limage mksysb sur le serveur Virtual I/O Server en excutant la commande dsmc sur le client Tivoli Storage Manager. Mais Virtual I/O Server nest pas restaur lors de la restauration de limage mksys. Vous devez ensuite transfrer limage mksysb sur un autre systme et la convertir dans un format installable. Pour restaurer Virtual I/O Server sur un autre systme, suivez lune des procdures ci-dessous : v Restauration de Virtual I/O Server partir dune bande magntique, la page 139 v Restauration de Virtual I/O Server partir dun ou plusieurs DVD, la page 140 v Restauration de Virtual I/O Server partir dun fichier nim_resources.tar via la console HMC, la page 140 v Restauration de Virtual I/O Server via un serveur NIM partir dun fichier mksysb, la page 141 Avant de commencer, effectuez les tches suivantes : 1. Vrifiez que le systme sur lequel vous souhaitez transfrer limage mksysb excute AIX. 2. Vrifiez que le systme qui excute AIX comporte une unit DVD-RW ou CD-RW. 3. Vrifiez que les RPM cdrecord et mkisofs ont t tlchargs et installs sur AIX. Pour tlcharger et installer les RPM, consultez le site Web AIX Toolbox for Linux Applications. Restriction : Le mode interactif nest pas pris en charge sur le serveur Virtual I/O Server. Pour visualiser les informations relatives aux sessions, entrez la commande dsmc sur la ligne de commande de Virtual I/O Server. Pour restaurer leVirtual I/O Server avec Tivoli Storage Manager, procdez comme suit : 1. Identifiez le fichier restaurer en excutant la commande dsmc. Celle-ci permet dafficher les fichiers qui ont t sauvegards sur le serveur Tivoli Storage Manager :
Virtual I/O Server

143

dsmc -query

2. Restaurez limage mksysb laide de la commande dsmc. Exemple :


dsmc -restore SpecFichierSource

o SpecFichierSource est le chemin du rpertoire dans lequel vous souhaitez restaurer limage mksysb image. Par exemple, /home/padmin/mksysb_image 3. Transfrez limage mksysb sur un serveur muni dune unit DVD-RW ou CD-RW en excutant les commandes FTP suivantes : a. Assurez-vous que le serveur FTP est dmarr sur le serveur Virtual I/O Server en excutant la commande suivante : startnetsvc ftp b. Assurez-vous que le serveur FTP est dmarr sur le serveur Virtual I/O Server en excutant la commande suivante : startnetsvc ftp c. Ouvrez une session FTP sur le serveur muni dune unit DVD-RW ou CD-RW : ftp nom_hte_serveur, o nom_hte_serveur est le nom dhte du serveur muni dune unit DVD-RW ou CD-RW. d. A linvite FTP, changez le rpertoire dinstallation pour slectionner le rpertoire dans lequel vous souhaitez enregistrer limage mksysb. e. Paramtrez le mode de transfert sur binaire : binary f. Dsactivez linvite en mode interactif (si actif) : prompt g. Transfrez limage mksysb sur le serveur : mput mksysb_image h. Aprs le transfert de limage mksysb, fermez la session FTP en entrant quit. 4. Enregistrez limage mksysb sur un CD ou un DVD laide de la commande mkcd ou mkdvd. 5. Rinstallez Virtual I/O Server partir du CD ou du DVD que vous venez de crer. Pour plus dinformations, voir Restauration de Virtual I/O Server partir dun ou plusieurs DVD, la page 140. Rfrence associe Commande mkcd Commande mkdvd

Installation ou remplacement dune carte PCI sur le serveur Virtual I/O Server lorsque le systme est sous tension
Vous pouvez installer ou remplacer une carte PCI sur la partition logique Virtual I/O Server ou sur la partition de gestion Integrated Virtualization Manager.

Avant de commencer
Virtual I/O Server comporte un gestionnaire dunits PCI remplaables chaud similaire celui du systme dexploitation AIX. Le gestionnaire dunits PCI remplaables chaud permet de remplacer chaud des cartes PCI sur le serveur, puis de les activer sur la partition logique sans ramorcer le systme. Le gestionnaire dunits PCI remplaables chaud permet dajouter, didentifier et de remplacer les cartes PCI attribues au serveur Virtual I/O Server.

Guide dinitiation
Avant de commencer
Prrequis : v Pour installer une nouvelle carte, vous devez attribuer un emplacement vide du systme la partition logique Virtual I/O Server. Vous pouvez effectuer cette tche via le partitionnement logique dynamique (DLPAR).

144

Virtual I/O Server

Si vous utilisez une console HMC (Hardware Management Console), vous devez galement mettre jour le profil de partition logique Virtual I/O Server pour que la nouvelle carte soit configure sur ce serveur aprs le redmarrage du systme. Si vous utilisez le gestionnaire Integrated Virtualization Manager, un emplacement vide est probablement dj affect la partition logique Virtual I/O Server, car, par dfaut, tous les emplacements sont affects ce serveur. Il suffit daffecter un emplacement vide la partition logique Virtual I/O Server si vous avez dj affect tous les emplacements vides dautres partitions logiques. v Lorsque vous installez une nouvelle carte, veillez installer les logiciels ncessaires la prise en charge de cette carte et les ventuelles modifications provisoires du logiciel (PTF) disponibles. v Si vous avez besoin daide pour dterminer lemplacement de la carte PCI, voir Placement des cartes PCI ou Placement des cartes PCI pour le type machine 94xx.

A propos de cette tche


Pour accder au gestionnaire dunits PCI remplaables chaud du serveur Virtual I/O Server, procdez comme suit : 1. Si vous utilisez le gestionnaire Integrated Virtualization Manager, connectez-vous linterface de ligne de commande. 2. Utilisez la commande diagmenu pour ouvrir le menu de diagnostic de Virtual I/O Server. Les menus sont similaires aux menus de diagnostic de AIX. 3. Slectionnez Slection des tches, et appuyez sur Entre. 4. Dans la liste Slection des tches, slectionnez Gestionnaire dunits PCI remplaables chaud.

Installation dune carte PCI


A propos de cette tche
Pour installer une carte PCI lorsque le serveur Virtual I/O Server est sous tension, procdez comme suit : 1. Dans le gestionnaire dunits PCI remplaables chaud, slectionnez Ajouter une carte PCI remplaable chaud et appuyez sur Entre. La fentre dajout de carte PCI remplaable chaud saffiche. 2. Slectionnez lemplacement PCI vide appropri dans la liste et appuyez sur Entre. Lorsque lemplacement est identifi, il est signal par un voyant orange qui clignote rapidement larrire du serveur. 3. Suivez les instructions indiques lcran pour installer la carte, ensuite le voyant de lemplacement PCI choisi doit passer ltat daction. Linstallation de la carte, similaire la procdure effectue sur une partition logique autonome AIX, comporte les tapes suivantes : a. Voyant de la carte ltat daction : clignotement du voyant de lemplacement de la carte b. Installation physique de la carte c. Fin de la tche dinstallation de la carte avec diagmenu. 4. Lancez la commande cfgdev pour configurer lunit du serveur Virtual I/O Server.

Rsultats
Si vous installez une carte PCI Fibre Channel, elle est alors prte tre relie un rseau de systmes (SAN) et des LUN sont attribus au serveur Virtual I/O Server pour la virtualisation.

Remplacement dune carte PCI


Avant de commencer
Prrequis : Avant de retirer ou de remplacer une carte de mmoire, vous devez annuler sa configuration. Pour plus dinformations, voir Annulation de la configuration dune carte de mmoire, la page 146.
Virtual I/O Server

145

A propos de cette tche


Pour remplacer une carte PCI lorsque le serveur Virtual I/O Server est sous tension, procdez comme suit : 1. Dans le gestionnaire dunits PCI remplaables chaud, slectionnez Dconfiguration dune unit et appuyez sur Entre. 2. Appuyez sur F4 (ou Echap+4) pour afficher le menu Noms dunits. 3. Slectionnez la carte retirer dans le menu Noms dunits. 4. Dans la zone Conservation de la dfinition, rpondez Oui laide de la touche de tabulation. Dans la zone Dconfiguration des units filles, rpondez OUI laide de la touche de tabulation. 5. Appuyez sur Entre pour vrifier les informations sur lcran de confirmation de lopration. Si lannulation de la configuration est correctement effectue, le message OK saffiche ct de la zone Commande en haut de lcran. 6. Appuyez deux fois sur F4 (ou Echap+4) pour revenir au Gestionnaire dunits remplaables chaud. 7. Slectionnez Remplacement/Retrait dune carte PCI remplaable chaud. 8. Slectionnez lemplacement duquel vous souhaitez retirer lunit. 9. Slectionnez remplacer. Lorsque lemplacement est identifi, il est signal par un voyant orange qui clignote rapidement larrire de la machine. 10. Appuyez sur Entre. La carte passe alors ltat daction, cest--dire quelle peut tre retire du systme.

Annulation de la configuration dune carte de mmoire


A propos de cette tche
Avant de retirer ou de remplacer une carte de mmoire, vous devez annuler sa configuration. Les cartes de mmoire sont en gnral des units mres dunits de stockage, telles que les units de disque ou les units de bande. Pour retirer lunit mre, il est ncessaire de retirer ou de placer ltat Dfini toutes les units filles connectes. Lannulation de la configuration dune carte de mmoire comporte les tches suivantes : v Fermer toutes les applications qui utilisent la carte retirer, remplacer ou dplacer v Dmonter les systmes de fichiers v Vrifier que toutes les units relies la carte ont t identifies et arrtes v Rpertorier tous les emplacements en cours dutilisation ou lemplacement occup par une carte particulire v Identifier lemplacement de la carte v Rendre les units mre et fille indisponibles v Rendre la carte indisponible Si ladaptateur prend en charge les volumes physiques utiliss par une partition logique client, vous pouvez effectuer des oprations sur la partition logique client avant dannuler la configuration de la carte de mmoire. Pour plus dinformations, voir Prparation des partitions logiques client, la page 147. La carte peut tre en cours dutilisation lorsque, par exemple, le volume physique a t utilis pour crer une unit cible virtuelle ou fait partie dun groupe de volumes utilis pour crer une unit cible virtuelle. Pour annuler la configuration dune carte de mmoire SCSI, SSA, et Fibre Channel, procdez comme suit : 1. Connectez-vous linterface de ligne de commande Virtual I/O Server. 2. Excutez la commande oem_setup_env pour fermer toutes les applications qui utilisent la carte pour laquelle vous souhaitez annuler la configuration.

146

Virtual I/O Server

3. Entrez lsslot-c pci pour rpertorier tous les emplacements remplaables chaud de lunit centrale et afficher leurs caractristiques. 4. Entrez lsdev -C pour afficher ltat des units de lunit centrale. 5. Entrez unmount pour dmonter les fichiers systmes, les rpertoires ou les fichiers monts qui utilisent cette carte. 6. Entrez rmdev -l adapter -R pour rendre la carte indisponible. Avertissement : Nutilisez pas loption -d avec la commande rmdev pour effectuer des oprations sur les units remplaables chaud, car cette action supprime la configuration.

Prparation des partitions logiques client


A propos de cette tche
Si les units cibles virtuelles des partitions logiques client ne sont pas disponibles, cela peut faire chouer ces partitions logiques ou leurs oprations dE-S pour une application particulire. Si vous utilisez la console HMC pour grer le systme, des partitions logiques Virtual I/O Server peuvent tre redondantes, ce qui permet la maintenance de ce serveur et vite toute immobilisation des partitions logiques client. Lorsque vous remplacez un adaptateur sur le serveur Virtual I/O Server si votre partition logique client dpend dun ou plusieurs volumes physiques lis cet adaptateur, vous pouvez effectuer des oprations sur le client avant dannuler la configuration de ladaptateur. Les units cibles virtuelles doivent se trouver ltat Dfini avant le remplacement de la carte du serveur Virtual I/O Server. Ne retirez pas les units virtuelles de faon dfinitive. Pour prparer des partitions logiques client en vue de lannulation de la configuration dune carte, effectuez les oprations ci-aprs en fonction de votre contexte.
Tableau 38. Procdures de prparation de partitions logiques client en fonction du contexte Contexte Vous disposez de matriel redondant pour la carte sur le serveur Virtual I/O Server. Systmes grs par la console HMC uniquement : Vous disposez de partitions logiques redondantes Virtual I/O Server qui, associes des cartes client virtuelles, offrent plusieurs chemins daccs au volume physique de la partition logique client. Systmes grs par la console HMC uniquement : Vous disposez de partitions logiques redondantes Virtual I/O Server qui, associes des cartes client virtuelles, offrent plusieurs volumes physiques qui permettent de mettre en miroir un groupe de volumes. Vous navez pas de partitions logiques redondantes Virtual I/O Server. Etapes Aucune opration nest requise sur la partition logique client. Aucune opration nest requise sur la partition logique client. Cependant, des erreurs de chemin daccs peuvent y tre consignes.

Consultez les procdures relatives au systme dexploitation du client.

Arrtez la partition logique client. Pour plus dinformations, voir les rubriques suivantes relatives larrt des partitions logiques : v Pour les systmes grs par la console HMC, voir Arrt de partitions logiques AIX laide de la console HMC et Arrt de partitions logiques Linux laide de la console HMC dans Partitionnement logique.1 v Pour les systmes grs par le gestionnaire Integrated Virtualization Manager, voir Arrt des partitions logiques, la page 148.

Le Partitionnement logique figure sur Site Web Hardware Information Center ladresse ajouter lURL ici

Virtual I/O Server

147

Arrt des partitions logiques


Vous pouvez utiliser le gestionnaire Integrated Virtualization Manager pour arrter les partitions logiques ou lensemble du systme gr.

Avant de commencer
Utilisez tout autre rle autre que View Only pour excuter cette tche.

A propos de cette tche


Integrated Virtualization Manager fournit les types suivants doption darrt pour les partitions logiques : v Systme dexploitation (recommand) v Diffr v Immdiat La mthode darrt recommande consiste utiliser la commande darrt des systmes dexploitation client. Nutilisez la mthode darrt immdiat quen dernier recours car lutilisation de cette mthode entrane un arrt anormal pouvant aboutir la perte des donnes. Si vous choisissez la mthode darrt diffr, prenez en compte les remarques suivantes : v Arrter une partition logique revient appuyer de faon prolonge sur le bouton blanc de mise sous tension du panneau de commande dun serveur non partitionn. v Nutilisez cette procdure que si vous ne parvenez pas arrter les partitions logiques laide des commandes du systme dexploitation. Lorsque vous utilisez cette procdure pour arrter les partitions logiques slectionnes, larrt nest effectif quau terme dun dlai prdtermin. Cela laisse aux partitions logiques le temps de terminer les travaux entrepris et denregistrer les donnes sur les disques. Si la partition logique ne parvient pas sarrter dans le dlai imparti, elle sarrte de manire anormale et le prochain redmarrage peut prendre un certain temps. Si vous envisagez darrter lintgralit du systme gr, arrtez chaque partition logique client, puis arrtez la partition de gestion Virtual I/O Server. Pour arrter une partition logique, procdez comme suit dans le gestionnaire Integrated Virtualization Manager : 1. Dans la zone de navigation, slectionnez View/Modify Partitions sous Partition Management. La page permettant dafficher et de modifier les partitions saffiche. 2. Slectionnez la partition logique arrter. 3. Dans le menu Tasks, cliquez sur Shutdown. La page Shutdown Partitions saffiche. 4. Slectionnez le type darrt. 5. Facultatif : Slectionnez loption de redmarrage aprs larrt si vous souhaitez que la partition logique dmarre immdiatement aprs son arrt. 6. Cliquez sur OK pour arrter la partition. La page View/Modify Partitions saffiche et ltat de la partition logique indique larrt.

Affichage des informations et des statistiques sur le serveur Virtual I/O Server, sur le serveur et sur les ressources virtuelles
Vous pouvez afficher des informations et des statistiques sur le serveur Virtual I/O Server, sur le serveur et sur les ressources virtuelles, pour pouvoir mieux grer et contrler le systme, et rsoudre les incidents.

148

Virtual I/O Server

A propos de cette tche


Le tableau suivant rcapitule les informations et statistiques disponibles sur le serveur Virtual I/O Server, ainsi que les commandes que vous devez excuter pour les afficher.
Tableau 39. Informations et commandes associes pour Virtual I/O Server Informations afficher Statistiques relatives aux units dexcution du noyau, la mmoire virtuelle, aux disques, aux interruptions et lactivit du processeur. Statistiques relatives un pilote de priphrique Fibre Channel. Rsum de lutilisation de la mmoire virtuelle. Commande vmstat

fcstat svmon

Informations relatives au Virtual I/O Server et au uname serveur, comme le modle de serveur, lID machine, lID et le nom de la partition Virtual I/O Server, et le numro du rseau local. Statistiques gnriques et spcifiques pour un pilote ou priphrique Ethernet, notamment les informations suivantes pour une carte Ethernet partage : v Statistiques relatives une carte Ethernet partage : Nombre de cartes relles et virtuelles (si vous utilisez la fonction de reprise par transfert de carte Ethernet partage, ce nombre ninclut pas la carte du canal de contrle) Options relatives une carte Ethernet partage ID VLAN Informations sur les cartes relles et virtuelles v Statistiques sur la reprise par transfert de carte Ethernet partage : Statistiques sur la haute disponibilit Types de paquet Etat de la carte Ethernet partage Mode de pontage v Statistiques sur le protocole GVRP (GARP VLAN Registration Protocol) : Statistiques sur les units BPDU (Bridge Protocol Data Unit) Statistiques sur le protocole GARP (Generic Attribute Registration Protocol) Statistiques sur le protocole GVRP (GARP VLAN Registration Protocol) v Liste des statistiques de chaque carte associe la carte Ethernet partage enstat

Les commandes vmstat, fcstat, svmon, et uname sont disponibles avecVirtual I/O Server version 1.5 ou ultrieure.

Surveillance de Virtual I/O Server


Vous pouvez surveiller Virtual I/O Server laide des journaux des erreurs ou de lagent Tivoli Monitoring.
Virtual I/O Server

149

Journaux derreurs
Les partitions logiques client AIX et Linux consignent les erreurs dE-S. Normalement, les erreurs matrielles survenant sur les partitions logiques client associes des units virtuelles correspondent des erreurs consignes sur le serveur. Toutefois, si lincident se produit au sein de la partition logique client, aucune erreur nest signale sur le serveur. En outre, sur les partitions logiques client Linux, si lalgorithme correspondant aux relances aprs des erreurs temporaires SCSI est diffrent de celui utilis par AIX, les erreurs risquent de ne pas tre enregistres sur le serveur.

Tivoli Monitoring
Avec Virtual I/O Server V1.3.0.1 (groupe de correctifs 8.1), vous pouvez installer et configurer lagent Tivoli Monitoring System Edition sur le serveur Virtual I/O Server. Tivoli Monitoring System Edition permet de surveiller la sant et la disponibilit de plusieurs serveurs (y compris Virtual I/O Server) partir du portail Tivoli Enterprise. Tivoli Monitoring System Edition regroupe les donnes de Virtual I/O Server, notamment les donnes relatives aux volumes physiques, aux volumes logiques, aux pools de stockage, aux mappages de mmoire, aux mappages de rseau, la mmoire relle, aux ressources de processeur, la taille des systmes de fichiers monts, etc. Le portail Tivoli Enterprise permet de visualiser une reprsentation graphique des donnes, dutiliser des seuils prdfinis afin de recevoir des alertes sur les mesures cls et de rsoudre les problmes daprs les recommandations fournies par la fonction Expert Advice de Tivoli Monitoring.

Scurit sur le serveur Virtual I/O Server


Familiarisez-vous avec les dispositifs de scurit de Virtual I/O Server. A partir de la version 1.3 de Virtual I/O Server, vous pouvez dfinir des options de scurit qui offrent des contrles de scurit renforcs dans lenvironnement Virtual I/O Server. Ces options permettent de slectionner un niveau de renforcement de la scurit du systme et dindiquer les paramtres admis dans ce niveau. Le dispositif de scurit de Virtual I/O Server permet galement de contrler le trafic rseau en activant le pare-feu de Virtual I/O Server. Vous pouvez configurer ces options laide de la commande viosecure. Pour vous aider configurer la scurit systme lors de linstallation initiale de Virtual I/O Server, vous pouvez profiter du menu dassistance de configuration duVirtual I/O Server. Pour accder au menu dassistance de la configuration, excutez la commande cfgassist. A laide de la commande viosecure, vous pouvez dfinir, modifier et afficher les paramtres de scurit en cours. Par dfaut, aucun niveau de scurit Virtual I/O Server nest dfini. Vous devez excuter la commande viosecure pour changer les paramtres. Les sections suivantes dcrivent ces dispositifs.

Renforcement de la scurit du systme de Virtual I/O Server


Le dispositif de renforcement de la scurit du systme protge tous ses lments en durcissant les rgles de scurit ou en implmentant un niveau de scurit plus lev. Bien que des centaines de configurations de la scurit soient possibles avec les paramtres de scurit de Virtual I/O Server, vous pouvez facilement mettre en place des contrles de scurit en indiquant un niveau de scurit haut, moyen ou faible. A laide des dispositifs de renforcement de la scurit du systme fournis par Virtual I/O Server, vous pouvez entrer des valeurs comme suit : v Rgles sur les mots de passe v Actions usrck, pwdck, grpck et sysck v Paramtres de cration de fichier par dfaut v Paramtres inclus dans la commande crontab

150

Virtual I/O Server

La configuration dun systme un niveau de scurit trop lev risque de provoquer le rejet dun service utile. Par exemple, telnet et rlogin sont dsactivs pour le niveau de scurit lev car le mot de passe de connexion transmis nest pas chiffr sur le rseau. Si un systme est configur un niveau de scurit trop faible, le systme peut tre vulnrable aux menaces contre la scurit. Etant donn que chaque entreprise possde ses propres exigences relatives la scurit, les paramtres de scurit Elev, Moyen et Faible prdfinis sont mieux adapts comme point de dpart dune configuration de la scurit quune rponse prcise aux besoins dune entreprise en particulier en matire de scurit. Lorsque vous serez familiaris avec les paramtres de scurit, vous pourrez effectuer des ajustements en choisissant les rgles de renforcement quil convient dappliquer. Vous pouvez obtenir des informations sur les rgles de renforcement en excutant la commande man.

Pare-feu du serveur Virtual I/O Server


A laide du pare-feu de Virtual I/O Server, vous pouvez instaurer des limites sur lactivit IP dans votre environnement virtuel. Cette fonction vous permet dindiquer quels ports et services rseau sont autoriss accder au systme du serveur Virtual I/O Server. Par exemple, si vous devez restreindre lactivit de connexion depuis un port non autoris, vous pouvez indiquer le nom ou le numro du port et indiquer loption deny pour le retirer de la liste des lments autoriss. Vous pouvez galement restreindre une adresse IP.

Connexion au serveur Virtual I/O Server laide dOpenSSH


Vous pouvez tablir des connexions distantes au Virtual I/O Server laide de connexions scurises.

A propos de cette tche


Vous pouvez utiliser les logiciels Open Source Secure Sockets Layer (OpenSSL) et Portable Secure Shell (OpenSSH) pour vous connecter au Virtual I/O Server laide de connexions scurises. Pour plus dinformations sur OpenSSL et OpenSSH, consultez les sites Web OpenSSL Project et Portable SSH. Pour se connecter au Virtual I/O Server laide dOpenSSH, procdez comme suit : 1. Si vous utilisez une version de Virtual I/O Server antrieure la version 1.3.0, installez OpenSSH avant de vous connecter. Pour plus dinformations, voir Tlchargement, installation et mise jour dOpenSSH et OpenSSL, la page 152. 2. Connectez-vous au serveur Virtual I/O Server. Si vous utilisez la version 1.3.0 ou une version ultrieure, connectez-vous laide dune commande shell interactive ou non interactive. Si vous utilisez une version antrieure 1.3.0, connectez-vous uniquement laide dune commande shell interactive. v Pour vous connecter laide dune commande shell interactive, entrez la commande suivante sur la ligne de commande dun systme distant :
ssh username@vioshostname

o username dsigne votre nom dutilisateur pour Virtual I/O Server et vioshostname le nom du serveur Virtual I/O Server. v Pour vous connecter au moyen dune commande shell non interactive, excutez la commande suivante :
ssh username@vioshostname command

O : username dsigne votre nom dutilisateur Virtual I/O Server. vioshostname dsigne le nom du serveur Virtual I/O Server. command est la commande que vous souhaitez excuter. Par exemple, ioscli lsmap -all.

Virtual I/O Server

151

Remarque : Si vous utilisez une commande shell non interactive, pensez utiliser la commande complte (avec le prfixe ioscli) pour tous les commandes fr Virtual I/O Server. 3. Authentifiez-vous auprs de SSH. Si vous utilisez la version 1.3.0 ou une version ultrieure, authentifiez-vous laide de mots de passe ou de cls. Si vous utilisez une version antrieure 1.3.0, authentifiez-vous uniquement laide de mots de passe. v Pour ce faire, entrez votre nom dutilisateur et mot de passe lorsque le client SSH vous y invite. v Pour vous authentifier laide de cls, procdez comme suit dans le systme dexploitation du client SSH : a. Crez un rpertoire appel $HOME/.ssh destin contenir les cls. Vous pouvez utiliser des cls RSA ou DSA. b. Excutez la commande ssh-keygen pour gnrer des cls publiques et prives. Par exemple :
ssh-keygen -t rsa

Les fichiers ci-dessous sont crs dans le rpertoire $HOME/.ssh : Cl prive : id_rsa Cl publique : id_rsa.pub c. Excutez la commande suivante pour ajouter la cl publique au fichier authorized_keys2 sur le serveur Virtual I/O Server :
cat $HOME/.ssh/public_key_file | ssh username@vioshostname tee -a /home/username/.ssh/authorized_keys2

O : public_key_file est le fichier de cl publique gnr ltape prcdente. Par exemple, id_rsa.pub. username dsigne votre nom dutilisateur du serveur Virtual I/O Server. vioshostname dsigne le nom du serveur Virtual I/O Server.

Que faire ensuite


Virtual I/O Server peut ne pas inclure la version la plus rcente dOpenSSH ou OpenSSL avec chaque dition. Il est galement possible que des mises jour dOpenSSH ou OpenSSL soient diffuses entre les ditions Virtual I/O Server. Dans ces situations, vous pouvez mettre jour OpenSSH et OpenSSL sur le serveur Virtual I/O Server en tlchargeant et installant OpenSSH et OpenSSL. Pour plus dinformations, voir Tlchargement, installation et mise jour dOpenSSH et OpenSSL.

Tlchargement, installation et mise jour dOpenSSH et OpenSSL


Si vous utilisez un Virtual I/O Server dont la version est antrieure 1.3, vous devez tlcharger et installer les logiciels OpenSSH et OpenSSL pour tre en mesure de vous connecter au Virtual I/O Server laide de loutil OpenSSH. Vous pouvez galement appliquer cette procdure pour mettre jour OpenSSH et OpenSSL sur le serveur Virtual I/O Server.

A propos de cette tche


Une mise jour dOpenSSH et OpenSSL peut tre ncessaire sur votre Virtual I/O Server si le serveur Virtual I/O Server nintgrait pas la version la plus rcente, ou en cas de publication de nouvelles mises jour entre les diffusions de Virtual I/O Server. Dans ces situations, vous pouvez mettre jour OpenSSH et OpenSSL sur le serveur Virtual I/O Server, en tlchargeant et installant OpenSSH et OpenSSL, comme suit. Pour plus dinformations sur OpenSSL et OpenSSH, accdez aux sites Web OpenSSL Project et Portable SSH. Tlchargement des logiciels Open Source :

152

Virtual I/O Server

A propos de cette tche Le logiciel OpenSSL contient la bibliothque chiffre ncessaire pour utiliser le logiciel OpenSSH. Pour tlcharger le logiciel, procdez comme suit : 1. Tlchargez le module RPM OpenSSL sur votre poste de travail ou votre ordinateur hte. a. Pour obtenir le module RPM, connectez-vous au site Web AIX Toolbox for Linux Applications et cliquez sur le lien AIX Toolbox Cryptographic Content situ droite de la page Web. b. Si vous tes autoris tlcharger les modules RPM, enregistrez-vous et acceptez les termes du contrat de licence. c. Si vous ntes pas autoris tlcharger les modules RPM, suivez la procdure denregistrement et acceptez les termes du contrat de licence. Une fois enregistr, vous tes redirig sur la page de tlchargement. d. Slectionnez la version du module suivant tlcharger : openssl - Secure Sockets Layer and cryptography libraries and tools puis cliquez sur Download Now pour lancer le tlchargement. 2. Pour tlcharger le logiciel OpenSSH, procdez comme suit : Remarque : Vous pouvez galement installer le logiciel partir du logiciel AIX Expansion Pack. a. A partir de votre poste de travail (ou ordinateur hte de tlchargement), accdez au site Web SourceFORGE.net. b. Cliquez sur Download OpenSSH on AIX pour afficher les dernires versions du fichier. c. Slectionnez le module tlcharger correspondant et cliquez sur Download. d. Cliquez sur le module openssh (fichier tar.Z) pour continuer le tlchargement. 3. Crez un rpertoire sur le serveur Virtual I/O Server destin contenir les fichiers du logiciel Open Source. Par exemple, pour crer un rpertoire dinstallation appel install_ssh, excutez la commande suivante : mkdir install_ssh. 4. Transfrez les fichiers sur le serveur Virtual I/O Server en excutant les commandes FTP (File Transfer Protocol) sur lordinateur sur lequel vous avez tlcharg les fichiers : a. Assurez-vous que le serveur FTP est dmarr sur le serveur Virtual I/O Server en excutant la commande suivante : startnetsvc ftp b. Ouvrez une session FTP sur le serveur Virtual I/O Server de votre systme hte local : ftp vios_server_hostname, vios_server_hostname tant le nom dhte du serveur Virtual I/O Server. c. A linvite FTP, accdez au rpertoire dinstallation que vous avez cr pour les fichiers Open Source : cd install_ssh, o install_ssh correspond au rpertoire qui contient les fichiers Open Source. d. Paramtrez le mode de transfert sur binaire : binary e. Dsactivez linvite en mode interactif (si actif) : prompt f. Transfrez le logiciel tlcharg sur le serveur Virtual I/O Server : mput ssl_software_pkg, o ssl_software_pkg correspond au logiciel que vous avez tlcharg. g. Fermez la session FTP, aprs avoir transfr les deux logiciels, en entrant la commande quit. Installation du logiciel Open Source sur le serveur Virtual I/O Server : A propos de cette tche Pour installer le logiciel, procdez comme suit : 1. Excutez la commande suivante sur la ligne de commande suivante Virtual I/O Server : updateios -dev install_ssh -accept -install, o install_ssh correspond au rpertoire qui contient les fichiers Open Source. Le programme dinstallation dmarre automatiquement le dmon Secure Shell (sshd) sur le serveur. 2. Commencez utiliser les commandes ssh et scp ; aucune autre tche de configuration nest ncessaire.

Virtual I/O Server

153

Restrictions : v La commande sftp nest pas prise en charge sur les versions de Virtual I/O Server antrieures 1.3. v Les commandes shell non interactives ne sont pas prises en charge avec OpenSSH si vous utilisez une version de Virtual I/O Server antrieure 1.3.

Configuration du renforcement de la scurit du systme de Virtual I/O Server


Dfinissez le niveau de scurit afin dindiquer les rgles de renforcement de la scurit pour le systme du serveur Virtual I/O Server.

Avant de commencer
Pour implmenter des rgles de scurit du systme, vous pouvez utiliser la commande viosecure pour indiquer un niveau de scurit lev, moyen ou faible. Un ensemble de rgles par dfaut est dfini pour chaque niveau. Vous pouvez galement dfinir un niveau par dfaut, qui rtablit les paramtres standard du systme et supprime les paramtres de niveau appliqus.

A propos de cette tche


Les paramtres de scurit de niveau faible constituent un sous-ensemble des paramtres de scurit de niveau moyen, qui reprsentent eux-mmes un sous-ensemble des paramtres de scurit de niveau lev. Ainsi, le niveau lev est le plus restrictif et offre le niveau de contrle le plus important. Vous pouvez appliquer toutes les rgles dun niveau indiqu ou slectionner les rgles activer pour votre environnement. Par dfaut, aucun niveau de scurit nest dfini pour Virtual I/O Server. Vous devez excuter la commande viosecure pour modifier les paramtres. Suivez la procdure ci-aprs pour configurer les paramtres de scurit du systme :

Dfinition dun niveau de scurit


Pour dfinir un niveau de scurit lev, moyen ou faible pour le serveur Virtual I/O Server, utilisez la commande viosecure -level. Exemple :
viosecure -level low -apply

Modification des paramtres dans un niveau de scurit


Pour dfinir un niveau de scurit dans lequel vous indiquez les rgles de renforcement appliquer pour le paramtre, excutez la commande viosecure. Exemple : 1. Sur la ligne de commande du serveur Virtual I/O Server, entrez viosecure -level high. Toutes les options de niveau de scurit (rgles de renforcement) de ce niveau saffichent par groupes de dix (en appuyant sur Entre, le groupe suivant saffiche). 2. Passez en revue les options affiches et effectuez votre slection en entrant les numros, spars par une virgule, que vous voulez appliquer. Vous pouvez entrer ALL pour appliquer toutes les options ou NONE pour en appliquer aucune. 3. Appuyez sur la touche Entre pour afficher le groupe doptions suivant et continuez votre slection. Remarque : Pour quitter la commande sans effectuer de modifications, entrez q.

Affichage des paramtres de scurit en cours


Pour afficher le paramtre de niveau de scurit du serveur Virtual I/O Server en cours, utilisez la commande viosecure avec lindicateur -view. Exemple :
viosecure -view

154

Virtual I/O Server

Suppression des paramtres de niveau de scurit


v Pour annuler la dfinition des niveaux de scurit du systme et rtablir les paramtres par dfaut du systme, excutez la commande suivante : viosecure -level default v Pour supprimer les paramtres de scurit qui ont t appliqus, excutez la commande viosecure -undo

Configuration des paramtres du pare-feu du serveur Virtual I/O Server


Activez le pare-feu du serveur Virtual I/O Server pour contrler lactivit IP.

Avant de commencer
Le pare-feu du serveur Virtual I/O Server nest pas activ par dfaut. Pour lactiver, vous devez utiliser la commande viosecure en spcifiant loption -firewall. Lorsque vous activez le pare-feu, le paramtre par dfaut qui permet daccder aux services suivants est activ : v v v v v v v ftp ftp-data ssh web https rmc cimom

Remarque : Les paramtres du pare-feu sont contenus dans le fichier viosecure.ctl situ dans le rpertoire /home/ios/security. Si pour une raison quelconque, le fichier viosecure.ctl nexiste pas lorsque vous excutez la commande permettant dactiver le pare-feu, vous recevez un message derreur. Vous pouvez utiliser loption -force pour activer les ports par dfaut du pare-feu. Vous pouvez utiliser les paramtres par dfaut ou configurer les paramtres du pare-feu afin de les adapter votre environnement en indiquant les ports ou les services de port autoriser. Vous pouvez dsactiver le pare-feu pour dsactiver les paramtres.

A propos de cette tche


Utilisez la procdure suivante sur la ligne de commande de Virtual I/O Server pour configurer les paramtres du pare-feu : 1. Activez le pare-feu du serveur Virtual I/O Server en excutant la commande suivante :
viosecure -firewall on

2. Indiquez les ports autoriser ou refuser laide de la commande suivante :


viosecure -firwall allow | deny -port number

3. Affichez les paramtres actuels du pare-feu laide de la commande suivante :


viosecure -firewall view

4. Pour dsactiver la configuration du pare-feu, excutez la commande suivante :


viosecure -firewall off

Configuration dun client Kerberos sur le serveur Virtual I/O Server


Vous pouvez configurer un client Kerberos sur le serveur Virtual I/O Server pour amliorer la scurit des communications sur Internet.

Virtual I/O Server

155

Avant de commencer
Avant de commencer, assurez-vous que vous disposez de la version 1.5 (ou dune version suprieure) de Virtual I/O Server.

A propos de cette tche


Kerberos est un protocole dauthentification rseau qui fournit aux applications serveur et client une fonction dauthentification utilisant le chiffrement cl confidentielle. Il traite les communications authentifies et ventuellement chiffres entre deux points sur Internet. Lauthentification Kerberos fonctionne gnralement comme suit : 1. Un client Kerberos envoie une demande de ticket au centre de distribution de cls. 2. Le centre cre un ticket doctroi dautorisation pour le client et le chiffre en utilisant comme cl le mot de passe du client. 3. Le centre renvoie le ticket chiffr au client. 4. Le client tente ensuite de dchiffrer le ticket laide de son mot de passe. 5. Sil parvient le dchiffrer (par exemple, sil fournit le mot de passe correct), il conserve le ticket dchiffr. Le ticket constitue la preuve de lidentit du client. Pour configurer un client Kerberos sur le serveur Virtual I/O Server, excutez la commande suivante :
mkkrb5clnt -c KDC_server -r realm_name \ -s Kerberos_server -d Kerberos_client

O : v KDC_server est le nom du serveur KDC. v realm_name est le nom du domaine dans lequel vous voulez configurer le client Kerberos. v Kerberos_server est le nom de systme hte qualifi complet du serveur Kerberos. v Kerberos_client est le nom du domaine du client Kerberos. Exemple :
mkkrb5clnt -c bob.kerberso.com -r KERBER.COM \ -s bob.kerberso.com -d testbox.com

Dans cet exemple, le client Kerberos, testbox.com, est configur vers le serveur Kerberos, bob.kerberso.com. Le centre de distribution de cls sexcute sur bob.kerberso.com.

Gestion des utilisateurs sur le serveur Virtual I/O Server


Vous pouvez crer, rpertorier, modifier, commuter et supprimer des utilisateurs laide de Virtual I/O Server ou du gestionnaire Tivoli Identity Manager.

A propos de cette tche


Si Virtual I/O Server est install, le seul type dutilisateur actif est ladministrateur principal (padmin). Ce dernier peut crer dautres ID utilisateur de type administrateur systme, technicien de maintenance ou ingnieur de dveloppement. Remarque : Vous ntes pas autoris crer lID utilisateur dadministrateur principal (padmin). Il est cr et activ automatiquement une fois Virtual I/O Server install. Le tableau suivant rcapitule les tches de gestion des utilisateurs disponibles sur le serveur Virtual I/O Server, ainsi que les commandes que vous devez excuter pour effectuer chaque tche.
Tableau 40. Tches et commandes de gestion des utilisateurs Virtual I/O Server Tche Modification de mots de passe commande cfgassist

156

Virtual I/O Server

Tableau 40. Tches et commandes de gestion des utilisateurs Virtual I/O Server (suite) Tche Cration dun ID utilisateur administrateur systme Cration dun ID utilisateur technicien de maintenance commande Commande mkuser mkuser avec loption -sr

Cration dun ID utilisateur ingnieur de dveloppement mkuser avec loption -de Cration dun utilisateur LDAP Rcapitulatif des attributs dutilisateur Par exemple, dterminer si un utilisateur est un utilisateur LDAP. Modification des attributs dun utilisateur Changement dutilisateur Suppression dun utilisateur chuser su Commande rmuser mkuser avec loption -ldap lsuser

Vous pouvez utiliser Tivoli Identity Manager pour automatiser la gestion des utilisateurs Virtual I/O Server. Tivoli Identity Manager fournit une carte de Virtual I/O Server qui opre en tant quinterface entre le serveur Virtual I/O Server et le serveur Tivoli Identity Manager. La carte opre en tant quadministrateur virtuel de confiance sur le serveur Virtual I/O Server, en excutant des tches semblables aux suivantes : v Cration dun ID utilisateur pour autoriser laccs au Virtual I/O Server. v Modification dun ID utilisateur pour accder au Virtual I/O Server. v v v v v Suppression de laccs dun ID utilisateur. Cette action supprime lID utilisateur Virtual I/O Server. Suspension dun compte utilisateur en dsactivant temporairement laccs au Virtual I/O Server. Restauration dun compte utilisateur en ractivant laccs au Virtual I/O Server. Modification du mot de passe dun compte utilisateur sur le serveur Virtual I/O Server. Rconciliation des informations de tous les utilisateurs en cours sur le serveur Virtual I/O Server.

v Rconciliation des informations dun compte utilisateur donn sur le serveur Virtual I/O Server par le biais dune recherche. Pour plus dinformations, voir les manuels des produits Tivoli Identity Manager.

Identification et rsolution des incidents lis au serveur Virtual I/O Server


Cette rubrique fournit des informations sur le diagnostic et la rsolution des problmes lis au serveur Virtual I/O Server. Cette section contient des informations sur lidentification et la rsolution des incidents lis au serveur Virtual I/O Server. Pour plus dinformations sur la rsolution des incidents lis Integrated Virtualization Manager, voir Identification et rsolution des incidents lis au gestionnaire Integrated Virtualization Manager.

Identification et rsolution des incidents lis la partition logique Virtual I/O Server
Informations et procdures didentification et de rsolution des incidents lis la partition logique Virtual I/O Server.

Virtual I/O Server

157

Identification et rsolution des problmes lis linterface SCSI virtuelle


Informations et procdures didentification et de rsolution des incidents lis linterface SCSI virtuelle du serveur Virtual I/O Server.

A propos de cette tche


Pour identifier et rsoudre les incidents, utilisez la commande diagmenu fournie par Virtual I/O Server. Si vous rencontrez encore des incidents aprs lutilisation de la commande diagmenu, contactez le service de support technique pour obtenir de laide.

disponible dans les Voir la documentation relative lisolement rapide des incidents ladresse AIX informations du fournisseur de services. Il peut arriver que les procdures dcrites dans la documentation relative lisolement rapide des incidents sous AIX ne soient pas disponibles partir du menu de la commande diagmenu.

Rsolution de lchec de configuration dune carte Ethernet partage


Vous pouvez rsoudre les erreurs qui se produisent lorsque vous configurez une carte Ethernet partage (par exemple les erreurs qui gnrent le message 0514-040) en utilisant les commandes lsdev, netstat et entstat.

Avant de commencer
Lorsque vous configurez une carte Ethernet partage, la configuration peut chouer en gnrant lerreur suivante :
Method error (/usr/lib/methods/cfgsea): 0514-040 Error initializing a device into the kernel.

A propos de cette tche


Pour corriger lincident, procdez comme suit : 1. Assurez-vous que les cartes physiques et virtuelles utilises pour crer la carte Ethernet partage sont disponibles en excutant la commande suivante :
lsdev -type adapter

2. Vrifiez que ni linterface de la carte physique, ni linterface des cartes virtuelles nest configure. Excutez la commande suivante :
netstat -state

Important : Aucune des interfaces des cartes ne doit tre rpertorie dans la sortie. Si un nom dinterface (par exemple, en0) est rpertori dans la sortie, sparez-le de la faon suivante :
chdev -dev interface_name -attr state=detach

Vous pouvez excuter cette tape partir dune connexion de console ; en effet, il est possible que la sparation de cette interface mette un terme votre connexion rseau au Virtual I/O Server. 3. Vrifiez que les cartes virtuelles utilises pour les donnes sont des cartes de ligne rseau (Trunk) en excutant la commande suivante :
entstat -all entX | grep Trunk

Remarque : v La carte de ligne rseau ne sapplique pas la carte virtuelle utilise en tant que canal de contrle dans une configuration de reprise par transfert de carte Ethernet partage. v Si des cartes virtuelles utilises pour les donnes ne sont pas des cartes de ligne rseau, vous devez faire en sorte quelles accdent aux rseaux externes, partir de la console HMC.

158

Virtual I/O Server

4. Vrifiez que lunit physique et les cartes virtuelles de la carte Ethernet partage correspondent au paramtre de dchargement de la somme de contrle (checksum offload) : a. Pour dterminer le paramtre de dchargement de la somme de contrle, sur lunit physique, excutez la commande suivante :
lsdev -dev nom_unit -attr chksum_offload

o nom_unit est le nom de lunit physique. Par exemple, ent0. b. Si la valeur de chksum_offload est yes, activez le dchargement de la somme de contrle pour toutes les cartes virtuelles de la carte Ethernet partage en excutant la commande suivante :
chdev -dev nom_unit -attr chksum_offload=yes

o nom_unit est le nom dune carte virtuelle de la carte Ethernet partage. Par exemple, ent2. c. Si la valeur de chksum_offload est no, dsactivez le dchargement de la somme de contrle pour toutes les cartes virtuelles de la carte Ethernet partage en excutant la commande suivante :
chdev -dev nom_unit -attr chksum_offload=no

o nom_unit est le nom dune carte virtuelle de la carte Ethernet partage. d. Si la commande ne gnre aucune sortie, cela signifie que lunit physique ne prend pas en charge le dchargement de la somme de contrle et par consquent ne comporte pas cet attribut. Pour rsoudre lerreur, dsactivez le dchargement de la somme de contrle pour toutes les cartes virtuelles de la carte Ethernet partage en excutant la commande suivante :
chdev -dev nom_unit -attr chksum_offload=no

o nom_unit est le nom dune carte virtuelle de la carte Ethernet partage. 5. Si la carte relle est un port de carte Ethernet hte, galement appel port de carte Ethernet virtuelle intgre logique, assurez-vous que Virtual I/O Server a t configur en tant que partition logique de mode espion pour le port physique de la carte Ethernet virtuelle intgre logique, partir de la console HMC.

Rsolution des incidents de connectivit Ethernet


Vous pouvez identifier les incidents lis la connectivit Ethernet en examinant les statistiques Ethernet gnres par la commande entstat. Vous avez ensuite la possibilit de rsoudre ces incidents laide des commandes starttrace et stoptrace.

A propos de cette tche


Pour rsoudre les incidents lis la connectivit Ethernet, procdez comme suit : 1. Vrifiez que la partition logique client source peut mettre une commande ping vers une autre partition logique client sur le mme systme sans passer par Virtual I/O Server. Si cette commande choue, lincident est probablement li la configuration Ethernet virtuelle de la partition logique client. Si la commande ping aboutit, passez ltape suivante. 2. Lancez une commande ping partir de la partition logique source vers une machine cible de manire ce que les paquets soient envoys via Virtual I/O Server. Cette commande chouera probablement. Passez alors ltape suivante de lexcution de test ping. 3. Sur le serveur Virtual I/O Server, entrez la commande suivante :
entstat all carte_Ethernet_partage

o carte_Ethernet_partage est le nom de votre carte Ethernet partage. 4. Vrifiez que lID VLAN de la partition logique est associ la carte virtuelle correcte dans la section VLAN IDs de la sortie. Recherchez dans ETHERNET STATISTICS la carte virtuelle correspondant ce rseau local virtuel (VLAN) et vrifiez que les nombres de paquets dans la colonne Receive statistics augmentent.

Virtual I/O Server

159

Vous vous assurez ainsi que les paquets sont reus par Virtual I/O Server par le biais de la carte approprie. Si ce nest pas le cas, lincident est probablement li la configuration de la carte virtuelle. Vrifiez les informations dID VLAN des cartes laide de la console HMC. 5. Recherchez dans ETHERNET STATISTICS la carte physique correspondant ce rseau local virtuel (VLAN) et vrifiez que les nombres de paquets dans la colonne Transmit statistics diminuent. Vous vous assurez ainsi que les paquets sont envoys partir de Virtual I/O Server. v Si ce nombre augmente, cela indique que les paquets ne sortent pas de la carte physique. Passez ltape 6. v Si ce nombre naugmente pas, cela indique que les paquets ne sortent pas de la carte physique. Lutilitaire de trace systme doit tre utilis pour poursuivre le dbogage. Suivez les instructions de ltape 9 pour obtenir une trace systme, des informations statistiques et la description de la configuration. Contactez la maintenance et lassistance client si vous devez effectuer des oprations de dbogage supplmentaires. 6. Vrifiez que la zone extrieure du systme cible (sur le ct physique du serveur Virtual I/O Server) reoit les paquets et renvoie des rponses. Si ce nest pas le cas, une carte physique inapproprie est associe la carte Ethernet partage, ou le commutateur Ethernet nest peut-tre pas configur correctement. 7. Recherchez dans ETHERNET STATISTICS la carte physique correspondant ce rseau local virtuel (VLAN) et vrifiez que les nombres de paquets dans la colonne Receive statistics augmentent. Cette tape vrifie que les rponses ping sont reues par le serveur Virtual I/O Server. Si ce nest pas le cas, le commutateur peut tre mal configur. 8. Recherchez dans ETHERNET STATISTICS la carte virtuelle correspondant ce rseau local virtuel (VLAN) et vrifiez que les nombres de paquets dans la colonne Transmit statistics augmentent. Cette tape vrifie que le paquet est transmis par le serveur Virtual I/O Server par le biais de la carte virtuelle approprie. Si ce nest pas le cas, dmarrez lutilitaire de trace systme. Suivez les instructions de ltape 9 pour obtenir une trace systme, des informations statistiques et la description de la configuration. Contactez la maintenance et lassistance client si vous devez effectuer des oprations de dbogage supplmentaires. 9. Utilisez lutilitaire de trace de Virtual I/O Server pour rsoudre les incidents de connectivit. Dmarrez la fonction de trace du systme laide de la commande starttrace en prcisant lID point dancrage de trace. LID point dancrage de trace de la carte Ethernet partage est 48F. Utilisez la commande stoptrace pour arrter la fonction de trace. La commande cattracerpt permet de lire le fichier journal trace, de formater les entres de trace et dcrire un rapport dans la sortie standard.

Activation des shells non interactifs sur Virtual I/O Server, version 1.3 ou suprieure
A lissue de la mise niveau de Virtual I/O Server vers la version 1.3 ou une version ultrieure, vous pouvez activer les commandes shell non interactives laide de la commande startnetsvc.

Avant de commencer
Si vous avez install OpenSSH sur un Virtual I/O Server antrieur la version 1.3, puis lavez mis niveau vers la version 1.3 ou une version ultrieure, les commandes shell non interactives risquent de ne pas fonctionner, car il est ncessaire de modifier le fichier de configuration SSH. Pour activer les commandes shell non interactives dansVirtual I/O Server 1.3 ou une version ultrieure, excutez la commande suivante partir du client SSH :
ioscli startnetsvc ssh

Remarque : Vous pouvez excuter la commande startnetsvc lorsque le service SSH est excut. La commande semble chouer. Cependant elle est excute normalement.

160

Virtual I/O Server

Rcupration lorsque les disques sont introuvables


Cette rubrique dcrit comment oprer une rcupration lorsque des disques ne sont pas affichs au cours dune tentative damorage ou dinstallation dune partition logique client.

A propos de cette tche


Il arrive parfois que le disque permettant dinstaller la partition logique client ne puisse pas tre localis. Dans ce cas, si le client est dj install, dmarrez la partition logique client. Assurez-vous de disposer des derniers niveaux de logiciel et de microprogramme. Puis assurez-vous que le numro demplacement de la carte serveur SCSI virtuelle correspond au numro demplacement virtuel de la partition distante de la carte client SCSI virtuelle. 1. Assurez-vous de disposer des dernires versions pour la console HMC, les microprogrammes et le serveur Virtual I/O Server. Procdez comme suit : a. Pour vous assurer que vous disposez du dernier niveau de la console HMC, voir le manuel Installation et configuration de la console HMC. Pour visualiser le fichier PDF de la rubrique . Installation et configuration de la console HMC (environ 3 Mo), voir oemiphai.pdf b. Vrifiez que vous disposez du dernier microprogramme. 2. Vrifiez que le numro demplacement de la carte serveur SCSI virtuelle est correctement mapp au numro demplacement distant de la partition logique client : a. Dans la zone de navigation, dveloppez Gestion de systmes Serveurs et cliquez sur le serveur sur lequel se trouve la partition logique Virtual I/O Server. b. Dans la zone Contenu, slectionnez la partition logique Virtual I/O Server. c. Cliquez sur Tches, puis slectionnez Proprits. d. Cliquez sur longlet Cartes virtuelles. e. Cliquez sur Interface SCSI virtuelle. f. Si les valeurs de la partition distante et de la carte distante sont Toute partition et Tout emplacement de partition, procdez comme suit : v Dveloppez Interface SCSI virtuelle, puis cliquez sur le numro demplacement. v Slectionnez Connexion possible de la partition client slectionne uniquement. v Entrez lID de partition logique client et la carte, puis cliquez sur OK v Cliquez sur Interface SCSI virtuelle. g. Enregistrez les valeurs de la partition distante et de la carte distante. Ces valeurs reprsentent la partition logique client et le numro demplacement de la carte SCSI virtuelle client qui peut se connecter la carte de serveur associe. Par exemple, les valeurs de la partition distante, de la carte distante et de la carte sont les suivantes : AIX_client, 2, 3. Ces valeurs indiquent que la carte SCSI virtuelle 2 sur la partition logique client AIX_client peut se connecter la carte SCSI virtuelle 3 du serveur Virtual I/O Server. h. Rptez les tapes a g pour la partition logique client. 3. Vrifiez que le numro demplacement de la carte serveur SCSI virtuelle est mapp correctement avec le numro demplacement distant de la partition logique client. Procdez comme suit : a. Cliquez avec le bouton droit de la souris sur le profil de serveur, puis slectionnez Proprits. b. Cliquez sur longlet Virtual I/O Server. c. Si le bouton doption Seuls la partition et lemplacement distant slectionns peuvent se connecter nest pas activ, slectionnez-le. d. Notez les valeurs des zones Partition distante et Numro demplacement virtuel de la partition distante. Elles indiquent le nom et le numro demplacement virtuel de la partition logique client. Il sagit de la partition logique client et du numro demplacement qui peuvent se connecter lemplacement indiqu dans la bote de dialogue Numro demplacement, en haut de la fentre Proprits de la carte SCSI virtuelle.
Virtual I/O Server

161

e. Pour la partition logique client, rptez le tapes a e. 4. La valeur Carte sur la partition logique client doit correspondre celle de Carte distante sur la partition logique Virtual I/O Server et la valeur Carte sur la partition logique Virtual I/O Server doit correspondre celle de Carte distante sur la partition logique client. Si ces numros ne correspondent pas, sur la console HMC, modifiez les proprits de profil de manire reflter le mappage. 5. Sur la ligne de commande du serveur Virtual I/O Server, entrez cfgdev. 6. Arrtez et ractivez la partition logique client. 7. Sur la ligne de commande du serveur Virtual I/O Server, entrez lsmap -all. Les rsultats obtenus sont semblables ce qui suit :
SVSA Physloc Client Partition ID --------------- -------------------------------------------- -----------------vhost0 U9113.550.10BE8DD-V1-C3 0x00000002 VTD LUN Backing device Physloc vhdisk0 0x8100000000000000 hdisk5 U787B.001.DNW025F-P1-C5-T1-W5005076300C10899-L536F000000000000

Dans cet exemple, lID de partition logique client est 2 (0x00000002). Remarque : Si la partition logique client nest pas encore installe, lID partition client est 0x00000000. Le numro demplacement de la carte du serveur SCSI apparat dans la colonne Physloc. Les chiffres suivant loption -C constituent le numro demplacement. Dans le cas prsent, le numro demplacement est 3. 8. Sur la ligne de commande du serveur Virtual I/O Server, entrez lsdev -virtual. Les rsultats obtenus sont semblables ce qui suit :
name vhost0 vhdisk0 status description

Available Virtual SCSI Server Adapter Available Virtual Target Device - Disk

Identification et rsolution des incidents relatifs aux partitions logiques client AIX
Informations et procdures didentification et de rsolution des incidents lis aux partitions logiques client AIX.

A propos de cette tche


Si la partition client utilise des ressources dE-S virtuelles, le point focal de service et le serveur Virtual I/O Server doivent tre contrls en premier afin de vrifier que lincident nest pas li au serveur. Sur les partitions client qui excutent le niveau actuel dAIX, lorsquun incident matriel est consign sur le serveur et quun incident correspondant est consign sur la partition client, Virtual I/O Server indique un message derreur de corrlation dans le rapport derreurs. Excutez la commande suivante pour crer un rapport derreur :
errpt -a

Lexcution de la commande errpt renvoie un rsultat similaire au suivant :


LABEL: IDENTIFIER: VSCSI_ERR2 857033C6

Date/Time: Tue Feb 15 09:18:11 2005 Sequence Number: 50 Machine Id: 00C25EEE4C00

162

Virtual I/O Server

Node Id: Class: Type: Resource Name:

vio_client53A S TEMP vscsi2

Description Underlying transport error Probable Causes PROCESSOR Failure Causes PROCESSOR Recommended Actions PERFORM PROBLEM DETERMINATION PROCEDURES Detail Data Error Log Type 01 Reserve 00 Error Number 0006 RC 0000 0002 VSCSI Pointer

Comparez les valeurs LABEL, IDENTIFIER et Error Number du rapport derreur aux valeurs dans le tableau suivant pour identifier lincident et le rsoudre.
Tableau 41. Labels, identificateurs, numros derreur, description de lincident et rsolution des incidents communs lis linterface SCSI virtuelle sur la partition logique client Label Identificateur Numro derreur Incident La carte serveur SCSI virtuelle de la partition logique Virtual I/O Server nest pas ouverte. La carte serveur SCSI virtuelle de la partition logique Virtual I/O Server a t ferme soudainement. La carte serveur SCSI virtuelle de la partition logique Virtual I/O Server est utilise par une autre partition logique client. La carte serveur SCSI virtuelle (numro de partition et demplacement) spcifie dans la dfinition nexiste pas. Rsolution Faites en sorte que la carte serveur de la partition logique Virtual I/O Server soit disponible. Dterminez pourquoi la carte serveur de la partition logique Virtual I/O Server a t ferme. Terminez la partition logique client utilisant la carte serveur.

0006 RC 0000 0002 VSCSI_ERR2 857033C6 001C RC 0000 0000

000D RC FFFF FFF0 VSCSI_ERR3 ED995F18

000D RC FFFF FFF9

Dans la console HMC, corrigez la dfinition de la carte client pour lassocier une carte serveur correcte.

Virtual I/O Server

163

Informations de rfrence pour Virtual I/O Server


Vous trouverez des informations de rfrence sur les commandes de Virtual I/O Server, sur les attributs de configuration pour les agents et clients Tivoli, sur les attributs et statistiques de rseau, et sur les types dutilisateur Virtual I/O Server.

Description des commandes du serveur Virtual I/O Server et du gestionnaire Integrated Virtualization Manager
Vous pouvez afficher la description de chaque commande du serveur Virtual I/O Server et du gestionnaire Integrated Virtualization Manager. Voir Commandes Virtual I/O Server et Integrated Virtualization Manager. Pour visualiser le fichier PDF de la rubrique Commandes Virtual I/O Server et Integrated Virtualization Manager (environ 4 Mo), voir oemiphcg.pdf .

Configuration des attributs des agents et des clients Tivoli


Informations sur les variables et les attributs de configuration requis et facultatifs de lagent Tivoli Monitoring , lagent Tivoli Usage and Accounting Manager , du client Tivoli Storage Manager et des agents TotalStorage Productivity Center. Dans le tableau suivant, un attribut est une option que vous pouvez ajouter la commande du serveur Virtual I/O Server. Le terme variable dsigne une option que vous pouvez dfinir dans un fichier de configuration de Tivoli Storage Manager ou de Tivoli Usage and Accounting Manager.

Tivoli Monitoring
Tableau 42. Attributs de configuration de Tivoli Monitoring Attribut HOSTNAME Description Nom dhte ou adresse IP du serveur Tivoli Enterprise Monitoring Server (TEMS) auquel lagent de surveillance envoie des donnes. Nom dhte ou adresse IP de la console HMC relie au systme gr sur lequel se trouvent Virtual I/O Server et lagent de surveillance. Vous pouvez dfinir une seule console HMC par agent de surveillance. Si vous ne dfinissez pas lattribut MANAGING_SYSTEM, Virtual I/O Server utilise la connexion RMC (Resource Monitoring and Control) pour obtenir le nom dhte ou ladresse IP de la console HMC. Si lagent de surveillance est excut sur Integrated Virtualization Manager, il nest pas ncessaire de dfinir lattribut MANAGING_SYSTEM. RESTART_ON_REBOOT Dtermine si lagent de surveillance redmarre lors du redmarrage de Virtual I/O Server. TRUE indique que lagent de surveillance redmarre lors du redmarrage de Virtual I/O Server. FALSE indique que lagent de surveillance ne redmarre pas lors du redmarrage de Virtual I/O Server.

MANAGING_SYSTEM

164

Virtual I/O Server

Tivoli Storage Manager


Tableau 43. Attributs de configuration de Tivoli Storage Manager Attribut SERVERNAME SERVERIP Description Nom dhte du serveurTivoli Storage Manager auquel est associ le client Tivoli Storage Manager. Adresse IP ou nom de domaine du serveurTivoli Storage Manager auquel est associ le client Tivoli Storage Manager. Nom de lordinateur sur lequel est install le client Tivoli Storage Manager.

NODENAME

Tivoli Usage and Accounting Manager


Tableau 44. Variables de configuration de Tivoli Usage and Accounting Manager dans le fichier A_config.par Variable AACCT_TRANS_IDS Description Valeurs possibles Valeur par dfaut 10

Dsigne les types 1, 4, 6, 7, 8, 10, 11 ou 16 denregistrement comptable avancs sous AIX inclus aux rapports sur lutilisation. Dtermine si lagent Usage and Accounting Manager collecte les donnes comptables. v Y : Indique que lagent Usage and Accounting Manager collecte les donnes comptables. v N : Indique que lagent Usage and Accounting Manager ne collecte pas les donnes comptables.

AACCT_ONLY

ITUAM_SAMPLE

Dtermine si lagent Usage and Accounting Manager collecte des donnes relatives au systme de fichiers de stockage.

v Y : Indique que lagent Usage and Accounting Manager collecte des donnes relatives au systme de fichiers de stockage. v N : Indique que lagent Usage and Accounting Manager ne collecte pas de donnes relatives au systme de fichiers de stockage.

Tableau 45. Attributs de configuration de Tivoli Usage and Accounting Manager Attribut ACCT_DATA0 ACCT_DATA1 ISYSTEM Description Taille en Mo du premier fichier de donnes contenant les informations statistiques quotidiennes. Taille en Mo du second fichier de donnes contenant les informations statistiques quotidiennes. Moment en minutes o lagent gnre des enregistrements systme par intervalles.

Virtual I/O Server

165

Tableau 45. Attributs de configuration de Tivoli Usage and Accounting Manager (suite) Attribut IPROCESS Description Moment en minutes o le systme gnre des enregistrements de processus regroups.

Attributs d TotalStorage Productivity Center


Tableau 46. Attributs de configuration de TotalStorage Productivity Center Attribut S Description Obligatoire ou facultatif

Nom dhte ou adresse IP du serveur Obligatoire TotalStorage Productivity Center associ lagent TotalStorage Productivity Center. Nom dhte ou adresse IP du gestionnaire dagents. Mot de passe dauthentification du serveur dunits TotalStorage Productivity Center. Mot de passe dauthentification de lagent commun. Obligatoire Obligatoire

A devAuth

caPass caPort amRegPort

Obligatoire

Numro identifiant le port de lagent Facultatif commun. Le port par dfaut est 9510. Numro identifiant le port denregistrement du gestionnaire dagents. Le port par dfaut est 9511. Numro identifiant le port public du gestionnaire dagents. Le port par dfaut est 9513. Numro identifiant le port du serveur de donnes TotalStorage Productivity Center. Le port par dfaut est 9549. Numro identifiant le port du serveur dunits TotalStorage Productivity Center. Le port par dfaut est 9550. La valeur par dfaut est true. La valeur par dfaut est false. Excute une analyse de lagent TPC_data aprs linstallation. La valeur par dfaut est true. Facultatif

amPubPort

Facultatif

dataPort

Facultatif

devPort

Facultatif

newCA oldCA daScan

Facultatif Facultatif Facultatif

daScript

Excute le script de lagent TPC_data Facultatif aprs linstallation. La valeur par dfaut est true. Installe lagent TPC_data. La valeur par dfaut est true. Installe lagent TPC_fabric. La valeur par dfaut est true. Facultatif Facultatif

daIntsall faInstall

166

Virtual I/O Server

Tableau 46. Attributs de configuration de TotalStorage Productivity Center (suite) Attribut U Description Dsinstalle les agents TotalStorage Productivity Center. Les valeurs valides sont les suivantes : v toutes v data v fabric Obligatoire ou facultatif Facultatif

Information associe Centre de documentation IBM Tivoli Application Dependency Discovery Manager IBM Tivoli Identity Manager Documentation IBM Tivoli Monitoring version 6.2.1 Tivoli Monitoring Virtual I/O Server Premium Agent - Guide dutilisation IBM Tivoli Storage Manager Centre de documentation IBM Tivoli Usage and Accounting Manager Centre de documentation IBM TotalStorage Productivity Center

Statistiques sur le protocole GVRP


Affichage dinformations sur les units BPDU (Bridge Protocol Data Unit), le protocole GARP (Generic Attribute Registration Protocol) et le protocole GVRP (GARP VLAN Registration Protocol) en excutant la commande entstat -all. Vous pouvez galement visualiser des exemples. Les units BPDU (ou units de donnes de protocole de pont) sont des paquets de donnes relatives au protocole changs entre le commutateur et la carte Ethernet partage. Le protocole GARP est le seul protocole de pont actuellement disponible avec la carte Ethernet partage. GARP est un protocole gnrique qui permet lchange dinformations sur les attributs entre deux entits. Un seul type de protocole GARP est actuellement disponible sur la carte Ethernet partage : le protocole GVRP. Avec le protocole GVRP, les attributs transmis sont des valeurs VLAN (rseau local virtuel).

Statistiques sur les units BPDU


Les statistiques sur les units BPDU concernent les paquets BPDU envoys ou reus.
Tableau 47. Description des statistiques sur les units BPDU Statistiques sur les units BPDU Transmit (mission) Description Packets Nombre de paquets envoys. Failed packets Nombre de paquets non envoys (par exemple, cause dun manque de mmoire pour lattribution du paquet sortant).

Virtual I/O Server

167

Tableau 47. Description des statistiques sur les units BPDU (suite) Statistiques sur les units BPDU Receive (rception) Description Packets Nombre de paquets reus. Unprocessed Packets Paquets non traits, cause dune interruption du fonctionnement du protocole. Non-contiguous Packets Paquets reus en plusieurs fragments. Packets with unknown PID Paquets comportant un ID de protocole (PID) diffrent de celui du protocole GARP. Lorsque ce nombre est lev, cela provient en gnral de lchange par le commutateur de paquets de protocole BPDU non pris en charge par la carte Ethernet partage. Packets with Wrong Length Paquets Ethernet reus dont la longueur ne correspond la longueur indique dans len-tte Ethernet.

Statistiques sur le protocole GARP


Les statistiques sur le protocole GARP concernent les paquets BPDU de type GARP envoys ou reus.
Tableau 48. Description des statistiques sur le protocole GARP Statistiques sur le protocole GARP Transmit (mission) Description Packets Nombre de paquets envoys. Failed packets Nombre de paquets non envoys (par exemple, cause dun manque de mmoire pour lattribution du paquet sortant). Leave All Events Paquets envoys avec le type dvnement Leave All. Join Empty Events Paquets envoys avec le type dvnement Join Empty. Join In Events Paquets envoys avec le type dvnement Join In. Leave Empty Events Paquets envoys avec le type dvnement Leave Empty. Leave In Events Paquets envoys avec le type dvnement Leave In. Empty Events Paquets envoys avec le type dvnement Empty.

168

Virtual I/O Server

Tableau 48. Description des statistiques sur le protocole GARP (suite) Statistiques sur le protocole GARP Receive (rception) Description Packets Nombre de paquets reus Unprocessed Packets Paquets non traits, cause dune interruption du fonctionnement du protocole. Packets with Unknown Attr Type: Paquets contenant un type dattribut non pris en charge. Lorsque ce nombre est lev, cela provient en gnral de lchange par le commutateur de paquets de protocole GARP non pris en charge par la carte Ethernet partage. Par exemple, le protocole GARP GMRP (Multicast Registration Protocol). Leave All Events Paquets reus avec le type dvnement Leave All. Join Empty Events Paquets reus avec le type dvnement Join Empty. Join In Events Paquets reus avec le type dvnement Join In. Leave Empty Events Paquets reus avec le type dvnement Leave Empty Leave In Events Paquets reus avec le type dvnement Leave In Empty Events Paquets reus avec le type dvnement Empty

Statistiques sur le protocole GVRP


Les statistiques sur le protocole GVRP concernent les paquets GARP dchange dinformations sur les rseaux locaux virtuels (VLAN) et envoys ou reus via le protocole GVRP.

Virtual I/O Server

169

Tableau 49. Description des statistiques sur le protocole GVRP Statistiques sur le protocole GVRP Transmit (mission) Description Packets Nombre de paquets envoys Failed packets Nombre de paquets non envoys (par exemple, cause dun manque de mmoire pour lattribution du paquet sortant). Leave All Events Paquets envoys avec le type dvnement Leave All. Join Empty Events Paquets envoys avec le type dvnement Join Empty. Join In Events Paquets envoys avec le type dvnement Join In. Leave Empty Events Paquets envoys avec le type dvnement Leave Empty. Leave In Events Paquets envoys avec le type dvnement Leave In. Empty Events Paquets envoys avec le type dvnement Empty.

170

Virtual I/O Server

Tableau 49. Description des statistiques sur le protocole GVRP (suite) Statistiques sur le protocole GVRP Receive (rception) Description Packets Nombre de paquets reus. Unprocessed Packets Paquets non traits, cause dune interruption du fonctionnement du protocole. Packets with Invalid Length Paquets contenant un ou plusieurs attributs dont la longueur ne correspond pas au type dvnement associ. Packets with Invalid Event Paquets contenant un ou plusieurs attributs dont le type dvnement est incorrect. Packets with Invalid Value Paquets contenant un ou plusieurs attributs dont la valeur est incorrecte (par exemple, un ID VLAN incorrect). Total Invalid Attributes Nombre total dattributs comportant un paramtre incorrect. Total Valid Attributes Nombre total dattributs ne comportant aucun paramtre incorrect. Leave All Events Paquets envoys avec le type dvnement Leave All. Join Empty Events Paquets envoys avec le type dvnement Join Empty. Join In Events Paquets envoys avec le type dvnement Join In. Leave Empty Events Paquets envoys avec le type dvnement Leave Empty. Leave In Events Paquets envoys avec le type dvnement Leave In. Empty Events Paquets envoys avec le type dvnement Empty.

Exemples de statistiques
Lexcution de la commande entstat -all renvoie des rsultats du type suivant :
-------------------------------------------------------------Statistics for adapters in the Shared Ethernet Adapter ent3 -------------------------------------------------------------Number of adapters: 2 SEA Flags: 00000009 < THREAD >
Virtual I/O Server

171

< GVRP > VLAN IDs : ent2: 1 Real Side Statistics: Packets received: 0 Packets bridged: 0 Packets consumed: 0 Packets transmitted: 0 Packets dropped: 0 Virtual Side Statistics: Packets received: 0 Packets bridged: 0 Packets consumed: 0 Packets transmitted: 0 Packets dropped: 0 Other Statistics: Output packets generated: 0 Output packets dropped: 0 Device output failures: 0 Memory allocation failures: 0 ICMP error packets sent: 0 Non IP packets larger than MTU: 0 Thread queue overflow packets: 0 -------------------------------------------------------------Bridge Protocol Data Units (BPDU) Statistics: Transmit Statistics: -------------------Packets: 2 Failed packets: 0 Receive Statistics: ------------------Packets: 1370 Unprocessed Packets: 0 Non-contiguous Packets: 0 Packets w/ Unknown PID: 1370 Packets w/ Wrong Length: 0

--------------------------------------------------------------General Attribute Registration Protocol (GARP) Statistics: Transmit Statistic: ------------------Packets: 2 Failed packets: 0 Leave All Events: 0 Join Empty Events: 0 Join In Events: 2 Leave Empty Events: 0 Leave In Events: 0 Empty Events: 0 Receive Statistics: ------------------Packets: 0 Unprocessed Packets: 0 Packets w/ Unknow Attr. Type: 0 Leave All Events: 0 Join Empty Events: 0 Join In Events: 0 Leave Empty Events: 0 Leave In Events: 0 Empty Events: 0

--------------------------------------------------------------GARP VLAN Registration Protocol (GVRP) Statistics: Transmit Statistics: -------------------Packets: 2 Failed packets: 0 Receive Statistics: ------------------Packets: 0 Unprocessed Packets: 0 Attributes w/ Invalid Length: 0 Attributes w/ Invalid Event: 0 Attributes w/ Invalid Value: 0 Total Invalid Attributes: 0 Total Valid Attributes: 0 Leave All Events: 0 Join Empty Events: 0 Join In Events: 0

Leave All Events: 0 Join Empty Events: 0 Join In Events: 2

172

Virtual I/O Server

Leave Empty Events: 0 Leave In Events: 0 Empty Events: 0

Leave Empty Events: 0 Leave In Events: 0 Empty Events: 0

Attributs du rseau
Instructions sur la gestion des attributs du rseau. Plusieurs commandes du serveur Virtual I/O Server, notamment chdev, mkvdev et cfglnagg, permettent de modifier les attributs des units ou du rseau. Cette section dfinit les attributs pouvant tre modifis.

Attributs Ethernet
Il est possible de modifier les attributs Ethernet ci-aprs.
Attribut Maximum Transmission Unit (mtu) Interface State (tat_interface) Description Indique lunit de transmission maximale (MTU). Cette valeur peut tre tout nombre compris entre 60 et 65535, mais elle est dpendante du support. detach Retire une interface de la liste des interfaces rseau. Si la dernire interface est dconnecte, le code du pilote dinterface de rseau est dcharg. Pour modifier la route dune interface connecte, vous devez dconnecter et ajouter nouveau cette interface laide de la commande chdev -dev Interface -attr tat=detach. Identifie une interface comme inactive, ce qui empche le systme de tenter de transmettre des messages via cette interface. Toutefois, les routes qui utilisent cette interface ne sont pas automatiquement dsactives. (chdev -dev Interface -attr tat=down) Identifie une interface comme active. Ce paramtre est automatiquement utilis lors de la dfinition de la premire adresse dune interface. Vous pouvez galement lutiliser pour activer une interface aprs lexcution de la commande chdev -dev Interface -attr tat=up.

down

up

Network Mask (masque_rseau)

Indique la partie de ladresse rserver pour subdiviser les rseaux en sous-rseaux. masque inclut la partie rseau de ladresse locale et la partie sous-rseau, extraite de la zone hte de ladresse. Vous pouvez spcifier le masque sous forme dun nombre hexadcimal unique commenant par 0x, en notation dcimale points Internet standard. Dans ladresse 32 bits, le masque contient des bits ayant la valeur 1 pour la position des bits rservs au rseau et aux sous-rseaux et un bit ayant la valeur 0 pour la position des bits qui dfinissent lhte. Le masque contient la partie du rseau standard et le segment de sous-rseau est contigu au segment de rseau.

Attributs dune carte Ethernet partage


Vous pouvez modifier les attributs ci-dessous pour une carte Ethernet partage.
Attribut PVID (pvid) PVID adapter (carte_PVID) Physical adapter (carte_physique) Description Indique le PVID utiliser pour la carte Ethernet partage. Indique la carte virtuelle par dfaut utiliser pour les paquets marqus non VLAN. Indique la carte physique associe la carte Ethernet partage.

Virtual I/O Server

173

Attribut thread (unit_excution)

Description Active ou dsactive lutilisation dunits dexcution sur la carte Ethernet partage. Lactivation de cette option ajoute environ 16 20 % de cycles machine par transaction pour les flots de donnes MTU 1500 et 31 38 % pour MTU 9000. Loption dutilisation dunits dexcution augmente le nombre de cycles machine par transaction pour de faibles charges de travail car les units dexcution sont dmarres pour chaque paquet. A des taux de charge de travail plus levs, comme les charges de travail en duplex intgral ou de demandes/rponses, les units dexcution durent plus longtemps sans attente ou racheminement. Le mode avec units dexcution doit tre utilis lorsquune interface SCSI virtuelle est excute sur la mme partition logique Virtual I/O Server que la carte Ethernet partage. Le mode avec units dexcution permet de sassurer que linterface SCSI virtuelle et la carte Ethernet partage partagent les ressources du processeur de manire adapte. Toutefois, lutilisation dunits dexcution augmente la longueur des chemins daccs aux instructions et utilise des cycles de processeur supplmentaires. Si la partition logique Virtual I/O Server est ddie uniquement lexcution dunits Ethernet partages (et des units virtuelles Ethernet associes), les cartes doivent tre configures de manire ce que lutilisation dunits dexcution soit dsactive. Vous pouvez activer ou dsactiver lutilisation dunits dexcution laide de loption -attr thread de la commande mkvdev. Pour activer lutilisation dunits dexcution, utilisez loption -attr thread=1. Pour la dsactiver, utilisez loption -attr thread=0. Par exemple, la commande ci-dessous dsactive lutilisation dunits dexcution pour la carte Ethernet partage ent1 : mkvdev -sea ent1 -vadapter ent5 -default ent5 -defaultid 1 -attr thread=0

Virtual adapters (cartes_virtuelles) TCP segmentation offload(envoi_volumineux)

Rpertorie les cartes de rseau Ethernet virtuelles associes la carte Ethernet partage. Active la fonction largesend TCP (galement appele dchargement de la segmentation) des partitions logiques la carte physique. Pour fonctionner, cette dernire doit tre active pour la fonction largesend TCP pour le dchargement de la segmentation entre la partition logique et la carte Ethernet partage. En outre, la partition logique doit tre en mesure deffectuer une opration largesend. Sous AIX, la fonction largesend peut tre active sur une partition laide de la commande ifconfig. Vous pouvez activer ou dsactiver la fonction largesend TCP laide de loption -a largesend de la commande chdev. Pour lactiver, utilisez loption -a largesend=1. Pour la dsactiver, utilisez loption -a largesend=0. Par exemple, la commande ci-dessous active largesend pour la carte Ethernet partage ent1 : chdev -l ent1 -a largesend=1 Par dfaut, le paramtre est dsactiv (largesend=0).

Jumbo frames (grandes_trames)

Permet daugmenter jusqu 9000 octets les MTU de linterface configure sur la carte Ethernet partage (valeur par dfaut : 1500). Si la carte physique sous-jacente ne prend pas en charge les grandes trames et si la valeur de lattribut jumbo_frames est yes, la configuration choue. La carte physique sous-jacente doit prendre en charge les grandes trames. La carte Ethernet partage active automatiquement les grandes trames sur sa carte physique sous-jacente si la valeur de jumbo_frames est yes. La valeur grandes_trames nest pas modifiable durant lexcution. Active et dsactive le protocole GVRP sur une carte Ethernet partage.

GARP VLAN Registration Protocol (GVRP) (gvrp)

174

Virtual I/O Server

Attributs de la reprise par transfert dune carte Ethernet partage


Vous pouvez modifier les attributs suivants relatifs la reprise par transfert dune carte Ethernet partage.
Attribut High availability mode (mode_haute_disponibilit) Description Dtermine si les units participent ou non la configuration de reprise. Par dfaut, cet attribut est paramtr sur disabled (dsactiv). En gnral, une carte Ethernet partage dans une configuration de reprise par transfert fonctionne en mode auto et la carte principale correspond la carte dont la priorit est la plus leve (valeur numrique la plus basse). Une carte Ethernet partage peut tre passe de force en mode veille ; elle se comporte alors comme lunit de secours, tant quelle dtecte la prsence dune unit principale fonctionnelle. Dfinit lunit Ethernet virtuelle requise pour une carte Ethernet partage dans une configuration de reprise par transfert, de manire ce quelle puisse communiquer avec lautre carte. Cet attribut ne comporte pas de valeur par dfaut ; il est obligatoire lorsque lattribut ha_mode nest pas paramtr sur disabled. Attribut facultatif qui peut tre dfini pour une carte Ethernet partage dfinie dans une configuration de reprise par transfert. Lorsque cet attribut est spcifi, une unit Ethernet partage applique une commande ping ladresse IP, afin de vrifier la connexion (ainsi que ltat des liaisons des units physiques). Si elle dtecte une perte de connectivit avec lhte de la commande ping spcifi, elle lance une reprise par transfert vers la carte Ethernet partage. Cet attribut nest pas pris en charge lorsque vous utilisez une carte Ethernet partage avec une carte Ethernet hte (ou carte Ethernet virtuelle intgre).

Control Channel (canal_contrle)

Internet address to ping (adr_rseau)

Virtual I/O Server

175

Attributs INET
Il est possible de modifier les attributs INET qui suivent.
Attribut Host Name (nom_hte) Description Indiquez le nom dhte que vous souhaitez affecter la machine en cours. Dans la dfinition du nom dhte, utilisez des caractres ASCII, de prfrence uniquement alphanumriques. Nutilisez pas de point dans le nom dhte. Evitez dutiliser des valeurs hexadcimales ou dcimales comme premier caractre (par exemple 3Comm, o 3C peut tre interprt comme un caractre hexadcimal). Pour assurer la compatibilit avec les htes prcdents, choisissez un nom dhte non qualifi comportant moins de 32 caractres. Si lhte utilise un serveur de noms de domaine pour la rsolution des noms, le nom dhte doit contenir le nom de domaine complet. Dans le systme de dnomination de domaine hirarchique, les noms sont constitus dune squence de sous-noms insensibles la casse, spars par des points, sans blanc imbriqu. Le protocole DOMAIN spcifie quun nom de domaine local doit tre infrieur 64 caractres et que la longueur dun nom dhte doit tre infrieure 32 caractres. Le nom dhte est indiqu en premier lieu. Le nom de domaine complet peut, ventuellement, tre spcifi ; le nom dhte est suivi dun point, dune srie de noms de domaine local spars par des points et enfin, du domaine racine. Le nom de domaine complet pour un hte, y compris les points, doit tre infrieur 255 caractres et respecter le format suivant : hte.sous-domaine.sous-domaine.domaine_racine Dans un rseau hirarchique, certains htes sont conus comme des serveurs de noms qui convertissent les noms en adresses Internet pour dautres htes. Ce mcanisme comporte deux avantages sur lespace de noms non hirarchiques : les ressources de chaque hte sur le rseau ne sont pas utilises pour la rsolution des noms et ladministrateur du systme na pas besoin de grer les fichiers de rsolution de noms sur chaque machine du rseau. Lensemble de noms grs par un seul serveur de noms est appel zone dautorit de ce serveur. Gateway (passerelle) Route (route) Identifie la passerelle laquelle sont adresss les paquets. Vous pouvez dfinir le paramtre Passerelle par un nom symbolique ou une adresse numrique. Spcifie la route. Le format de lattribut Route est : route=destination, passerelle, [mesure]. destination Identifie lhte ou le rseau vers lequel vous dirigez la route. Vous pouvez dfinir le paramtre Destination par un nom symbolique ou une adresse numrique. gateway Identifie la passerelle laquelle sont adresss les paquets. Vous pouvez dfinir le paramtre Passerelle par un nom symbolique ou une adresse numrique. metric Dfinit la mesure du routage. La valeur par dfaut est 0 (zro). La mesure du routage est utilise par le protocole de routage (le programme dmon routed). Des mesures plus leves rendent la route moins favorable. Les mesures sont comptes comme des bonds supplmentaires vers le rseau ou lhte de destination.

Attributs de carte
Il est possible de modifier les attributs de carte suivants. Le comportement de lattribut peut varier en fonction de la carte et du pilote dont vous disposez.

176

Virtual I/O Server

Attribut Media Speed (dbit_support)

Cartes/Pilotes

Description

v Carte PCI-X Base-TX 10/100/1000 2 Lattribut de dbit du support indique la vitesse laquelle la carte tente de fonctionner. ports Les dbits disponibles sont 10 Mbit/s en v Pilote de priphrique de carte semi-duplex, 10 Mbit/s en duplex intgral, 100 PCI-X Ethernet Base-T 10/100/1000 Mbit/s en semi-duplex, 100 Mbit/s en duplex intgral et ngociation automatique, avec ngociation automatique par dfaut. Slectionnez la ngociation automatique lorsque la carte doit utiliser la ngociation automatique sur le rseau pour dterminer le dbit. Si le rseau ne prend pas en charge la ngociation automatique, slectionnez le dbit spcifique. 1000 Mbit/s en semi-duplex et duplex intgral ne sont pas des valeurs correctes. Conformment la spcification IEEE 802.3z, les dbits en gigabits de transmission en duplex doivent tre ngocis automatiquement pour les cartes en cuivre (TX). Pour utiliser ces dbits, slectionnez la ngociation automatique.

Media Speed (dbit_support)

v Carte PCI-X Ethernet-SX Gigabit 2 ports v Pilote de priphrique de carte PCI-X Ethernet-SX Gigabit

Lattribut de dbit du support indique la vitesse laquelle la carte tente de fonctionner. Les dbits disponibles sont 1000 Mbit/s en duplex intgral et ngociation automatique. La valeur par dfaut est la ngociation automatique. Slectionnez la ngociation automatique lorsque la carte doit utiliser la ngociation automatique sur le rseau pour dfinir la transmission en duplex. Si le rseau ne prend pas en charge la ngociation automatique, slectionnez 1000 Mbit/s en duplex intgral. Lattribut de dbit du support indique la vitesse laquelle la carte tente de fonctionner. Les dbits disponibles sont 10 Mbit/s en semi-duplex, 10 Mbit/s en duplex intgral, 100 Mbit/s en semi-duplex, 100 Mbit/s en duplex intgral et ngociation automatique, avec ngociation automatique par dfaut. Slectionnez la ngociation automatique lorsque la carte doit utiliser la ngociation automatique sur le rseau pour dterminer le dbit. Si le rseau ne prend pas en charge la ngociation automatique, slectionnez le dbit spcifique. Si la ngociation automatique est slectionne, lunit de liaison distante doit galement tre dfinie pour la ngociation automatique afin de sassurer que la liaison fonctionne correctement.

Media Speed (dbit_support)

v Pilote de priphrique de carte PCI Ethernet Mbit/s 10/100/1000

Virtual I/O Server

177

Attribut Media Speed (dbit_support)

Cartes/Pilotes v Carte PCI Ethernet Base-T 10/100/1000 v Pilote de priphrique de carte PCI Ethernet-SX Gigabit

Description Lattribut de dbit du support indique la vitesse laquelle la carte tente de fonctionner. Les dbits disponibles sont 10 Mbit/s en semi-duplex, 10 Mbit/s en duplex intgral, 100 Mbit/s en semi-duplex, 100 Mbit/s en duplex intgral et ngociation automatique, avec ngociation automatique par dfaut. Slectionnez la ngociation automatique lorsque la carte doit utiliser la ngociation automatique sur le rseau pour dterminer le dbit. Si le rseau ne prend pas en charge la ngociation automatique, slectionnez le dbit spcifique. Pour que la carte sexcute 1000 Mbit/s, vous devez slectionner le paramtre de ngociation automatique. Remarque : Pour la carte PCI Ethernet-SX Gigabit, la seule slection disponible est la ngociation automatique.

Enable Alternate Ethernet Address (utilisation_adr_rempl)

La valeur yes pour cet attribut indique que ladresse de la carte, telle quelle apparat sur le rseau, est celle spcifie par lattribut Alternate Ethernet Address. Si vous indiquez la valeur no, ladresse de carte unique crite dans une mmoire ROM, sur la carte, est utilise. La valeur par dfaut est no. Permet de modifier ladresse unique de carte, telle quelle apparat sur le rseau local. La valeur entre doit tre une adresse Ethernet de 12 chiffres hexadcimaux et doit tre diffrente de ladresse des autres cartes Ethernet. Il nexiste pas de valeur par dfaut. Cette zone na aucun effet sauf si lattribut Enable Alternate Ethernet Address a pour valeur yes, auquel cas cette zone doit tre complte. Une adresse Ethernet typique est 0x02608C000001. Tous les chiffres hexadcimaux, y compris les zros de dbut, doivent tre entrs. v Pilote de priphrique de carte PCI Ethernet 10/100 Mbit/s Slectionnez no pour que le pilote de priphrique interroge la carte afin de dterminer ltat dune liaison, un intervalle de temps spcifique. La valeur de lintervalle de temps est spcifie dans la zone Poll Link Time Interval. Si vous slectionnez no, le pilote de priphrique ninterroge pas la carte pour connatre ltat de sa liaison. La valeur par dfaut est no. Dure, en millisecondes, autorise sur le pilote de priphrique entre deux interrogations de la carte pour extraire ltat de sa liaison. Cette valeur est requise lorsque loption Enable Link Polling a pour valeur yes. Vous pouvez indiquer une valeur comprise entre 100 et 1000. La valeur dincrment est 10. La valeur par dfaut est 500.

Alternate Ethernet Address (adr_remplacement)

Enable Link Polling (interrogation_liaison)

Poll Link Time Interval (intervalle_interro_liaison)

v Pilote de priphrique de carte PCI Ethernet 10/100 Mbit/s

178

Virtual I/O Server

Attribut Flow Control (ctrl_flux)

Cartes/Pilotes

Description

Cet attribut spcifie si la carte doit activer la v Pilote de priphrique de carte PCI-X Ethernet Base-T 10/100/1000 transmission et la rception du contrle de flux. La valeur par dfaut est no. v Pilote de priphrique de carte PCI-X Ethernet-SX Gigabit v Carte PCI-X Base-TX 10/100/1000 2 ports v Carte PCI-X Ethernet-SX Gigabit 2 ports v Pilote de priphrique de carte PCI Ethernet-SX Gigabit

Transmit Jumbo Frames (grandes_trames)

Lorsquil a la valeur yes, cet attribut indique v Pilote de priphrique de carte PCI-X Ethernet Base-T 10/100/1000 que des trames jusqu 9018 octets de long peuvent tre transmises sur cette carte. Si vous v Pilote de priphrique de carte indiquez no, la taille maximale des trames PCI-X Ethernet-SX Gigabit transmises est 1518 octets. Il reste possible de v Carte PCI-X Base-TX 10/100/1000 2 recevoir des trames jusqu 9018 octets sur ports cette carte. v Carte PCI-X Ethernet-SX Gigabit 2 ports v Pilote de priphrique de carte PCI Ethernet-SX Gigabit

Virtual I/O Server

179

Attribut Checksum Offload (dchargement_total_ctrl)

Cartes/Pilotes

Description

Cet attribut avec la valeur yes indique que la v Pilote de priphrique de carte PCI-X Ethernet Base-T 10/100/1000 carte calcule le total de contrle pour les trames TCP transmises et reues. Si vous v Pilote de priphrique de carte indiquez no, le total de contrle est calcul par PCI-X Ethernet-SX Gigabit le logiciel appropri. v Carte PCI-X Base-TX 10/100/1000 2 Lorsque lattribut de dchargement du total de ports contrle est activ sur une carte Ethernet v Carte PCI-X Ethernet-SX Gigabit 2 virtuelle, celle-ci annonce le total de contrle ports Hypervisor. Hypervisor identifie les cartes v Pilote de priphrique de carte PCI Ethernet virtuelles dont lattribut de Ethernet-SX Gigabit dchargement du total de contrle est activ et v Cartes Ethernet virtuelles gre en consquence la communication entre partitions. Lorsque les paquets rseau sont routs via la carte Ethernet partage, il y a des risques derreurs de liaison. Dans cet environnement, les paquets doivent passer par la liaison physique prsentant un total de contrle. La communication fonctionne de la manire suivante : v Lorsquun paquet est reu dune liaison physique, la carte physique vrifie le total de contrle. Si la destination du paquet est une carte Ethernet virtuelle dont lattribut de dchargement de total de contrle est activ, le rcepteur na pas besoin deffectuer de vrification du total de contrle. Un rcepteur dont lattribut de dchargement du total de contrle est activ acceptera le paquet aprs vrification du total de contrle. v Si un paquet provient dune carte Ethernet virtuelle dont lattribut de dchargement de total de contrle est activ, il est transmis vers la carte physique sans total de contrle. La carte physique gnrera un total de contrle avant denvoyer le paquet. Les paquets en provenance dune carte Ethernet virtuelle dont lattribut de dchargement de total de contrle est dsactiv gnrent le total de contrle au niveau de la source. Pour activer lattribut de dchargement du total de contrle pour une carte Ethernet partage, toutes les units participant doivent galement comporter lattribut activ. Lunit Ethernet partage chouera si les units sous-jacentes ne prsentent pas les mmes paramtres de dchargement du total de contrle.

180

Virtual I/O Server

Attribut

Cartes/Pilotes

Description

Cet attribut spcifie si la carte doit activer la Enable Hardware Transmit v Pilote de priphrique de carte TCP Resegmentation PCI-X Ethernet Base-T 10/100/1000 transmission de la resegmentation TCP pour les segments TCP. La valeur par dfaut est no. (envoi_volumineux) v Pilote de priphrique de carte PCI-X Ethernet-SX Gigabit v Carte PCI-X Base-TX 10/100/1000 2 ports v Carte PCI-X Ethernet-SX Gigabit 2 ports v Pilote de priphrique de carte PCI Ethernet-SX Gigabit

Attributs dune unit dagrgation de liaisons(EtherChannel)


Vous pouvez modifier les attributs ci-dessous relatifs une unit dagrgation de liaisonsou EtherChannel.
Attribut Description

Link Aggregation adapters Cartes constituant lunit dagrgation de liaisons. Pour modifier ces cartes, vous (noms_cartes) pouvez modifier cet attribut et slectionner toutes les cartes qui doivent appartenir lunit dagrgation de liaisons. Lorsque vous utilisez cet attribut pour slectionner toutes les cartes devant appartenir lunit dagrgation de liaisons, vous ne devez pas configurer dadresse IP sur son interface. Mode (mode) Type de canal configur. En mode standard, le canal envoie les paquets la carte en fonction dun algorithme (la valeur utilise pour ce calcul est dtermine par lattribut Hash Mode). En mode round_robin, le canal envoie un paquet chaque carte avant de rpter la boucle. Le mode par dfaut est standard. Le mode 802.3ad permet au protocole LACP (Link Aggregation Control Protocol de ngocier les cartes de lunit dagrgation de liaisons avec un commutateur compatible avec LACP. Si vous indiquez une autre valeur que la valeur par dfaut lattribut Hash Mode, vous devez indiquer standard ou 802.3ad. Sinon, la configuration de lunit dagrgation de liaisons choue. Hash Mode (mode_hachage) En mode standard ou IEEE 802.3ad, lattribut Hash Mode dtermine le mode de slection de la carte sortante pour chaque paquet. Les diffrents modes sont les suivants : v default : utilise ladresse IP de destination pour dterminer la carte sortante. v src_port : utilise le port TCP et UDP source pour cette connexion. v dst_port : utilise le port TCP ou UDP de destination pour cette connexion. v src_dst_port : utilise les ports TCP ou UDP source et de destination pour cette connexion afin de dterminer la carte sortante. Vous ne pouvez pas utiliser le mode round-robin avec une valeur de mode de hachage autre que default. La configuration de lunit dagrgation de liaisons choue si vous essayez dutiliser cette combinaison. Si le paquet nest pas de type TCP ou UDP, il utilise le mode de hachage par dfaut (adresse IP de destination). Lutilisation des ports TCP ou UDP pour le hachage permet une meilleure exploitation des cartes de lunit dagrgation de liaisons, dans la mesure o les connexions une mme adresse IP de destination peuvent tre envoyes sur des cartes diffrentes (tout en conservant lordre des paquets), ce qui permet daugmenter la largeur de bande de lunit dagrgation de liaisons.
Virtual I/O Server

181

Attribut Internet Address to Ping (adr_rseau)

Description Cette zone est facultative. Adresse IP pour laquelle lunit dagrgation de liaisons doit lancer la commande ping, afin de vrifier que le rseau est actif. Cet attribut est applicable uniquement en prsence dune carte de sauvegarde et dune ou plusieurs cartes dans lunit dagrgation de liaisons. Une adresse zro (ou uniquement constitue de zros) nest pas prise en compte et dsactive lenvoi des paquets ping si une adresse valide a t pralablement dfinie. Par dfaut, la zone est laisse blanc. Cette zone est facultative. Cet attribut contrle la frquence denvoi par lunit dagrgation de liaisons dun paquet ping pour interroger la carte en cours sur ltat de la liaison. Applicable uniquement si lunit dagrgation de liaisons comporte une ou plusieurs cartes, si une carte de sauvegarde est dfinie et si la zone Internet Address to Ping contient une adresse diffrente de zro. Indiquez la valeur du dlai en secondes. La plage des valeurs correctes est comprise entre 1 et 100 secondes. La valeur par dfaut est 1 seconde. Cette zone est facultative. Cet attribut indique le nombre de paquets ping perdus avant que lunit dagrgation de liaisons ne change de carte. Applicable uniquement si lunit dagrgation de liaisons comporte une ou plusieurs cartes, si une carte de sauvegarde est dfinie et si la zone Internet Address to Ping contient une adresse diffrente de zro. La plage des valeurs correctes est comprise entre 2 et 100 relances. La valeur par dfaut est 3. Cette zone est facultative. Pour utiliser cet attribut, tous les adaptateurs sous-jacents et le commutateur doivent prendre en charge les grandes trames (jumbo frames). Applicable uniquement avec une interface Standard Ethernet (en) et non pas avec une interface IEEE 802.3 (et). Cette zone est facultative. Si vous indiquez yes pour cet attribut, vous pouvez indiquer ladresse MAC que lunit dagrgation de liaisons doit utiliser. Si vous indiquez no, lunit dagrgation de liaisons utilise ladresse MAC de la premire carte. Si lattribut Enable Alternate Address a pour valeur yes, indiquez ladresse MAC que vous souhaitez utiliser. Ladresse que vous indiquez doit commencer par 0x et tre une adresse hexadcimale 12 chiffres.

Retry Timeout (dlai_relance)

Number of Retries (nombre_relances)

Enable Gigabit Ethernet Jumbo Frames (utilisation_grande_trame) Enable Alternate Address (utilisation_adr_rempl)

Alternate Address (adr_remplacement)

Attributs du rseau local virtuel (VLAN)


Il est possible de modifier les attributs VLAN ci-aprs.
Attribut VLAN Tag ID (ID_marque_vlan) Base Adapter (carte_base) Valeur ID unique associ au pilote VLAN. Vous pouvez indiquer une valeur comprise entre 1 et 4094. Carte rseau laquelle le pilote de priphrique VLAN est connect.

Attribut de qualit de service de la carte Ethernet partage


Il est possible de modifier lattribut qos_mode suivant. Mode disabled Il sagit du mode par dfaut. Le trafic VLAN ne fait pas lobjet dun examen en vue de trouver la zone de priorit. Par exemple,
chdev -dev <nom unit sea> -attr qos_mode=disabled

Mode strict Le trafic important est prioritaire par rapport au trafic moins important. Ce mode fournit de meilleures performances et offre davantage de bande passante au trafic important ; toutefois, il peut entraner des retards considrables pour le trafic moins important. Par exemple,

182

Virtual I/O Server

chdev -dev <nom unit sea> -attr qos_mode=strict

Mode loose Une limite est place sur chaque niveau de priorit ; ainsi, ds quun nombre doctets est envoy pour un niveau, le niveau suivant est pris en charge. Cette mthode garantit que tous les paquets sont, en dfinitive, envoys. Le trafic important reoit une bande passante infrieure avec ce mode, par rapport au mode strict ; cependant, les limites du mode loose sont telles que davantage doctets sont envoys pour le trafic important. Ce dernier reoit donc tout de mme davantage de bande passante que le trafic moins important. Par exemple,
chdev -dev <nom unit sea> -attr qos_mode=loose

Statistiques de carte Ethernet partage propres au client Pour collecter des statistiques rseau par client, activez la comptabilisation avance sur la carte Ethernet partage afin dobtenir plus dinformations sur son trafic rseau. Pour cela, paramtrez lattribut accounting de la carte Ethernet partage sur enabled (la valeur par dfaut est disabled). Quand la comptabilisation avance est active, la carte Ethernet partage effectue un suivi des adresses (MAC) matrielles de tous les paquets quelle reoit des clients LPAR et incrmente le nombre de paquets et doctets pour chaque client de faon indpendante. Lorsque la comptabilisation avance est active sur la carte Ethernet partage, vous pouvez gnrer un rapport pour visualiser les statistiques par client en excutant la commande seastat. Remarque : La comptabilisation avance doit tre active sur la carte Ethernet partage avant que vous puissiez utiliser la commande seastat pour imprimer des statistiques. Pour activer la comptabilisation avance sur la carte Ethernet partage, entrez la commande suivante :
chdev -dev <nom unit sea> -attr accounting=enabled

La commande suivante affiche des statistiques de carte Ethernet partage par client. Loption -n facultative dsactive la rsolution de nom sur les adresses IP.
seastat -d <nom unit sea> [-n]

La commande suivante supprime toutes les statistiques de carte Ethernet partage par client qui ont t collectes :
seastat -d <nom unit sea> -c

Statistiques sur la reprise par transfert dune carte Ethernet partage


Informations et exemples sur les statistiques relatives la reprise par transfert dune carte Ethernet partage, par exemple : informations sur la haute disponibilit et les types de paquet.

Description des statistiques


Tableau 50. Description des statistiques relatives la reprise par transfert dune carte Ethernet partage Statistique High availability (Haute disponibilit) Description Control Channel PVID ID VLAN de port de la carte Ethernet virtuelle utilise comme canal de contrle. Control Packets in Nombre de paquets reus sur le canal de contrle. Control Packets out Nombre de paquets envoys sur le canal de contrle.

Virtual I/O Server

183

Tableau 50. Description des statistiques relatives la reprise par transfert dune carte Ethernet partage (suite) Statistique Type of Packets Description Keep-Alive Packets Nombre de paquets de maintien de la connexion reus sur le canal de contrle. Les paquets de maintien de la connexion sont reus sur la carte Ethernet partage de secours lorsque la carte Ethernet partage principale est active. Recovery Packets Nombre de paquets de reprise reus sur le canal de contrle. Les paquets de reprise sont envoys par la carte Ethernet partage principale lorsque celle-ci peut tre nouveau active aprs une reprise aprs incident. Notify Packets Nombre de paquets de notification reus sur le canal de contrle. Les paquets de notification sont envoys par la carte Ethernet partage de secours lorsque celle-ci dtecte la reprise de la carte Ethernet partage principale. Limbo Packets Nombre de paquets dtat indtermin reus sur le canal de contrle. Les paquets dtat indtermin sont envoys par la carte Ethernet partage principale lorsque celle-ci dtecte une interruption du fonctionnement du rseau physique ou en cas de non fonctionnement de la commande ping sur lhte distant dfini (pour indiquer la carte de secours quelle doit sactiver).

184

Virtual I/O Server

Tableau 50. Description des statistiques relatives la reprise par transfert dune carte Ethernet partage (suite) Statistique Etat Description Etat en cours de la carte Ethernet partage. INIT Le protocole de reprise par transfert de la carte Ethernet partage vient dtre initialis.

PRIMARY La carte Ethernet partage transfre activement le trafic entre les rseaux locaux virtuels (VLAN) et le rseau. BACKUP La carte Ethernet partage est inactive et ne transfre pas le trafic entre les rseaux locaux virtuels (VLAN) et le rseau. RECOVERY La reprise aprs incident de la carte Ethernet partage principale a t effectue et celle-ci peut tre nouveau active. NOTIFY La carte Ethernet partage de secours dtect la reprise aprs incident de la carte Ethernet partage et quelle peut donc redevenir inactive. LIMBO Lune des situations suivantes sest produite : v Le rseau physique nest pas oprationnel. v Ltat du rseau physique est inconnu. v La carte Ethernet partage ne parvient pas effectuer un ping sur lhte dfini.

Bridge Mode

Indique le mode de pontage actuel du trafic de la carte Ethernet partage (le cas chant). Unicast La carte Ethernet partage envoie et reoit uniquement du trafic destinataire unique (aucun trafic multidiffusion ni diffusion). Pour viter une saturation de la diffusion, la carte Ethernet partage envoie et reoit uniquement du trafic destinataire unique lorsquelle se trouve ltat INIT ou RECOVERY. All None La carte Ethernet partage envoie et reoit tout type de trafic rseau. La carte Ethernet partage nenvoie ni ne reoit aucune trafic rseau.

Number of Times Server became Backup Number of Times Server became Primary

Nombre de fois o la carte Ethernet partage active est devenue inactive suite un incident. Nombre de fois o la carte Ethernet partage inactive est devenue inactive suite une dfaillance de la carte Ethernet partage principale.

Virtual I/O Server

185

Tableau 50. Description des statistiques relatives la reprise par transfert dune carte Ethernet partage (suite) Statistique High Availability Mode Description Comportement de la carte Ethernet partage concernant le protocole de reprise par transfert de carte Ethernet partage. Auto Le protocole de reprise par transfert de la carte Ethernet partage dtermine si la carte Ethernet partage joue le rle de carte Ethernet partage principale ou de carte Ethernet partage de secours. La carte Ethernet partage joue le rle de carte de secours si une autre carte Ethernet partage peut jouer le rle de carte principale. En mode Standby, une carte Ethernet partage principale devient carte Ethernet partage de secours si une autre carte Ethernet partage peut devenir carte Ethernet partage principale. Priority Indique la priorit de liaison des cartes Ethernet virtuelles de la carte Ethernet partage. A partir de cette information, le protocole de la carte Ethernet partage dtermine quelle carte Ethernet partage joue le rle de carte Ethernet partage principale et quelle carte Ethernet partage joue le rle de carte Ethernet partage de secours. La valeur est comprise entre 1 et 12 (plus le nombre faible, plus la priorit de la carte Ethernet partage est leve pour devenir carte principale).

Standby

Exemples de statistiques
Lexcution de la commande entstat -all renvoie des rsultats du type suivant :
ETHERNET STATISTICS (ent8) : Device Type: Shared Ethernet Adapter Hardware Address: 00:0d:60:0c:05:00 Elapsed Time: 3 days 20 hours 34 minutes 26 seconds Transmit Statistics: -------------------Packets: 7978002 Bytes: 919151749 Interrupts: 3 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 5701362 Bytes: 664049607 Interrupts: 5523380 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 2 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 1 Elapsed Time: 0 days 0 hours 0 minutes 0 seconds Broadcast Packets: 5312086 Broadcast Packets: 3740225 Multicast Packets: 265589 Multicast Packets: 194986 No Carrier Sense: 0 CRC Errors: 0 DMA Underrun: 0 DMA Overrun: 0 Lost CTS Errors: 0 Alignment Errors: 0 Max Collision Errors: 0 No Resource Errors: 0 Late Collision Errors: 0 Receive Collision Errors: 0

186

Virtual I/O Server

Deferred: 0 SQE Test: 0 Timeout Errors: 0 Single Collision Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 1 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 0 Driver Flags: Up Broadcast Running Simplex 64BitSupport ChecksumOffLoad DataRateSet

Packet Too Short Errors: 0 Packet Too Long Errors: 0 Packets Discarded by Adapter: 0 Receiver Start Count: 0

-------------------------------------------------------------Statistics for adapters in the carte Ethernet partage ent8 -------------------------------------------------------------Number of adapters: 2 SEA Flags: 00000001 < THREAD > VLAN IDs : ent7: 1 Real Side Statistics: Packets received: 5701344 Packets bridged: 5673198 Packets consumed: 3963314 Packets fragmented: 0 Packets transmitted: 28685 Packets dropped: 0 Virtual Side Statistics: Packets received: 0 Packets bridged: 0 Packets consumed: 0 Packets fragmented: 0 Packets transmitted: 5673253 Packets dropped: 0 Other Statistics: Output packets generated: 28685 Output packets dropped: 0 Device output failures: 0 Memory allocation failures: 0 ICMP error packets sent: 0 Non IP packets larger than MTU: 0 Thread queue overflow packets: 0 High Availability Statistics: Control Channel PVID: 99 Control Packets in: 0 Control Packets out: 818825 Type of Packets Received: Keep-Alive Packets: 0 Recovery Packets: 0 Notify Packets: 0 Limbo Packets: 0 State: LIMBO Bridge Mode: All Number of Times Server became Backup: 0 Number of Times Server became Primary: 0 High Availability Mode: Auto Priority: 1 -------------------------------------------------------------Real Adapter: ent2 ETHERNET STATISTICS (ent2) : Device Type: 10/100 Mbps Ethernet PCI Adapter II (1410ff01)
Virtual I/O Server

187

Hardware Address: 00:0d:60:0c:05:00 Transmit Statistics: -------------------Packets: 28684 Bytes: 3704108 Interrupts: 3 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 5701362 Bytes: 664049607 Interrupts: 5523380 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 2 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 1 Broadcast Packets: 21 Multicast Packets: 0 No Carrier Sense: 0 DMA Underrun: 0 Lost CTS Errors: 0 Max Collision Errors: 0 Late Collision Errors: 0 Deferred: 0 SQE Test: 0 Timeout Errors: 0 Single Collision Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 1 Broadcast Packets: 3740225 Multicast Packets: 194986 CRC Errors: 0 DMA Overrun: 0 Alignment Errors: 0 No Resource Errors: 0 Receive Collision Errors: 0 Packet Too Short Errors: 0 Packet Too Long Errors: 0 Packets Discarded by Adapter: 0 Receiver Start Count: 0

General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 200 Driver Flags: Up Broadcast Running Simplex Promiscuous AlternateAddress 64BitSupport ChecksumOffload PrivateSegment LargeSend DataRateSet 10/100 Mbps Ethernet PCI Adapter II (1410ff01) Specific Statistics: -----------------------------------------------------------------------Link Status: Up Media Speed Selected: Auto negotiation Media Speed Running: 100 Mbps Full Duplex Receive Pool Buffer Size: 1024 No Receive Pool Buffer Errors: 0 Receive Buffer Too Small Errors: 0 Entries to transmit timeout routine: 0 Transmit IPsec packets: 0 Transmit IPsec packets dropped: 0 Receive IPsec packets: 0 Receive IPsec SA offload count: 0 Transmit Large Send packets: 0 Transmit Large Send packets dropped: 0 Packets with Transmit collisions: 1 collisions: 0 6 collisions: 0 11 collisions: 0 2 collisions: 0 7 collisions: 0 12 collisions: 0 3 collisions: 0 8 collisions: 0 13 collisions: 0 4 collisions: 0 9 collisions: 0 14 collisions: 0 5 collisions: 0 10 collisions: 0 15 collisions: 0 -------------------------------------------------------------Virtual Adapter: ent7 ETHERNET STATISTICS (ent7) : Device Type: Virtual I/O Ethernet Adapter (l-lan) Hardware Address: 8a:83:54:5b:4e:9a

188

Virtual I/O Server

Transmit Statistics: -------------------Packets: 7949318 Bytes: 915447641 Interrupts: 0 Transmit Errors: 0 Packets Dropped: 0

Receive Statistics: ------------------Packets: 0 Bytes: 0 Interrupts: 0 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0

Max Packets on S/W Transmit Queue: 0 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 0 Broadcast Packets: 5312065 Multicast Packets: 265589 No Carrier Sense: 0 DMA Underrun: 0 Lost CTS Errors: 0 Max Collision Errors: 0 Late Collision Errors: 0 Deferred: 0 SQE Test: 0 Timeout Errors: 0 Single Collision Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 0 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 20000 Driver Flags: Up Broadcast Running Simplex Promiscuous AllMulticast 64BitSupport ChecksumOffload DataRateSet Virtual I/O Ethernet Adapter (l-lan) Specific Statistics: --------------------------------------------------------RQ Lingth: 4481 No Copy Buffers: 0 Trunk Adapter: True Priority: 1 Active: True Filter MCast Mode: False Filters: 255 Enabled: 1 Queued: 0 Overflow: 0 LAN State: Operational Hypervisor Send Failures: 2371664 Receiver Failures: 2371664 Send Errors: 0 Hypervisor Receive Failures: 0 ILLAN Attributes: 0000000000003103 [0000000000003103] PVID: 1 VIDs: None Broadcast Packets: 0 Multicast Packets: 0 CRC Errors: 0 DMA Overrun: 0 Alignment Errors: 0 No Resource Errors: 0 Receive Collision Errors: 0 Packet Too Short Errors: 0 Packet Too Long Errors: 0 Packets Discarded by Adapter: 0 Receiver Start Count: 0

Switch ID: ETHERNET0 Buffers tiny small medium large huge Reg Alloc Min 512 512 512 512 512 512 128 128 128 24 24 24 24 24 24 Max 2048 2048 256 64 64 MaxA LowReg 512 512 512 512 128 128 24 24 24 24

-------------------------------------------------------------Virtual I/O Server

189

Control Adapter: ent9 ETHERNET STATISTICS (ent9) : Device Type: Virtual I/O Ethernet Adapter (l-lan) Hardware Address: 8a:83:54:5b:4e:9b Transmit Statistics: -------------------Packets: 821297 Bytes: 21353722 Interrupts: 0 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 0 Bytes: 0 Interrupts: 0 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 0 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 0 Broadcast Packets: 821297 Broadcast Packets: 0 Multicast Packets: 0 Multicast Packets: 0 No Carrier Sense: 0 CRC Errors: 0 DMA Underrun: 0 DMA Overrun: 0 Lost CTS Errors: 0 Alignment Errors: 0 Max Collision Errors: 0 No Resource Errors: 0 Late Collision Errors: 0 Receive Collision Errors: 0 Deferred: 0 Packet Too Short Errors: 0 SQE Test: 0 Packet Too Long Errors: 0 Timeout Errors: 0 Packets Discarded by Adapter: 0 Single Collision Count: 0 Receiver Start Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 0 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 20000 Driver Flags: Up Broadcast Running Simplex 64BitSupport ChecksumOffload DataRateSet Virtual I/O Ethernet Adapter (l-lan) Specific Statistics: --------------------------------------------------------RQ Length: 4481 No Copy Buffers: 0 Trunk Adapter: False Filter MCast Mode: False Filters: 255 Enabled: 0 Queued: 0 Overflow: 0 LAN State: Operational Hypervisor Send Failures: 0 Receiver Failures: 0 Send Errors: 0 Hypervisor Receive Failures: 0 ILLAN Attributes: 0000000000003002 [0000000000003002] PVID: 99 VIDs: None

Switch ID: ETHERNET0 Buffers tiny small Reg Alloc Min 512 512 512 512 Max MaxA LowReg 512 2048 512 512 2048 512 512 512

190

Virtual I/O Server

medium large huge

128 24 24

128 24 24

128 24 24

256 64 64

128 24 24

128 24 24

Statistiques relatives une carte Ethernet partage


Informations et exemples sur les statistiques gnrales relatives une carte Ethernet partage, telles que les ID VLAN (ID de rseau local virtuel) et les informations sur les paquets.

Description des statistiques


Tableau 51. Description des statistiques relatives une carte Ethernet partage Statistique Number of adapters Description Nombre de cartes (carte relle et toutes les cartes virtuelles). Remarque : Si vous utilisez la reprise par transfert de la carte Ethernet partage, la carte du canal de contrle nest pas incluse. Indique les fonctions actuellement excutes par la carte Ethernet partage. THREAD La carte Ethernet partage fonctionne en mode units dexcution (les paquets entrants sont mis en file dattente et traits par diffrentes units dexcution). Si cette indication napparat pas, la carte fonctionne en mode interruption (les paquets sont traits au moment de leur rception). LARGESEND La fonction denvoi volumineux a t active sur la carte Ethernet partage. JUMBO_FRAMES La fonction de grandes trames a t active sur la carte Ethernet partage. GVRP VLAN IDs La fonction GVRP a t active sur la carte Ethernet partage.

SEA flags

Liste des ID de rseau local virtuel qui ont accs au rseau via la carte Ethernet partage (inclut le PVID et les rseaux VLAN marqus).

Virtual I/O Server

191

Tableau 51. Description des statistiques relatives une carte Ethernet partage (suite) Statistique Real adapters Description Packets received Nombre de paquets reus sur le rseau physique. Packets bridged Nombre de paquets reus sur le rseau physique et envoys au rseau virtuel. Packets consumed Nombre de paquets reus sur le rseau physique et adresss linterface configure sur la carte Ethernet partage. Packets fragmented Nombre de paquets reus sur le rseau physique et fragments avant lenvoi au rseau virtuel. Les paquets sont fragments lorsque leur taille est suprieure lunit de transmission maximale (MTU) de la carte. Packets transmitted Nombre de paquets envoys sur le rseau physique. Ce nombre inclut les paquets envoys par linterface configure sur la carte Ethernet partage, ainsi que les paquets envoys par le rseau virtuel au rseau physique (y compris les fragments). Packets dropped Nombre de paquets reus sur le rseau physique et supprims pour lune des raisons suivantes : v Le paquet est le plus ancien de la file dattente des units dexcution et lespace libre est insuffisant pour la rception dun nouveau paquet. v Le paquet comporte un ID VLAN incorrect et ne peut pas tre trait. v Le paquet est adress linterface de la carte Ethernet partage, mais aucun filtre na t enregistr sur celle-ci.

192

Virtual I/O Server

Tableau 51. Description des statistiques relatives une carte Ethernet partage (suite) Statistique Virtual adapters Description Packets received Nombre de paquets reus sur le rseau virtuel. Il sagit du nombre de paquets reus sur lensemble des cartes virtuelles. Packets bridged Nombre de paquets reus sur le rseau virtuel et envoys au rseau physique. Packets consumed Nombre de paquets reus sur le rseau virtuel et adresss linterface configure sur la carte Ethernet partage. Packets fragmented Nombre de paquets reus sur le rseau virtuel et fragments avant lenvoi au rseau physique. Les paquets sont fragments lorsque leur taille est suprieure lunit de transmission maximale (MTU) de la carte. Packets transmitted Nombre de paquets envoys sur le rseau virtuel. Ce nombre inclut les paquets envoys par linterface configure sur la carte Ethernet partage, ainsi que les paquets envoys par le rseau physique au rseau virtuel (y compris les fragments). Packets dropped Nombre de paquets reus sur le rseau virtuel et supprims pour lune des raisons suivantes : v Le paquet est le plus ancien de la file dattente des units dexcution et lespace libre est insuffisant pour la rception dun nouveau paquet. v Le paquet est adress linterface de la carte Ethernet partage, mais aucun filtre na t enregistr sur celle-ci.

Output packets generated

Nombre de paquets comportant une balise VLAN incorrecte ou aucune balise VLAN envoys par linterface configure sur la carte Ethernet partage. Nombre de paquets envoys par linterface configure sur la carte Ethernet partage et supprims cause dune balise VLAN incorrecte. Nombre de paquets non envoys suite des erreurs sur lunit sous-jacente. Il peut sagir derreurs envoyes sur le rseau physique et le rseau virtuel, notamment les paquets subissant une erreur lie la fragmentation et au protocole ICMP (Internet Control Message Protocol) provenant de la carte Ethernet partage. Nombre de paquets non envoys par manque de mmoire sur le rseau pour accomplir lopration.

Output packets dropped

Device output failures

Memory allocation failures

Virtual I/O Server

193

Tableau 51. Description des statistiques relatives une carte Ethernet partage (suite) Statistique ICMP error packets sent Description Nombre de paquets en erreur ICMP envoys avec succs en cas dimpossibilit de fragmentation de paquet volumineux due la dfinition du bit dont fragment. Nombre de paquets non envoys pour les raisons suivantes : leur taille est suprieure lunit de transmission maximale (MTU) de la carte et leur fragmentation est impossible car ce ne sont pas des paquets IP. Nombre de paquets supprims des files dattente dunits dexcution cause dun espace insuffisant pour la rception dun nouveau paquet.

Non IP packets larger than MTU

Thread queue overflow packets

Exemples de statistiques
ETHERNET STATISTICS (ent8) : Device Type: Shared Ethernet Adapter Hardware Address: 00:0d:60:0c:05:00 Elapsed Time: 3 days 20 hours 34 minutes 26 seconds Transmit Statistics: -------------------Packets: 7978002 Bytes: 919151749 Interrupts: 3 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 5701362 Bytes: 664049607 Interrupts: 5523380 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 2 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 1 Elapsed Time: 0 days 0 hours 0 minutes 0 seconds Broadcast Packets: 5312086 Broadcast Packets: 3740225 Multicast Packets: 265589 Multicast Packets: 194986 No Carrier Sense: 0 CRC Errors: 0 DMA Underrun: 0 DMA Overrun: 0 Lost CTS Errors: 0 Alignment Errors: 0 Max Collision Errors: 0 No Resource Errors: 0 Late Collision Errors: 0 Receive Collision Errors: 0 Deferred: 0 Packet Too Short Errors: 0 SQE Test: 0 Packet Too Long Errors: 0 Timeout Errors: 0 Packets Discarded by Adapter: 0 Single Collision Count: 0 Receiver Start Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 1 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 0 Driver Flags: Up Broadcast Running Simplex 64BitSupport ChecksumOffLoad DataRateSet -------------------------------------------------------------Statistics for adapters in the carte Ethernet partage ent8 -------------------------------------------------------------Number of adapters: 2 SEA Flags: 00000001 < THREAD >

194

Virtual I/O Server

VLAN IDs : ent7: 1 Real Side Statistics: Packets received: 5701344 Packets bridged: 5673198 Packets consumed: 3963314 Packets fragmented: 0 Packets transmitted: 28685 Packets dropped: 0 Virtual Side Statistics: Packets received: 0 Packets bridged: 0 Packets consumed: 0 Packets fragmented: 0 Packets transmitted: 5673253 Packets dropped: 0 Other Statistics: Output packets generated: 28685 Output packets dropped: 0 Device output failures: 0 Memory allocation failures: 0 ICMP error packets sent: 0 Non IP packets larger than MTU: 0 Thread queue overflow packets: 0 -------------------------------------------------------------Real Adapter: ent2 ETHERNET STATISTICS (ent2) : Device Type: 10/100 Mbps Ethernet PCI Adapter II (1410ff01) Hardware Address: 00:0d:60:0c:05:00 Transmit Statistics: -------------------Packets: 28684 Bytes: 3704108 Interrupts: 3 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 5701362 Bytes: 664049607 Interrupts: 5523380 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 2 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 1 Broadcast Packets: 21 Multicast Packets: 0 No Carrier Sense: 0 DMA Underrun: 0 Lost CTS Errors: 0 Max Collision Errors: 0 Late Collision Errors: 0 Deferred: 0 SQE Test: 0 Timeout Errors: 0 Single Collision Count: 0 Multiple Collision Count: Current HW Transmit Queue Broadcast Packets: 3740225 Multicast Packets: 194986 CRC Errors: 0 DMA Overrun: 0 Alignment Errors: 0 No Resource Errors: 0 Receive Collision Errors: 0 Packet Too Short Errors: 0 Packet Too Long Errors: 0 Packets Discarded by Adapter: 0 Receiver Start Count: 0 0 Length: 1

General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 200 Driver Flags: Up Broadcast Running Simplex Promiscuous AlternateAddress 64BitSupport ChecksumOffload PrivateSegment LargeSend DataRateSet
Virtual I/O Server

195

10/100 Mbps Ethernet PCI Adapter II (1410ff01) Specific Statistics: -----------------------------------------------------------------------Link Status: Up Media Speed Selected: Auto negotiation Media Speed Running: 100 Mbps Full Duplex Receive Pool Buffer Size: 1024 No Receive Pool Buffer Errors: 0 Receive Buffer Too Small Errors: 0 Entries to transmit timeout routine: 0 Transmit IPsec packets: 0 Transmit IPsec packets dropped: 0 Receive IPsec packets: 0 Receive IPsec SA offload count: 0 Transmit Large Send packets: 0 Transmit Large Send packets dropped: 0 Packets with Transmit collisions: 1 collisions: 0 6 collisions: 0 11 collisions: 0 2 collisions: 0 7 collisions: 0 12 collisions: 0 3 collisions: 0 8 collisions: 0 13 collisions: 0 4 collisions: 0 9 collisions: 0 14 collisions: 0 5 collisions: 0 10 collisions: 0 15 collisions: 0 -------------------------------------------------------------Virtual Adapter: ent7 ETHERNET STATISTICS (ent7) : Device Type: Virtual I/O Ethernet Adapter (l-lan) Hardware Address: 8a:83:54:5b:4e:9a Transmit Statistics: -------------------Packets: 7949318 Bytes: 915447641 Interrupts: 0 Transmit Errors: 0 Packets Dropped: 0 Receive Statistics: ------------------Packets: 0 Bytes: 0 Interrupts: 0 Receive Errors: 0 Packets Dropped: 0 Bad Packets: 0 Max Packets on S/W Transmit Queue: 0 S/W Transmit Queue Overflow: 0 Current S/W+H/W Transmit Queue Length: 0 Broadcast Packets: 5312065 Broadcast Packets: 0 Multicast Packets: 265589 Multicast Packets: 0 No Carrier Sense: 0 CRC Errors: 0 DMA Underrun: 0 DMA Overrun: 0 Lost CTS Errors: 0 Alignment Errors: 0 Max Collision Errors: 0 No Resource Errors: 0 Late Collision Errors: 0 Receive Collision Errors: 0 Deferred: 0 Packet Too Short Errors: 0 SQE Test: 0 Packet Too Long Errors: 0 Timeout Errors: 0 Packets Discarded by Adapter: 0 Single Collision Count: 0 Receiver Start Count: 0 Multiple Collision Count: 0 Current HW Transmit Queue Length: 0 General Statistics: ------------------No mbuf Errors: 0 Adapter Reset Count: 0 Adapter Data Rate: 20000 Driver Flags: Up Broadcast Running Simplex Promiscuous AllMulticast 64BitSupport ChecksumOffload DataRateSet Virtual I/O Ethernet Adapter (l-lan) Specific Statistics:

196

Virtual I/O Server

--------------------------------------------------------RQ Lingth: 4481 No Copy Buffers: 0 Trunk Adapter: True Priority: 1 Active: True Filter MCast Mode: False Filters: 255 Enabled: 1 Queued: 0 Overflow: 0 LAN State: Operational Hypervisor Send Failures: 2371664 Receiver Failures: 2371664 Send Errors: 0 Hypervisor Receive Failures: 0 ILLAN Attributes: 0000000000003103 [0000000000003103] PVID: 1 VIDs: None

Switch ID: ETHERNET0 Buffers tiny small medium large huge Reg Alloc Min 512 512 512 512 512 512 128 128 128 24 24 24 24 24 24 Max 2048 2048 256 64 64 MaxA LowReg 512 512 512 512 128 128 24 24 24 24

Types dutilisateur pour le serveur Virtual I/O Server


Cette rubrique dcrit les types dutilisateur du serveur Virtual I/O Server et leurs droits. Virtual I/O Server dispose des types dutilisateur suivants : administrateur principal, administrateur systme, utilisateur technicien de maintenance et utilisateur ingnieur de dveloppement. Aprs linstallation, le seul type dutilisateur actif est ladministrateur principal.

Administrateur principal
LID utilisateur de ladministrateur principal (padmin) est le seul ID utilisateur activ aprs linstallation de Virtual I/O Server. Il peut excuter toutes les commandes du serveur Virtual I/O Server. Il ne peut y avoir quun seul administrateur principal sur le serveur Virtual I/O Server.

Administrateur systme
LID utilisateur administrateur systme a accs toutes les commandes, lexception des suivantes : v lsfailedlogin v lsgcl v Commande mirrorios v Commande mkuser v v v v oem_setup_env Commande rmuser Commande shutdown Commande unmirrorios

Ladministrateur principal peut crer un nombre illimit dID dadministrateur systme.

Virtual I/O Server

197

Technicien de maintenance
Crez le type dutilisateur technicien de maintenance (SR) pour permettre un technicien de maintenance de se connecter au systme afin de raliser des routines de diagnostic. Une fois connect, lutilisateur technicien de maintenance est dirig directement vers les menus de diagnostic.

Ingnieur de dveloppement
Crez le type dutilisateur ingnieur de dveloppement pour permettre un ingnieur de dveloppement de se connecter au systme et de rsoudre les incidents.

Affichage
Ce rle autorise uniquement les oprations en lecture seule et ne permet dexcuter que les fonctions de type ls. Les utilisateurs dots de ce rle ne sont pas autoriss modifier la configuration du systme et ne disposent pas des droits dcriture dans leur rpertoire de base.

198

Virtual I/O Server

Remarques
Le prsent document peut contenir des informations ou des rfrences concernant certains produits, logiciels ou services du fabricant non annoncs dans ce pays. Le prsent document peut contenir des informations ou des rfrences concernant certains produits, logiciels ou services non annoncs dans ce pays. Pour plus de dtails sur les produits et services actuellement disponibles dans votre pays, adressez-vous au partenaire commercial du fabricant. Toute rfrence un produit, logiciel ou service du fabricant nimplique pas que seul ce produit, logiciel ou service puisse convenir. Tout autre lment fonctionnellement quivalent peut tre utilis, sil nenfreint aucun droit du fabricant. Il est de la responsabilit de lutilisateur dvaluer et de vrifier lui-mme les installations et applications ralises avec des produits, logiciels ou services non expressment rfrencs par le fabricant. Le fabricant peut dtenir des brevets ou des demandes de brevet couvrant les produits mentionns dans le prsent document. La remise de ce document ne vous donne aucun droit de licence sur ces brevets ou demandes de brevet. Si vous dsirez recevoir des informations concernant lacquisition de licences, veuillez en faire la demande par crit ladresse suivante : Les informations relatives aux licences des produits utilisant un jeu de caractres double octet peuvent tre obtenues par crit auprs du fabricant. Le paragraphe suivant ne sapplique ni au Royaume-Uni, ni dans aucun pays dans lequel il serait contraire aux lois locales. LE PRESENT DOCUMENT EST LIVRE EN LETAT SANS AUCUNE GARANTIE EXPLICITE OU IMPLICITE. LE FABRICANT DECLINE NOTAMMENT TOUTE RESPONSABILITE RELATIVE A CES INFORMATIONS EN CAS DE CONTREFAON AINSI QUEN CAS DE DEFAUT DAPTITUDE A LEXECUTION DUN TRAVAIL DONNE. Certaines juridictions nautorisent pas lexclusion des garanties implicites, auquel cas lexclusion ci-dessus ne vous sera pas applicable. Le prsent document peut contenir des inexactitudes ou des coquilles. Ce document est mis jour priodiquement. Chaque nouvelle dition inclut les mises jour. Le fabricant peut modifier sans pravis les produits et logiciels dcrits dans ce document. Les rfrences des sites Web non rfrencs par le fabricant sont fournies titre dinformation uniquement et nimpliquent en aucun cas une adhsion aux donnes quils contiennent. Les lments figurant sur ces sites Web ne font pas partie des lments du prsent produit et lutilisation de ces sites relve de votre seule responsabilit. Le fabricant pourra utiliser ou diffuser, de toute manire quil jugera approprie et sans aucune obligation de sa part, tout ou partie des informations qui lui seront fournies. Les licencis souhaitant obtenir des informations permettant : (i) lchange des donnes entre des logiciels crs de faon indpendante et dautres logiciels (dont celui-ci), et (ii) lutilisation mutuelle des donnes ainsi changes, doivent adresser leur demande : Ces informations peuvent tre soumises des conditions particulires, prvoyant notamment le paiement dune redevance. Le logiciel sous licence dcrit dans ce document et toutes les lments sous licence disponibles sy rapportant sont fournis par IBM conformment aux dispositions du Livret Contractuel IBM, des Conditions Internationales dUtilisation de Logiciels IBM, des Conditions dUtilisation du Code Machine ou de toute autre contrat quivalent.

199

Les donnes de performance indiques dans ce document ont t dtermines dans un environnement contrl. Par consquent, les rsultats peuvent varier de manire significative selon lenvironnement dexploitation utilis. Certaines mesures values sur des systmes en cours de dveloppement ne sont pas garanties sur tous les systmes disponibles. En outre, elles peuvent rsulter dextrapolations. Les rsultats peuvent donc varier. Il incombe aux utilisateurs de ce document de vrifier si ces donnes sont applicables leur environnement dexploitation. Les informations concernant les produits de fabricants tiers ont t obtenues auprs des fournisseurs de ces produits, par lintermdiaire dannonces publiques ou via dautres sources disponibles. Ce fabricant na pas test ces produits et ne peut confirmer lexactitude de leurs performances ni leur compatibilit. Il ne peut recevoir aucune rclamation concernant des produits de fabricants tiers. Toute question concernant les performances de produits de fabricants tiers doit tre adresse aux fournisseurs de ces produits. Toute instruction relative aux intentions du fabricant pour ses oprations venir est susceptible dtre modifie ou annule sans pravis, et doit tre considre uniquement comme un objectif. Tous les tarifs indiqus sont les prix de vente actuels suggrs par le fabricant et sont susceptibles dtre modifis sans pravis. Les tarifs appliqus peuvent varier selon les revendeurs. Ces informations sont fournies uniquement titre de planification. Elles sont susceptibles dtre modifies avant la mise disposition des produits dcrits. Le prsent document peut contenir des exemples de donnes et de rapports utiliss couramment dans lenvironnement professionnel. Ces exemples mentionnent des noms fictifs de personnes, de socits, de marques ou de produits des fins illustratives ou explicatives uniquement. Tous ces noms sont fictifs et toute ressemblance avec des noms et adresses utiliss par une entreprise relle serait purement fortuite. LICENCE DE COPYRIGHT : Le prsent logiciel contient des exemples de programmes dapplication en langage source destins illustrer les techniques de programmation sur diffrentes plateformes dexploitation. Vous avez le droit de copier, de modifier et de distribuer ces exemples de programmes sous quelque forme que ce soit et sans paiement daucune redevance au fabricant, des fins de dveloppement, dutilisation, de vente ou de distribution de programmes dapplication conformes aux interfaces de programmation des plateformes pour lesquels ils ont t crits ou aux interfaces de programmation IBM. Ces exemples de programmes nont pas t rigoureusement tests dans toutes les conditions. Par consquent, le fabricant ne peut garantir expressment ou implicitement la fiabilit, la maintenabilit ou le fonctionnement de ces programmes. Toute copie totale ou partielle de ces programmes exemples et des oeuvres qui en sont drives doit comprendre une notice de copyright, libelle comme suit : (nom de votre entreprise) (anne). Des segments de code sont drivs des Programmes exemples dIBM Corp. Copyright IBM Corp. _entrez lanne ou les annes_. Tous droits rservs. Si vous visualisez ces informations en ligne, il se peut que les photographies et illustrations en couleur napparaissent pas lcran.

Documentation sur linterface de programmation


La publication (AJOUTEZ ICI LE NOM DE LA PUBLICATION) dcrit des interfaces de programmation qui permettent au client dcrire des programmes capables dobtenir les services de (AJOUTEZ ICI LE NOM DU PRODUIT).

200

Virtual I/O Server

Marques
IBM, le logo IBM et ibm.com sont des marques dInternational Business Machines, dposes dans de nombreux pays. Dautres socits sont propritaires des autres marques, noms de produits ou logos. La liste actualise de toutes les marques dIBM est disponible sur la page Web Copyright and trademark information www.ibm.com/legal/copytrade.shtml. Linux est une marque de Linus Torvalds aux Etats-Unis et/ou dans certains autres pays. Microsoft et Windows sont des marques de Microsoft Corporation aux Etats-Unis et/ou dans certains autres pays. Red Hat, le logo Red Hat Shadow Man et tous les logos et toutes les marques de Red Hat sont des marques de Red Hat Inc. aux Etats-Unis et/ou dans certains autres pays. UNIX est une marque enregistre de The Open Group aux Etats-Unis et/ou dans certains autres pays. Les autres noms de socits, de produits et de services peuvent appartenir des tiers.

Dispositions
Les droits dutilisation relatifs ces publications sont soumis aux dispositions suivantes. Usage personnel : Vous pouvez reproduire ces publications pour votre usage personnel, non commercial, sous rserve que toutes les mentions de proprit soient conserves. Vous ne pouvez distribuer ou publier tout ou partie de ces publications ou en faire des oeuvres drives, sans le consentement exprs du fabricant. Usage commercial : Vous pouvez reproduire, distribuer et afficher ces publications uniquement au sein de votre entreprise, sous rserve que toutes les mentions de proprit soient conserves. Vous ne pouvez reproduire, distribuer, afficher ou publier tout ou partie de ces publications en dehors de votre entreprise, ou en faire des oeuvres drives, sans le consentement exprs du fabricant. Except les droits dutilisation expressment accords dans ce document, aucun autre droit, licence ou autorisation, implicite ou explicite, nest accord pour ces publications ou autres donnes, logiciels ou droits de proprit intellectuelle contenus dans ces publications. Le fabricant se rserve le droit de retirer les autorisations accordes dans le prsent document si lutilisation des publications savre prjudiciable ses intrts ou que, selon son apprciation, les instructions susmentionnes nont pas t respectes. Vous ne pouvez tlcharger, exporter ou rexporter ces informations quen total accord avec toutes les lois et rglements applicables dans votre pays, y compris les lois et rglements amricains relatifs lexportation. LE FABRICANT NE DONNE AUCUNE GARANTIE SUR LE CONTENU DE CES PUBLICATIONS. CES PUBLICATIONS SONT LIVREES EN LETAT SANS AUCUNE GARANTIE EXPLICITE OU IMPLICITE. LE FABRICANT DECLINE NOTAMMENT TOUTE RESPONSABILITE RELATIVE A CES INFORMATIONS EN CAS DE CONTREFAON AINSI QUEN CAS DE DEFAUT DAPTITUDE A LEXECUTION DUN TRAVAIL DONNE.

Remarques

201

202

Virtual I/O Server

BULL CEDOC 357 AVENUE PATTON B.P.20845 49008 ANGERS CEDEX 01 FRANCE

REFERENCE

86 F1 81FA 01

Vous aimerez peut-être aussi