Vous êtes sur la page 1sur 420

Guide d'administration systme d'Oracle

Solaris Cluster

Rfrence : 821281310
Septembre 2010, Rvision A

Copyright 2000, 2010, Oracle et/ou ses affilis. Tous droits rservs.
Ce logiciel et la documentation qui l'accompagne sont protgs par les lois sur la proprit intellectuelle. Ils sont concds sous licence et soumis des restrictions
d'utilisation et de divulgation. Sauf disposition de votre contrat de licence ou de la loi, vous ne pouvez pas copier, reproduire, traduire, diffuser, modifier, breveter,
transmettre, distribuer, exposer, excuter, publier ou afficher le logiciel, mme partiellement, sous quelque forme et par quelque procd que ce soit. Par ailleurs, il est
interdit de procder toute ingnierie inverse du logiciel, de le dsassembler ou de le dcompiler, except des fins d'interoprabilit avec des logiciels tiers ou tel que
prescrit par la loi.
Les informations fournies dans ce document sont susceptibles de modification sans pravis. Par ailleurs, Oracle Corporation ne garantit pas qu'elles soient exemptes
d'erreurs et vous invite, le cas chant, lui en faire part par crit.
Si ce logiciel, ou la documentation qui l'accompagne, est concd sous licence au Gouvernement des Etats-Unis, ou toute entit qui dlivre la licence de ce logiciel
ou l'utilise pour le compte du Gouvernement des Etats-Unis, la notice suivante s'applique :
U.S. GOVERNMENT RIGHTS Programs, software, databases, and related documentation and technical data delivered to U.S. Government customers are
"commercial computer software" or "commercial technical data" pursuant to the applicable Federal Acquisition Regulation and agency-specific supplemental
regulations. As such, the use, duplication, disclosure, modification, and adaptation shall be subject to the restrictions and license terms set forth in the applicable
Government contract, and, to the extent applicable by the terms of the Government contract, the additional rights set forth in FAR 52.227-19, Commercial
Computer Software License (December 2007). Oracle America, Inc., 500 Oracle Parkway, Redwood City, CA 94065.
Ce logiciel ou matriel a t dvelopp pour un usage gnral dans le cadre d'applications de gestion des informations. Ce logiciel ou matriel n'est pas conu ni n'est
destin tre utilis dans des applications risque, notamment dans des applications pouvant causer des dommages corporels. Si vous utilisez ce logiciel ou matriel
dans le cadre d'applications dangereuses, il est de votre responsabilit de prendre toutes les mesures de secours, de sauvegarde, de redondance et autres mesures
ncessaires son utilisation dans des conditions optimales de scurit. Oracle Corporation et ses affilis dclinent toute responsabilit quant aux dommages causs
par l'utilisation de ce logiciel ou matriel pour ce type d'applications.
Oracle et Java sont des marques dposes d'Oracle Corporation et/ou de ses affilis. Tout autre nom mentionn peut correspondre des marques appartenant
d'autres propritaires qu'Oracle.
AMD, Opteron, le logo AMD et le logo AMD Opteron sont des marques ou des marques dposes d'Advanced Micro Devices. Intel et Intel Xeon sont des marques
ou des marques dposes d'Intel Corporation. Toutes les marques SPARC sont utilises sous licence et sont des marques ou des marques dposes de SPARC
International, Inc. UNIX est une marque dpose concde sous licence par X/Open Company, Ltd.
Ce logiciel ou matriel et la documentation qui l'accompagne peuvent fournir des informations ou des liens donnant accs des contenus, des produits et des services
manant de tiers. Oracle Corporation et ses affilis dclinent toute responsabilit ou garantie expresse quant aux contenus, produits ou services manant de tiers. En
aucun cas, Oracle Corporation et ses affilis ne sauraient tre tenus pour responsables des pertes subies, des cots occasionns ou des dommages causs par l'accs
des contenus, produits ou services tiers, ou leur utilisation.

110418@25097

Table des matires

Prface ...................................................................................................................................................11

Introduction l'administration d'Oracle Solaris Cluster .............................................................. 17


Prsentation de l'administration d'Oracle Solaris Cluster .............................................................. 18
Fonctionnement d'un cluster de zones ...................................................................................... 18
Restrictions concernant les fonctions du SE Oracle Solaris ........................................................... 19
Outils d'administration ....................................................................................................................... 20
Interface graphique ...................................................................................................................... 20
Interface en ligne de commande ................................................................................................ 20
Prparation de l'administration du cluster ....................................................................................... 22
Documentation de la configuration matrielle d'Oracle Solaris Cluster ............................... 22
Utilisation d'une console d'administration ............................................................................... 22
Sauvegarde du cluster .................................................................................................................. 23
Dmarrage de l'administration du cluster ........................................................................................ 24
tablissement d'une connexion distante au cluster ................................................................. 26
tablissement d'une connexion scurise aux consoles du cluster ........................................ 27
Accs aux utilitaires de configuration du cluster ...................................................................... 28
Affichage des informations d'un patch Oracle Solaris Cluster ............................................... 29
Affichage des informations de version de Oracle Solaris Cluster ........................................... 29
Affichage des types de ressources, des groupes de ressources et des ressources
configurs ...................................................................................................................................... 31
Vrification du statut des composants du cluster .................................................................... 33
Vrification du statut du rseau public ...................................................................................... 35
Affichage de la configuration du cluster .................................................................................... 36
Validation de la configuration de base d'un cluster ................................................................. 45
Vrification des points de montage globaux ............................................................................. 47
Affichage du contenu de journaux de commandes Oracle Solaris Cluster ........................... 49
3

Table des matires

Oracle Solaris Cluster et RBAC ........................................................................................................... 51


Configuration et utilisation de RBAC avec Oracle Solaris Cluster ................................................ 51
Profils de droits RBAC dans Oracle Solaris Cluster ......................................................................... 52
Cration et assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris
Cluster ................................................................................................................................................... 53
Cration d'un rle par le biais de l'outil Administrative Roles ................................................ 53
Cration d'un rle partir de la ligne de commande ............................................................... 55
Modification des proprits RBAC d'un utilisateur ........................................................................ 57
Modification des proprits RBAC d'un utilisateur par le biais de l'outil User Accounts ... 57
Modification des proprits RBAC d'un utilisateur partir de la ligne de commande ........ 58

Fermeture et initialisation d'un cluster ........................................................................................... 59


Prsentation de la fermeture et de l'initialisation d'un cluster ....................................................... 59
Fermeture d'un cluster ................................................................................................................. 61
Initialisation d'un cluster ............................................................................................................ 63
Rinitialisation d'un cluster ........................................................................................................ 65
Fermeture et initialisation d'un nud unique dans un cluster ...................................................... 69
Fermeture d'un nud .................................................................................................................. 70
Initialisation d'un nud .............................................................................................................. 73
Rinitialisation d'un nud ......................................................................................................... 75
Initialisation d'un nud en mode non cluster .......................................................................... 79
Rparation d'un systme de fichiers /var complet .......................................................................... 82
Rparation d'un systme de fichiers /var complet .................................................................. 82

Mthodes de rplication de donnes .............................................................................................. 85


Prsentation de la rplication de donnes ........................................................................................ 86
Mthodes de rplication de donnes prises en charge ............................................................. 87
Utilisation de la rplication de donnes base sur le stockage dans un cluster ............................ 88
Configuration requise et restrictions applicables lors de l'utilisation de la rplication de
donnes base sur le stockage dans un cluster .......................................................................... 90
Considrations prendre en compte concernant la rcupration manuelle lors de
l'utilisation de la rplication de donnes base sur le stockage dans un cluster .................... 91
Pratiques recommandes lors de l'utilisation de la rplication de donnes base sur le
stockage ......................................................................................................................................... 92

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Table des matires

Administration des priphriques globaux, du contrle de chemin de disque et des systmes


de fichiers du cluster ........................................................................................................................... 93
Prsentation de l'administration des priphriques globaux et de l'espace de noms global ....... 93
Permissions du priphrique global pour Solaris Volume Manager ..................................... 94
Reconfiguration dynamique avec les priphriques globaux ................................................. 94
Considrations d'administration Veritas Volume Manager .................................................. 96
Administration de priphriques rpliqus et bass sur le stockage ............................................. 97
Administration de priphriques rpliqus Hitachi TrueCopy ............................................. 98
Administration de priphriques rpliqus EMC Symmetrix Remote Data Facility ........ 109
Prsentation de l'administration des systmes de fichiers de cluster .......................................... 121
Restrictions du systme de fichiers du cluster ........................................................................ 121
Directives relatives la prise en charge VxFS ......................................................................... 122
Administration de groupes de priphriques ................................................................................ 123
Mise jour de l'espace de noms des priphriques globaux .................................................. 126
Modification de la taille d'un priphrique lofi utilis pour l'espace de noms de
priphriques globaux ............................................................................................................... 127
Migration de l'espace de noms des priphriques globaux ................................................... 128
Migration de l'espace de noms des priphriques globaux d'une partition ddie vers un
priphrique lofi ...................................................................................................................... 129
Migration de l'espace de noms des priphriques globaux d'un priphrique lofi vers une
partition ddie .......................................................................................................................... 130
Ajout et enregistrement de groupes de priphriques ........................................................... 132
Ajout et enregistrement de groupes de priphriques (Solaris Volume Manager) ............ 132
Ajout et enregistrement d'un groupe de priphriques (disque brut) ................................. 134
Ajout et enregistrement d'un groupe de priphriques rpliqu (ZFS) ............................... 135
Cration d'un groupe de disques lors de l'initialisation des disques (Veritas Volume
Manager) ..................................................................................................................................... 136
Maintenance des groupes de priphriques ............................................................................ 137
Suppression et annulation de l'enregistrement d'un groupe de priphriques (Solaris
Volume Manager) ...................................................................................................................... 137
Suppression d'un nud de tous les groupes de priphriques ............................................. 138
Suppression d'un nud d'un groupe de priphriques (Solaris Volume Manager) .......... 139
Cration d'un groupe de disques lors de l'encapsulation des disques (Veritas Volume
Manager) ..................................................................................................................................... 141
Ajout d'un nouveau volume un groupe de priphriques existant (Veritas Volume
Manager) ..................................................................................................................................... 143
Conversion d'un groupe de disques en groupe de priphriques (Veritas Volume
5

Table des matires

Manager) ..................................................................................................................................... 144


Assignation d'un nouveau code mineur un groupe de priphriques (Veritas Volume
Manager) ..................................................................................................................................... 144
Enregistrement d'un groupe de disques en tant que groupe de priphriques (Veritas
Volume Manager) ...................................................................................................................... 145
Enregistrement des modifications apportes la configuration d'un groupe de disques
(Veritas Volume Manager) ....................................................................................................... 148
Conversion d'un groupe de disques local en groupe de priphriques (VxVM) ............... 149
Conversion d'un groupe de priphriques en groupe de disques local (VxVM) ............... 150
Suppression d'un volume d'un groupe de priphriques (Veritas Volume Manager) ...... 151
Suppression et annulation de l'enregistrement d'un groupe de priphriques (Veritas
Volume Manager) ...................................................................................................................... 152
Ajout d'un nud un groupe de priphriques (Veritas Volume Manager) ..................... 153
Suppression d'un nud d'un groupe de priphriques (Veritas Volume Manager) ......... 155
Suppression d'un nud d'un groupe de priphriques de disque brut ............................... 157
Modification des proprits des groupes de priphriques .................................................. 159
Dfinition du nombre souhait de nuds secondaires pour un groupe de
priphriques .............................................................................................................................. 160
Affichage sous forme de liste de la configuration d'un groupe de priphriques ............... 164
Changement du nud principal d'un groupe de priphriques .......................................... 165
Mise en tat de maintenance du groupe de priphriques .................................................... 166
Administration des paramtres du protocole SCSI pour les priphriques de stockage .......... 168
Affichage des paramtres du protocole SCSI global par dfaut pour tous les priphriques
de stockage .................................................................................................................................. 168
Affichage du protocole SCSI d'un seul priphrique de stockage ........................................ 169
Modification des paramtres du protocole de sparation globaux par dfaut pour tous les
priphriques de stockage ......................................................................................................... 170
Modification du protocole de sparation d'un seul priphrique de stockage ................... 172
Administration des systmes de fichiers du cluster ....................................................................... 173
Ajout d'un systme de fichiers du cluster ................................................................................ 174
Suppression d'un systme de fichiers du cluster ..................................................................... 178
Vrification des montages globaux dans un cluster ............................................................... 180
Administration du contrle de chemin de disque ......................................................................... 180
Contrle d'un chemin de disque .............................................................................................. 181
Dsactivation du contrle d'un chemin de disque ................................................................. 183
Impression des chemins de disques dfectueux ..................................................................... 184
Correction d'une erreur d'tat du chemin de disque ............................................................. 184
6

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Table des matires

Contrle des chemins de disques partir d'un fichier ........................................................... 185


Activation de la rinitialisation automatique d'un nud en cas d'chec de tous les chemins
contrls de disques partags ................................................................................................... 187
Dsactivation de la rinitialisation automatique d'un nud en cas d'chec de tous les
chemins contrls de disques partags .................................................................................... 188

Gestion de Quorum ...........................................................................................................................189


Gestion des priphriques de quorum ............................................................................................ 189
Reconfiguration dynamique avec les priphriques de quorum .......................................... 191
Ajout d'un priphrique de quorum ........................................................................................ 192
Suppression ou remplacement d'un priphrique de quorum ............................................. 203
Maintenance des priphriques de quorum ........................................................................... 207
Gestion des serveurs de quorum Oracle Solaris Cluster ............................................................... 215
Prsentation du fichier de configuration du serveur de quorum ......................................... 215
Dmarrage et arrt du logiciel Oracle Solaris Cluster Quorum Server ................................ 216
Dmarrage d'un serveur de quorum ........................................................................................ 216
Arrt d'un serveur de quorum .................................................................................................. 217
Affichage des informations concernant le serveur de quorum ............................................. 218
Nettoyage des informations obsoltes du cluster du serveur de quorum ............................ 219

Administration des interconnexions de cluster et des rseaux publics ...................................223


Administration des interconnexions de cluster ............................................................................. 223
Reconfiguration dynamique avec des interconnexions de cluster ....................................... 225
Vrification de l'tat de l'interconnexion de cluster ............................................................... 225
Ajout de cbles, d'adaptateurs ou de commutateurs de transport intracluster .................. 226
Suppression de cbles, adaptateurs ou commutateurs de transport intracluster ............... 229
Activation d'un Cble de transport de cluster ........................................................................ 232
Dsactivation d'un Cble de transport de cluster ................................................................... 233
Dtermination du numro d'instance d'un adaptateur de transport ................................... 235
Modification de l'adresse du rseau priv ou de la plage d'adresses d'un cluster existant . 236
Administration du rseau public ..................................................................................................... 239
Administration des groupes de multiacheminement sur rseau IP dans un cluster .......... 239
Reconfiguration dynamique avec des interfaces de rseau public ....................................... 240

Table des matires

Ajout et suppression d'un nud ..................................................................................................... 243


Ajout d'un nud un cluster ........................................................................................................... 243
Ajout d'un nud la liste des nuds autoriss ...................................................................... 244
Cration d'un nud non votant (zone) dans un cluster global ............................................ 246
Suppression d'un nud dans un cluster ......................................................................................... 249
Suppression d'un nud d'un cluster de zones ........................................................................ 250
Suppression d'un nud de la configuration logicielle du cluster ......................................... 251
Suppression d'un nud non votant (zone) d'un cluster global ............................................ 254
Suppression de la connectivit entre une baie et un nud unique dans un cluster
comportant plus de deux nuds .............................................................................................. 255
Correction des messages d'erreur ............................................................................................ 257

Administration du cluster ................................................................................................................259


Prsentation de l'administration du cluster ................................................................................... 259
Modification du nom du cluster ............................................................................................... 260
Mappage d'un ID sur le nom d'un nud ................................................................................. 262
Authentification du nouveau nud du cluster ....................................................................... 262
Rinitialisation de l'heure et de la date d'un cluster ............................................................... 264
SPARC : Affichage d'OpenBoot PROM (OBP) sur un nud ............................................... 266
Modification du nom d'hte priv d'un nud ....................................................................... 267
Ajout d'un nom d'hte priv un nud non votant d'un cluster global ............................. 270
Modification du nom d'hte priv d'un nud non votant d'un cluster global ................... 270
Suppression d'un nom d'hte priv d'un nud non votant d'un cluster global ................. 272
Modification du nom d'un nud ............................................................................................. 272
Modification des noms d'hte logiques l'aide des ressources de noms d'hte logiques
Oracle Solaris Cluster existantes .............................................................................................. 274
Mise en mode de maintenance d'un nud ............................................................................. 275
Arrt du mode de maintenance d'un nud ............................................................................ 276
Configuration de limites de charge .......................................................................................... 279
Tches d'administration d'un cluster de zones .............................................................................. 281
Suppression d'un cluster de zones ............................................................................................ 282
Suppression d'un systme de fichiers d'un cluster de zones .................................................. 283
Suppression d'un priphrique de stockage d'un cluster de zones ....................................... 285
Dsinstallation de Oracle Solaris Cluster d'un nud du cluster .......................................... 287
Dpannage de la dsinstallation d'un nud ........................................................................... 289
Cration, paramtrage et gestion de la base MIB d'vnements SNMP de Oracle Solaris
Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Table des matires

Cluster ......................................................................................................................................... 291


Dpannage ......................................................................................................................................... 297
Excution d'une application l'extrieur du cluster global ................................................... 297
Restauration d'un ensemble de disques altr ........................................................................ 299

10

Configuration du contrle de l'utilisation du CPU ....................................................................... 303


Introduction au contrle du CPU ................................................................................................... 303
Slection d'un scnario .............................................................................................................. 303
Ordonnanceur de partage quitable ........................................................................................ 304
Configuration du contrle du CPU ................................................................................................. 305
Contrle de l'utilisation du CPU sur un nud votant d'un cluster global .......................... 305
Contrle de l'utilisation du CPU dans un nud non votant du cluster global l'aide de
l'ensemble de processeurs par dfaut ....................................................................................... 307
Contrle de l'utilisation du CPU dans un nud non votant du cluster global l'aide d'un
ensemble de processeurs ddi ................................................................................................. 310

11

Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster ............315
Prsentation de la mise jour de Oracle Solaris Cluster ............................................................... 315
Conseils pour les patchs Oracle Solaris Cluster ...................................................................... 316
Mise jour du logiciel Oracle Solaris Cluster ................................................................................. 317
Installez un patch avec rinitialisation (nud). ..................................................................... 318
Installation d'un patch avec rinitialisation (cluster) ............................................................ 322
Installation d'un patch Oracle Solaris Cluster sans rinitialisation ..................................... 325
Installation des patchs en mode utilisateur unique sur des nuds de basculement .......... 327
Modification d'un patch Oracle Solaris Cluster ..................................................................... 330

12

Sauvegarde et restauration d'un cluster ....................................................................................... 333


Restauration d'un cluster .................................................................................................................. 333
Recherche des noms de systmes de fichiers sauvegarder .................................................. 334
Calcul du nombre de bandes requises pour une sauvegarde complte ............................... 334
Sauvegarde du systme de fichiers racine (/) .......................................................................... 335
Sauvegarde en ligne pour les systmes mis en miroir (Solaris Volume Manager) ............. 338
Sauvegarde en ligne pour les volumes (Veritas Volume Manager) ..................................... 341
Sauvegarde de la configuration du cluster .............................................................................. 345
Restauration de fichiers en cluster ................................................................................................... 345
9

Table des matires

Restauration interactive de fichiers individuels (Solaris Volume Manager) ...................... 346


Restauration du systme de fichiers racine (/) (Solaris Volume Manager) ........................ 346
Restauration d'un systme de fichiers racine (/) situ sur un volume Solaris Volume
Manager ...................................................................................................................................... 349
Restauration d'un systme de fichiers racine (/) non encapsul (Veritas Volume
Manager) ..................................................................................................................................... 354
Restauration d'un systme de fichiers racine (/) encapsul (Veritas Volume Manager) .. 356

13

Administration de Oracle Solaris Cluster avec les interfaces graphiques ................................361


Prsentation de Oracle Solaris Cluster Manager ........................................................................... 361
SPARC : Prsentation de Sun Management Center ...................................................................... 362
Configuration de Oracle Solaris Cluster Manager ........................................................................ 363
Paramtrage des rles RBAC .................................................................................................... 363
Utilisation du conteneur d'agent commun pour modifier les numros de port des services
ou agents de gestion ................................................................................................................... 364
Modification de l'adresse de serveur pour Oracle Solaris Cluster Manager ........................ 365
Renouvellement des cls de scurit du conteneur d'agent commun .................................. 365
Dmarrage du logiciel Oracle Solaris Cluster Manager ................................................................ 366
Dmarrage de Oracle Solaris Cluster Manager ...................................................................... 367

exemple .............................................................................................................................................. 371


Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun
StorageTek Availability Suite ........................................................................................................... 371
Prsentation du logiciel Sun StorageTek Availability Suite dans un cluster ....................... 372
Directives pour la configuration de la rplication de donnes base sur les htes entre les
clusters ......................................................................................................................................... 375
Liste des tches : exemple d'une configuration de rplication de donnes .......................... 380
Connexion et installation des clusters ..................................................................................... 381
Exemple de configuration des groupes de priphriques et des groupes de ressources .... 383
Exemple d'activation de la rplication de donnes ................................................................ 397
Exemple de ralisation de la rplication de donnes ............................................................. 400
Exemple de gestion d'un basculement ..................................................................................... 405

Index ................................................................................................................................................... 409

10

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prface

Le &BookName prsente la procdure d'administration d'une configuration Oracle Solaris


Cluster sur des systmes SPARC et x86.
Remarque Cette version Oracle Solaris Cluster prend en charge les systmes qui utilisent les

familles SPARC et x86 des architectures de processeur suivantes : UltraSPARC, SPARC64,


AMD64 et Intel 64. Dans ce document, x86 fait rfrence la famille plus tendue des produits
compatibles x86 64 bits. Les informations contenues dans ce document s'appliquent toutes les
plates-formes, sauf indication contraire.
Ce document s'adresse aux administrateurs systme expriments avec une connaissance
approfondie des logiciels et du matriel Oracle. Il n'est pas prvu pour tre utilis comme un
guide de planification ou de pr-vente.
Les instructions contenues dans cet ouvrage supposent que vous connaissez le systme
d'exploitation Oracle Solaris, ainsi que le logiciel gestionnaire de volumes utilis avec Oracle
Solaris Cluster.

Utilisation des commandes UNIX


Ce document contient des informations sur les commandes spcifiques l'administration d'une
configuration Oracle Solaris Cluster. Il ne contient pas d'informations exhaustives sur les
commandes et les procdures UNIX de base.
Pour ce type d'informations, reportez-vous aux sources suivantes :

Documentation en ligne du logiciel Oracle Solaris


Autre documentation logicielle que vous avez reue avec votre systme
Pages de manuel du systme d'exploitation Oracle Solaris (SE Oracle Solaris)

11

Prface

Conventions typographiques
Le tableau suivant dcrit les conventions typographiques utilises dans cet ouvrage.
TABLEAU P1

Conventions typographiques

Police de caractre

Signification

exemple

AaBbCc123

Les noms des commandes, fichiers et rpertoires Modifiez le fichier.login.


et laffichage sur lcran de lordinateur
Utilisez ls -a pour rpertorier tous
les fichiers.
nom_ordinateur%, vous avez
reu un e-mail.
Ce que vous tapez, par opposition laffichage
sur lcran de lordinateur

nom_ordinateur% su

aabbcc123

Marque de rservation, remplacer par un nom


ou une valeur rel(le)

La commande de suppression d'un


fichier est rm nom de fichier.

AaBbCc123

Titres d'ouvrage, nouveaux termes et termes


faire ressortir

Reportez-vous au chapitre 6 du
Guide de lutilisateur.

AaBbCc123

Mot de passe :

Un cache est une copie stocke


localement.
N'enregistrez pas le fichier.
Remarque : certains termes mis en
vidence apparaissent en ligne en
gras.

Invites shell dans des exemples de commande


Le tableau suivant prsente l'invite systme UNIX par dfaut et l'invite superutilisateur pour les
shells inclus dans le SE Oracle Solaris. L'invite systme par dfaut qui s'affiche dans les exemples
de commandes dpend de la version Oracle Solaris.
TABLEAU P2

12

Invites de shell

Shell

Invite

Shell Bash, shell Korn et shell Bourne

Shell Bash, shell Korn et shell Bourne pour


superutilisateur

C shell

nom_machine%

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prface

TABLEAU P2

Invites de shell

(Suite)

Shell

Invite

C shell pour superutilisateur

machine_name#

Documentation associe
Des informations sur les rubriques de Oracle Solaris Cluster associes sont disponibles dans la
documentation rpertorie dans le tableau suivant. Toute la documentation de Oracle Solaris
Cluster est disponible l'adresse http://docs.sun.com.
Rubrique

Documentation

Prsentation

Oracle Solaris Cluster Overview

Concepts

Oracle Solaris Cluster Concepts Guide

Installation et administration du
matriel

Oracle Solaris Cluster 3.3 Hardware Administration Manual

Installation du logiciel

Guide dinstallation du logiciel Oracle Solaris Cluster

Installation et administration des


services de donnes

Oracle Solaris Cluster Data Services Planning and Administration Guide

Dveloppement de services de
donnes

Oracle Solaris Cluster Data Services Developers Guide

Administration du systme

Guide dadministration systme dOracle Solaris Cluster

Messages d'erreur

Oracle Solaris Cluster Error Messages Guide

Rfrences des commandes et des


fonctions

Oracle Solaris Cluster Reference Manual

Guides d'administration du matriel

Guides consacrs aux services de donnes

Pour obtenir la liste complte de la documentation Oracle Solaris Cluster, consultez les notes de
version relatives la version de votre logiciel Oracle Solaris Cluster sur http://docs.sun.com.

Documentation, support et formation


Reportez-vous aux sites Web suivants pour obtenir des ressources supplmentaires :

Documentation (http://docs.sun.com)
Support (http://www.oracle.com/us/support/systems/index.html)
Formation (http://education.oracle.com) Cliquez sur le lien Sun dans la barre de
navigation gauche.
13

Prface

Faites part de vos commentaires Oracle


Oracle vous encourage envoyer vos commentaires et apporter des suggestions sur la qualit
et l'utilit de sa documentation. Si vous constatez des erreurs ou si vous avez d'autres
suggestions pour amliorer la documentation, connectez-vous l'URL http://docs.sun.com
et cliquez sur Contactez Sun. Indiquez le titre et le numro de rfrence de la documentation,
ainsi que le chapitre, la section et le numro de page, le cas chant. Veuillez nous indiquer si
vous souhaitez recevoir une rponse.
Le site Oracle Technology Network (http://www.oracle.com/technetwork/index.html)
propose une large gamme de ressources pour les logiciels Oracle :

Discutez de problmes techniques et trouvez des solutions sur les forums de discussion
(http://forums.oracle.com).

Passez la pratique grce aux didacticiels tape par tape avec Oracle By Example
(http://www.oracle.com/technology/obe/start/index.html).

Tlchargez un chantillon de code (http://www.oracle.com/technology/sample_code/


index.html).

Obtenir de l'aide
En cas de problmes d'installation ou d'utilisation de Oracle Solaris Cluster, veuillez contacter
votre fournisseur de services. en lui fournissant les informations suivantes.

Votre nom et votre adresse e-mail

Le nom, l'adresse et le numro de tlphone de votre socit

Les numros de modle et de srie de vos systmes

Le numro de version du systme d'exploitation (par exemple, Oracle Solaris 10)

Le numro de version d'Oracle Solaris Cluster (par exemple, Oracle Solaris Cluster 3.3)

Utilisez les commandes suivantes pour obtenir les informations sur votre systme destines
votre fournisseur de services.

14

Commande

Fonction

prtconf -v

Affiche la taille de la mmoire du systme et apporte des


informations sur les units priphriques.

psrinfo -v

Affiche les informations concernant les processeurs.

showrev -p

Affiche les patchs installs.

SPARC : prtdiag -v

Affiche les informations de diagnostic du systme.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prface

Commande

Fonction

/usr/cluster/bin/clnode show-rev

Affiche les informations sur la version de Oracle Solaris Cluster et


celle du package.

Ayez galement le contenu du fichier /var/adm/messages disposition.

15

16

C H A P I T R E

Introduction l'administration d'Oracle Solaris


Cluster

Ce chapitre contient les informations numres ci-dessous concernant l'administration d'un


cluster global et d'un cluster de zones ; il renseigne galement sur les procdures suivre pour
utiliser les outils d'administration Oracle Solaris Cluster :

Prsentation de l'administration d'Oracle Solaris Cluster la page 18


Restrictions concernant les fonctions du SE Oracle Solaris la page 19
Outils d'administration la page 20
Prparation de l'administration du cluster la page 22
Dmarrage de l'administration du cluster la page 24

Toutes les procdures indiques dans ce guide sont prvues pour le SE Oracle Solaris 10.
Un cluster global est constitu uniquement d'un ou de plusieurs nuds votants du cluster
global et ventuellement de nuds non votants du cluster global. Un cluster global peut inclure
galement des zones non globales de SE Linux, ou de marque native, qui ne sont pas des nuds,
mais des conteneurs haute disponibilit (comme des ressources). Un cluster de zones requiert
un cluster global. Pour des informations gnrales sur les clusters de zones, reportez-vous au
Oracle Solaris Cluster Concepts Guide.
Un cluster de zones est constitu uniquement d'un ou de plusieurs nuds votants de marque
cluster. Un cluster de zones dpend d'un cluster global et en requiert donc l'existence pralable.
Un cluster global ne contient pas de cluster de zones. Vous ne pouvez pas configurer un cluster
de zones en l'absence de cluster global. Un cluster de zones comporte au maximum un nud de
cluster de zones sur une machine. Un nud de cluster de zones peut fonctionner tant que le
nud votant du cluster de zones situ sur la mme machine fonctionne. Une dfaillance du
nud votant du cluster de zones sur une machine entrane la dfaillance de tous les nuds du
cluster de zones de cette machine.

17

Prsentation de l'administration d'Oracle Solaris Cluster

Prsentation de l'administration d'Oracle Solaris Cluster


L'environnement hautement disponible Oracle Solaris Cluster garantit la mise disposition
d'applications essentielles aux utilisateurs finaux. Le rle de l'administrateur systme est de
s'assurer que la configuration d'Oracle Solaris Cluster est stable et oprationnelle.
Avant de commencer accomplir les tches d'administration, familiarisez-vous avec les
informations concernant la planification figurant dans le Guide dinstallation du logiciel Oracle
Solaris Cluster et dans le Oracle Solaris Cluster Concepts Guide. Pour plus d'informations sur la
cration de clusters de zones, reportez-vous la section Configuration dun cluster de zones
du Guide dinstallation du logiciel Oracle Solaris Cluster. L'administration Oracle Solaris Cluster
est organise en tches dcrites dans les manuels suivants :

Tches standard, ralises intervalles rguliers ou mme quotidiennement et permettant


d'assurer l'administration et la maintenance du cluster global ou du cluster de zones. Ces
tches sont dcrites dans ce guide.

Tches de gestion des donnes telles que l'installation, la configuration et la modification des
proprits des donnes. Ces tches sont dcrites dans le Oracle Solaris Cluster Data Services
Planning and Administration Guide.

Tches de maintenance telles que l'ajout ou la rparation du matriel de stockage ou du


matriel rseau. Ces tches sont dcrites dans le Oracle Solaris Cluster 3.3 Hardware
Administration Manual.

En rgle gnrale, les tches d'administration peuvent tre effectues pendant que le cluster est
en cours d'utilisation. Si vous devez retirer un nud du cluster ou mme arrter ce nud, vous
pouvez le faire pendant que les autres nuds continuent effectuer des oprations du cluster.
Sauf indication contraire, les tches d'administration d'Oracle Solaris Cluster doivent tre
effectues sur le nud votant du cluster global. Minimisez l'impact sur le systme des
procdures ncessitant l'arrt total du cluster en programmant ces procdures en dehors des
heures de travail normales. Si vous prvoyez d'arrter le cluster ou un nud du cluster,
avertissez les utilisateurs l'avance.

Fonctionnement d'un cluster de zones


Deux commandes d'administration d'Oracle Solaris Cluster (cluster et clnode) peuvent
galement tre excutes dans un cluster de zones. Toutefois, leur porte est limite au cluster
de zones sur lequel la commande est excute. L'excution de la commande cluster sur le
nud votant du cluster global a par exemple pour effet d'extraire l'ensemble des informations
relatives au cluster global votant et tous les clusters de zones. Excute sur un cluster de zones,
la commande cluster extrait les informations relatives au cluster de zones concern.
Si vous utilisez la commande clzonecluster sur un nud votant, la commande affecte tous les
clusters de zones du cluster global. Les commandes excutes sur un cluster de zones touchent
galement tous les nuds du cluster de zones, y compris les nuds arrts au moment de
l'excution des commandes.
18

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restrictions concernant les fonctions du SE Oracle Solaris

Les clusters de zones prennent en charge la dlgation de l'administration des ressources


contrles par le RGM (Resource Group Manager, gestionnaire de groupes de ressources). Par
consquent, les administrateurs de clusters de zones peuvent visualiser, mais ne peuvent pas
modifier les dpendances des clusters de zones qui dpassent les limites entre les clusters de
zones. Seul l'administrateur d'un nud votant peut crer, modifier ou supprimer des
dpendances dpassant les limites entre les clusters de zones.
La liste suivante rpertorie les principales tches d'administration devant tre effectues sur un
cluster de zones.

Cration d'un cluster de zones crez un nouveau cluster de zones l'aide de la commande
clzonecluster configure. Reportez-vous aux instructions de la section Configuration
dun cluster de zones du Guide dinstallation du logiciel Oracle Solaris Cluster.

Dmarrage et redmarrage d'un cluster de zones reportez-vous au Chapitre 3, Fermeture


et initialisation d'un cluster.

Ajout d'un nud un cluster de zones reportez-vous au Chapitre 8, Ajout et suppression


d'un nud.

Suppression d'un nud dans un cluster de zones reportez-vous Suppression d'un nud
d'un cluster de zones la page 250.

Affichage de la configuration d'un cluster de zones reportez-vous Affichage de la


configuration du cluster la page 36.

Validation de la configuration d'un cluster de zones reportez-vous Validation de la


configuration de base d'un cluster la page 45.

Arrt d'un cluster de zones reportez-vous Chapitre 3, Fermeture et initialisation d'un


cluster.

Restrictions concernant les fonctions du SE Oracle Solaris


N'activez ou ne dsactivez pas les services Oracle Solaris Cluster suivants en utilisant l'interface
de gestion SMF (utilitaire de gestion des services).
TABLEAU 11

Services Oracle Solaris Cluster

Services Oracle Solaris Cluster

FMRI (identificateur de ressources de gestion des pannes)

pnm

svc:/system/cluster/pnm:default

cl_event

svc:/system/cluster/cl_event:default

cl_eventlog

svc:/system/cluster/cl_eventlog:default

rpc_pmf

svc:/system/cluster/rpc_pmf:default

rpc_fed

svc:/system/cluster/rpc_fed:default

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

19

Outils d'administration

TABLEAU 11

Services Oracle Solaris Cluster

(Suite)

Services Oracle Solaris Cluster

FMRI (identificateur de ressources de gestion des pannes)

rgm

svc:/system/cluster/rgm:default

scdpm

svc:/system/cluster/scdpm:default

cl_ccra

svc:/system/cluster/cl_ccra:default

scsymon_srv

svc:/system/cluster/scsymon_srv:default

spm

svc:/system/cluster/spm:default

cl_svc_cluster_milestone

svc:/system/cluster/cl_svc_cluster_milestone:default

cl_svc_enable

svc:/system/cluster/cl_svc_enable:default

network-multipathing

svc:/system/cluster/network-multipathing

Outils d'administration
Vous pouvez effectuer des tches d'administration sur une configuration Oracle Solaris Cluster
par le biais d'une interface graphique ou en passant par la ligne de commande. La section qui
suit prsente une vue d'ensemble des outils interface graphique et des outils par ligne de
commande.

Interface graphique
Le logiciel Oracle Solaris Cluster fournit des outils dots d'une interface graphique l'aide
desquels vous pouvez effectuer diverses tches d'administration. Ces outils interface
graphique sont Oracle Solaris Cluster Manager, ainsi que Sun Management Center si vous
utilisez Oracle Solaris Cluster sur un systme SPARC. Pour plus d'informations sur la
configuration d'Oracle Solaris Cluster Manager et de Sun Management Center et sur les
procdures affrentes, reportez-vous au Chapitre 13, Administration de Oracle Solaris Cluster
avec les interfaces graphiques. Pour des informations spcifiques sur l'utilisation d'Oracle
Solaris Cluster Manager, reportez-vous l'aide en ligne de l'interface graphique.

Interface en ligne de commande


Vous pouvez effectuer la plupart des tches d'administration de manire interactive par le biais
de l'utilitaire clsetup(1CL). Autant que possible, les procdures d'administration dcrites dans
ce guide utilisent l'utilitaire clsetup.
Vous pouvez administrer les options du menu principal suivantes l'aide de l'utilitaire clsetup.

20

Quorum

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Outils d'administration

Groupes de ressources
Services de donnes
Interconnexion de clusters
Volumes et groupes de priphriques
Noms d'htes privs
Nouveaux nuds
Autres tches du cluster

D'autres commandes utilises pour administrer une configuration Oracle Solaris Cluster sont
fournies dans la liste suivante. Reportez-vous aux pages de manuel pour des informations plus
dtailles.
ccp(1M)

Dmarre l'accs par console distante au cluster.

if_mpadm(1M)

Commute les adresses IP d'un adaptateur un autre dans un


groupe IPMP (IP Network Multipathing).

claccess(1CL)

Gre les stratgies d'accs d'Oracle Solaris Cluster pour


l'ajout de nuds.

cldevice(1CL)

Gre les priphriques Oracle Solaris Cluster.

cldevicegroup(1CL)

Gre les groupes de priphriques Oracle Solaris Cluster.

clinterconnect(1CL)

Gre l'interconnexion Oracle Solaris Cluster.

clnasdevice(1CL)

Gre l'accs aux priphriques NAS dans le cadre d'une


configuration Oracle Solaris Cluster.

clnode(1CL)

Gre les nuds Oracle Solaris Cluster.

clquorum(1CL)

Gre le quorum Oracle Solaris Cluster.

clreslogicalhostname(1CL)

Gre les ressources Oracle Solaris Cluster concernant les


noms d'htes logiques.

clresource(1CL)

Gre les ressources des services de donnes Oracle Solaris


Cluster.

clresourcegroup(1CL)

Gre les ressources des services de donnes Oracle Solaris


Cluster.

clresourcetype(1CL)

Gre les ressources des services de donnes Oracle Solaris


Cluster.

clressharedaddress(1CL)

Gre les ressources Oracle Solaris Cluster concernant les


adresses partages.

clsetup(1CL)

Configure interactivement une configuration Oracle Solaris


Cluster.

clsnmphost(1CL)

Administre les htes SNMP de Oracle Solaris Cluster.

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

21

Prparation de l'administration du cluster

clsnmpmib(1CL)

Administre la base MIB d'vnements SNMP de Oracle


Solaris Cluster.

clsnmpuser(1CL)

Administre les utilisateurs SNMP de Oracle Solaris Cluster.

cltelemetryattribute(1CL)

Configure le contrle des ressources du systme.

cluster(1CL)

Gre la configuration globale et le statut global de la


configuration Oracle Solaris Cluster.

clvxvm(1CL)

Initialise Veritas Volume Manager (VxVM) sur un nud


Oracle Solaris Cluster et procde ventuellement
l'encapsulation du disque racine.

clzonecluster(1CL)

Cre et modifie un cluster de zones.

En outre, des commandes supplmentaires permettent d'administrer la partie gestionnaire de


volumes d'une configuration Oracle Solaris Cluster. Ces commandes dpendent du
gestionnaire de volumes utilis par votre cluster, savoir le logiciel Veritas Volume Manager ou
Solaris Volume Manager.

Prparation de l'administration du cluster


Cette section dcrit les prparatifs raliser avant de procder l'administration du cluster.

Documentation de la configuration matrielle


d'Oracle Solaris Cluster
Documentez les aspects matriels spcifiques votre site lors du dimensionnement de la
configuration Oracle Solaris Cluster. Pour rduire l'administration, reportez-vous la
documentation de votre matriel lorsque vous modifiez ou mettez niveau le cluster. tiqueter
les cbles et les connexions entre les diffrents composants du cluster peut galement faciliter
l'administration.
Faites gagner du temps aux fournisseurs de services tiers chargs de la maintenance de votre
cluster en conservant une trace de la configuration originale du cluster et des modifications qui
y ont t apportes par la suite.

Utilisation d'une console d'administration


Pour assurer l'administration du cluster actif, vous pouvez utiliser en tant que console
d'administration une station de travail ddie ou une station de travail connecte par le biais

22

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prparation de l'administration du cluster

d'un rseau de gestion. En gnral, vous installez et excutez les outils Cluster Control Panel
(CCP) et les outils interface graphique sur la console d'administration. Pour plus
d'informations sur CCP, reportez-vous la section tablissement d'une connexion distante au
cluster la page 26. Pour des instructions concernant l'installation du module Cluster Control
Panel pour Sun Management Center et les outils interface graphique d'Oracle Solaris Cluster
Manager, reportez-vous au Guide dinstallation du logiciel Oracle Solaris Cluster.
La console d'administration n'est pas un nud du cluster. La console d'administration permet
d'accder distance aux nuds du cluster, soit par l'intermdiaire du rseau public, soit via un
concentrateur de terminaux bas sur le rseau.
Si votre cluster SPARC est constitu d'un serveur Sun Enterprise 10000 d'Oracle, vous devez
vous connecter au processeur de services systme (SSP, System Service Processor) depuis la
console d'administration. Connectez-vous l'aide de la commande netcon. Par dfaut, la
commande netcon tablit la connexion un domaine Sun Enterprise 10000 via l'interface
rseau. Si le rseau n'est pas accessible, vous pouvez utiliser la commande netcon en mode
"exclusif" en activant l'option -f. Vous pouvez aussi saisir ~* pendant une session netcon
normale. Chacune de ces solutions vous offre la possibilit de basculer vers l'interface srie si le
rseau devient inaccessible.
L'usage d'une console d'administration ddie pour Oracle Solaris Cluster n'est pas
indispensable, mais prsente les avantages suivants :

Elle permet la gestion centralise du cluster en regroupant les outils de console et de gestion
sur la mme machine

Elle peut permettre une rsolution plus rapide des problmes par votre fournisseur de
services ou dans le cadre du contrat de maintenance Enterprise Services

Sauvegarde du cluster
Sauvegarder rgulirement votre cluster. Mme si le logiciel Oracle Solaris Cluster fournit un
environnement haut niveau de disponibilit et cre des copies en miroir des donnes sur les
priphriques de stockage, il ne remplace pas des sauvegardes rgulires. Une configuration
Oracle Solaris Cluster peut supporter des pannes rptes, mais ne protge pas des erreurs dues
aux programmes ou commises par les utilisateurs, ou encore des pannes catastrophiques. Vous
devez donc mettre en place une procdure de sauvegarde pour vous mettre l'abri des pertes de
donnes.
Nous recommandons d'inclure les informations suivantes dans votre sauvegarde :

toutes les partitions de systmes de fichiers ;

toutes les bases de donnes si vous excutez des services de donnes SGDB ;

les informations concernant les partitions des disques de tous les disques du cluster ;

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

23

Dmarrage de l'administration du cluster

Dmarrage de l'administration du cluster


Le Tableau 12 vous indique comment dbuter l'administration de votre cluster.
Remarque Les commandes Oracle Solaris Cluster uniquement excutables partir du nud
votant du cluster global ne peuvent pas tre utilises avec les clusters de zones. Pour savoir
comment excuter correctement une commande dans une zone, reportez-vous la page de
manuel Oracle Solaris Cluster approprie.
TABLEAU 12

24

Outils d'administration Oracle Solaris Cluster

Tche

Outil

Instructions

Connectez-vous distance au
cluster.

Excutez la commande ccp pour


lancer Cluster Control Panel
(CCP). Slectionnez l'une des
icnes suivantes : cconsole, crlogin,
cssh, ou ctelnet.

tablissement d'une connexion


distante au cluster la page 26
tablissement d'une connexion
scurise aux consoles du cluster
la page 27

Configurez interactivement le
cluster.

Dmarrez l'utilitaire
Accs aux utilitaires de
clzonecluster(1CL) ou l'utilitaire configuration du cluster
clsetup(1CL).
la page 28

Affichez le numro et les


informations de version de Oracle
Solaris Cluster.

Servez-vous de la commande
clnode(1CL) avec la
sous-commande et l'option
show-rev --v -node.

Affichage des informations de


version de Oracle Solaris Cluster
la page 29

Affichez les ressources, groupes de


ressources et types de ressources
installs.

Affichez les informations


concernant les ressources l'aide
des commandes suivantes :

clresource(1CL)

clresourcegroup(1CL)

clresourcetype(1CL)

Affichage des types de ressources,


des groupes de ressources et des
ressources configurs la page 31

Contrlez graphiquement les


composants du cluster.

Servez-vous de Oracle Solaris


Cluster Manager.

Consultez l'aide en ligne.

Administrez graphiquement
certains composants du cluster.

Servez-vous de Oracle Solaris


Cluster Manager ou du module
Oracle Solaris Cluster pour Sun
Management Center, qui est
uniquement disponible avec Oracle
Solaris Cluster sur les systmes
SPARC.

Pour plus d'informations sur


Oracle Solaris Cluster Manager,
consultez l'aide en ligne.
Pour plus d'informations sur Sun
Management Center, consultez la
documentation affrente.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

TABLEAU 12

Outils d'administration Oracle Solaris Cluster

(Suite)

Tche

Outil

Instructions

Vrifiez le statut des composants


du cluster.

Excutez la commande
cluster(1CL) avec la
sous-commande status.

Vrification du statut des


composants du cluster la page 33

Contrlez le statut des groupes


IPMP (IP Network Multipathing)
sur le rseau public.

Pour un cluster global, utilisez la


commande clnode(1CL) status
avec l'option -m.

Vrification du statut du rseau


public la page 35

Pour un cluster de zones, utilisez la


commande clzonecluster(1CL)
show.
Affichez la configuration du cluster. Pour un cluster global, utilisez la
commande cluster(1CL) avec la
sous-commande show .

Affichage de la configuration du
cluster la page 36

Pour un cluster de zones, utilisez la


commande clzonecluster(1CL)
avec la sous-commande show.
Affichez les priphriques NAS.

Pour un cluster global ou un cluster clnasdevice(1CL)


de zones, utilisez la commande
clzonecluster(1CL) avec la
sous-commande show.

Vrifiez les points de montage


Pour un cluster global, utilisez la
globaux ou vrifiez la configuration commande
cluster(1CL)cluster (1CL) avec
du cluster.
la sous-commande check.

Validation de la configuration de
base d'un cluster la page 45

Pour un cluster de zones, utilisez la


commande clzonecluster(1CL)
verify.
Visualisez le contenu des journaux
de commandes de Oracle Solaris
Cluster.

Examinez le fichier
Affichage du contenu de journaux
/var/cluster/logs/ commandlog. de commandes Oracle Solaris
Cluster la page 49

Visualisez les messages systme de


Oracle Solaris Cluster.

Examinez le fichier
/var/adm/messages.

Viewing System Messages du


System Administration Guide:
Advanced Administration

Contrle du statut de Solaris


Volume Manager

Utilisez la commande metastat.

Solaris Volume Manager


Administration Guide

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

25

Dmarrage de l'administration du cluster

tablissement d'une connexion distante au cluster


Cluster Control Panel (CCP) constitue une zone de lancement pour les outils cconsole,
crlogin, cssh, et ctelnet. Tous les outils tablissent une connexion fentres multiples un
ensemble de nuds spcifis. La connexion fentres multiples comprend une fentre hte
pour chacun des nuds spcifis et une fentre commune. Les saisies effectues dans la fentre
commune sont envoyes chacune des fentres htes, ce qui vous permet d'excuter des
commandes simultanment sur tous les nuds du cluster.
Vous pouvez aussi lancer des sessions cconsole, crlogin, cssh ou ctelnet depuis la ligne de
commande.
Par dfaut, l'utilitaire cconsole tablit une connexion telnet aux consoles des nuds. Pour
tablir des connexions par shell scuris aux consoles, cochez la case Utiliser SSH dans le menu
Options de la fentre cconsole. Vous pouvez aussi spcifier l'option -s lorsque vous lancez la
commande ccp ou la commande cconsole.
Pour plus d'informations, reportez-vous aux pages de manuel ccp(1M) et cconsole(1M).
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Avant de
commencer

Assurez-vous que les conditions suivantes sont remplies avant de dmarrer CCP :

Installez le package SUNWccon sur la console d'administration.

Assurez-vous que la variable PATH sur la console d'administration inclut les rpertoires des
outils Oracle Solaris Cluster, /opt/SUNWcluster/bin et /usr/cluster/bin. Vous pouvez
spcifier un emplacement de rechange pour le rpertoire des outils en dfinissant la variable
d'environnement $CLUSTER_HOME.

Configurez le fichier clusters, le fichier serialports ainsi que le fichier nsswitch.conf si


vous utilisez un concentrateur de terminaux. Les fichiers peuvent tre des fichiers /etc ou
des bases de donnes NIS ou NIS+. Pour plus d'informations, reportez-vous aux pages de
manuel clusters(4) et serialports(4).

Si vous disposez d'une plate-forme Serveur Sun Enterprise 10000, connectez-vous au


processeur de services systme (SSP).
a. Connectez-vous l'aide de la commande netcon.
b. Une fois la connexion tablie, saisissez Shift~@ pour dverrouiller la console et obtenir
l'accs en criture.

26

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

Depuis la console d'administration, ouvrez la zone de lancement CCP.


phys-schost# ccp clustername

La zone de lancement CCP s'affiche.


3

Pour dmarrer une session distance sur le cluster, cliquez sur l'icne cconsole, l'icne crlogin,
l'icne cssh ou l'icne ctelnet dans la zone de lancement CCP.

tablissement d'une connexion scurise aux


consoles du cluster
Suivez cette procdure pour vous connecter par shell scuris aux consoles des nuds du
cluster.

Avant de
commencer

Configurez le fichier clusters, le fichier serialports ainsi que le fichier nsswitch.conf si


vous utilisez un concentrateur de terminaux. Les fichiers peuvent tre des fichiers /etc ou des
bases de donnes NIS ou NIS+.
Remarque Dans le fichier serialports, assignez le numro de port utiliser pour la connexion

scurise chaque priphrique d'accs par console. Le numro de port par dfaut pour la
connexion par shell scuris est 22.
Pour plus d'informations, reportez-vous aux pages de manuel clusters(4) et serialports(4).
1

Connectez-vous en tant que superutilisateur la console d'administration.

Dmarrez l'utilitaire cconsole en mode scuris.


# cconsole -s [-l username] [-p ssh-port]

-s

Active la connexion par shell scuris.

-l username

Indique le nom d'utilisateur pour les connexions distance. Si l'option -l n'est


pas spcifie, le nom d'utilisateur entr au moment du lancement de l'utilitaire
cconsole est utilis.

-p ssh-port

Spcifie le numro de port utiliser pour le shell scuris. Si l'option -p n'est


pas spcifie, le numro de port 22 est utilis par dfaut pour les connexions
scurises.

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

27

Dmarrage de l'administration du cluster

Accs aux utilitaires de configuration du cluster


L'utilitaire clsetup permet de configurer de manire interactive les options du quorum, des
groupes de ressources, du transport intracluster, des noms d'htes privs, des groupes de
priphriques et des nouveaux nuds pour le cluster global. L'utilitaire clzonecluster effectue
des tches de configuration similaires pour un cluster de zones. Pour plus d'informations,
reportez-vous aux pages de manuel clsetup(1CL) et clzonecluster(1CL).
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur un nud actif appartenant un cluster global.


Effectuez toutes les tapes de cette procdure partir d'un nud du cluster global.

Dmarrez l'utilitaire de configuration.


phys-schost# clsetup

Pour un cluster global, dmarrez l'utilitaire l'aide de la commande clsetup.


phys-schost# clsetup

Le menu principal s'affiche.

Pour un cluster de zones, dmarrez l'utilitaire l'aide de la commande clzonecluster .


Dans cet exemple, le cluster de zones est sczone.
phys-schost# clzonecluster configure sczone

Pour afficher les actions disponibles dans cet utilitaire, entrez l'option suivante :
clzc:sczone> ?
3

Voir aussi

28

Slectionnez votre configuration dans le menu. Suivez les instructions qui s'affichent l'cran
pour effectuer une tche. Pour en savoir plus, reportez-vous aux instructions de la section
Configuration dun cluster de zonesdu Guide dinstallation du logiciel Oracle Solaris Cluster.
Pour plus d'informations, reportez-vous l'aide en ligne de clsetup ou de clzonecluster.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

Affichage des informations d'un patch Oracle Solaris


Cluster
Il n'est pas ncessaire d'tre connect en tant que superutilisateur pour effectuer cette
procdure.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Affichez les informations du patch Oracle Solaris Cluster :


phys-schost# showrev -p

Les versions de mise jour de Oracle Solaris Cluster sont identifies par le numro de patch du
produit principal et la version de la mise jour.
Exemple 11

Affichage des informations du patch Oracle Solaris Cluster


L'exemple suivant illustre l'affichage des informations du patch 110648-05.
phys-schost# showrev -p | grep 110648
Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages:

Affichage des informations de version de Oracle


Solaris Cluster
Il n'est pas ncessaire d'tre connect en tant que superutilisateur pour effectuer cette
procdure. Effectuez toutes les tapes de cette procdure partir d'un nud du cluster global.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Affichez les informations de version de Oracle Solaris Cluster :


phys-schost# clnode show-rev -v -node

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

29

Dmarrage de l'administration du cluster

Cette commande affiche le numro de version de Oracle Solaris Cluster et les chanes de
versions de tous les packages Oracle Solaris Cluster.
Exemple 12

Affichage des informations de version de Oracle Solaris Cluster


L'exemple suivant illustre l'affichage des informations de version du cluster et de tous les
packages.
phys-schost# clnode show-rev
3.2
phys-schost#% clnode show-rev -v
Oracle Solaris Cluster 3.3 for Solaris 10 sparc
SUNWscu:
3.3.0,REV=2010.06.14.03.44
SUNWsccomu:
3.3.0,REV=2010.06.14.03.44
SUNWsczr:
3.3.0,REV=2010.06.14.03.44
SUNWsccomzu: 3.3.0,REV=2010.06.14.03.44
SUNWsczu:
3.3.0,REV=2010.06.14.03.44
SUNWscsckr:
3.3.0,REV=2010.06.14.03.44
SUNWscscku:
3.3.0,REV=2010.06.14.03.44
SUNWscr:
3.3.0,REV=2010.06.14.03.44
SUNWscrtlh:
3.3.0,REV=2010.06.14.03.44
SUNWscnmr:
3.3.0,REV=2010.06.14.03.44
SUNWscnmu:
3.3.0,REV=2010.06.14.03.44
SUNWscdev:
3.3.0,REV=2010.06.14.03.44
SUNWscgds:
3.3.0,REV=2010.06.14.03.44
SUNWscsmf:
3.3.0,REV=2010.06.14.03.44
SUNWscman:
3.3.0,REV=2010.05.21.18.40
SUNWscsal:
3.3.0,REV=2010.06.14.03.44
SUNWscsam:
3.3.0,REV=2010.06.14.03.44
SUNWscvm:
3.3.0,REV=2010.06.14.03.44
SUNWmdmr:
3.3.0,REV=2010.06.14.03.44
SUNWmdmu:
3.3.0,REV=2010.06.14.03.44
SUNWscmasa:
3.3.0,REV=2010.06.14.03.44
SUNWscmasar: 3.3.0,REV=2010.06.14.03.44
SUNWscmasasen: 3.3.0,REV=2010.06.14.03.44
SUNWscmasazu: 3.3.0,REV=2010.06.14.03.44
SUNWscmasau: 3.3.0,REV=2010.06.14.03.44
SUNWscmautil: 3.3.0,REV=2010.06.14.03.44
SUNWscmautilr: 3.3.0,REV=2010.06.14.03.44
SUNWjfreechart: 3.3.0,REV=2010.06.14.03.44
SUNWscspmr:
3.3.0,REV=2010.06.14.03.44
SUNWscspmu:
3.3.0,REV=2010.06.14.03.44
SUNWscderby: 3.3.0,REV=2010.06.14.03.44
SUNWsctelemetry: 3.3.0,REV=2010.06.14.03.44
SUNWscgrepavs: 3.2.3,REV=2009.10.23.12.12
SUNWscgrepsrdf: 3.2.3,REV=2009.10.23.12.12
SUNWscgreptc: 3.2.3,REV=2009.10.23.12.12
SUNWscghb:
3.2.3,REV=2009.10.23.12.12
SUNWscgctl:
3.2.3,REV=2009.10.23.12.12
SUNWscims:
6.0,REV=2003.10.29
SUNWscics:
6.0,REV=2003.11.14
SUNWscapc:
3.2.0,REV=2006.12.06.18.32
SUNWscdns:
3.2.0,REV=2006.12.06.18.32
SUNWschadb:
3.2.0,REV=2006.12.06.18.32

30

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

SUNWschtt:
3.2.0,REV=2006.12.06.18.32
SUNWscs1as:
3.2.0,REV=2006.12.06.18.32
SUNWsckrb5:
3.2.0,REV=2006.12.06.18.32
SUNWscnfs:
3.2.0,REV=2006.12.06.18.32
SUNWscor:
3.2.0,REV=2006.12.06.18.32
SUNWscs1mq:
3.2.0,REV=2006.12.06.18.32
SUNWscsap:
3.2.0,REV=2006.12.06.18.32
SUNWsclc:
3.2.0,REV=2006.12.06.18.32
SUNWscsapdb: 3.2.0,REV=2006.12.06.18.32
SUNWscsapenq: 3.2.0,REV=2006.12.06.18.32
SUNWscsaprepl: 3.2.0,REV=2006.12.06.18.32
SUNWscsapscs: 3.2.0,REV=2006.12.06.18.32
SUNWscsapwebas: 3.2.0,REV=2006.12.06.18.32
SUNWscsbl:
3.2.0,REV=2006.12.06.18.32
SUNWscsyb:
3.2.0,REV=2006.12.06.18.32
SUNWscwls:
3.2.0,REV=2006.12.06.18.32
SUNWsc9ias:
3.2.0,REV=2006.12.06.18.32
SUNWscPostgreSQL: 3.2.0,REV=2006.12.06.18.32
SUNWsczone:
3.2.0,REV=2006.12.06.18.32
SUNWscdhc:
3.2.0,REV=2006.12.06.18.32
SUNWscebs:
3.2.0,REV=2006.12.06.18.32
SUNWscmqi:
3.2.0,REV=2006.12.06.18.32
SUNWscmqs:
3.2.0,REV=2006.12.06.18.32
SUNWscmys:
3.2.0,REV=2006.12.06.18.32
SUNWscsge:
3.2.0,REV=2006.12.06.18.32
SUNWscsaa:
3.2.0,REV=2006.12.06.18.32
SUNWscsag:
3.2.0,REV=2006.12.06.18.32
SUNWscsmb:
3.2.0,REV=2006.12.06.18.32
SUNWscsps:
3.2.0,REV=2006.12.06.18.32
SUNWsctomcat: 3.2.0,REV=2006.12.06.18.32

Affichage des types de ressources, des groupes de


ressources et des ressources configurs
Vous pouvez aussi effectuer cette procdure par l'intermdiaire de l'interface graphique de
Oracle Solaris Cluster Manager. Pour plus d'informations, reportez-vous au Chapitre 13,
Administration de Oracle Solaris Cluster avec les interfaces graphiques ou l'aide en ligne
d'Oracle Solaris Cluster Manager.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Avant de
commencer

Les utilisateurs qui ne sont pas des superutilisateurs doivent disposer des droits d'autorisation
RBAC solaris.cluster.read pour utiliser cette sous-commande.

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

31

Dmarrage de l'administration du cluster

Affichez les types de ressources, les groupes de ressources et les ressources configurs du
cluster. Effectuez toutes les tapes de cette procdure partir d'un nud du cluster global.
phys-schost# cluster show -t resource,resourcetype,resourcegroup

Pour afficher les informations concernant une ressource, un groupe de ressources ou un type de
ressources particulier, utilisez la sous-commande show et l'une des sous-commandes suivantes :

Exemple 13

resource
resource group
resourcetype

Affichage des types de ressources, des groupes de ressources et des ressources


configurs
L'exemple suivant illustre les types de ressources (RT Name), les groupes de ressources (RG
Name), et les ressources (RS Name ) configurs pour le cluster schost.

phys-schost# cluster show -t resource,resourcetype,resourcegroup


=== Registered Resource Types ===
Resource Type:
RT_description:
RT_version:
API_version:
RT_basedir:
Single_instance:
Proxy:
Init_nodes:
Installed_nodes:
Failover:
Pkglist:
RT_system:

SUNW.qfs
SAM-QFS Agent on Oracle Solaris Cluster
3.1
3
/opt/SUNWsamfs/sc/bin
False
False
All potential masters
<All>
True
<NULL>
False

=== Resource Groups and Resources ===


Resource Group:
RG_description:
RG_mode:
RG_state:
Failback:
Nodelist:

qfs-rg
<NULL>
Failover
Managed
False
phys-schost-2 phys-schost-1

--- Resources for Group qfs-rg --Resource:


Type:
Type_version:
Group:
R_description:
Resource_project_name:
Enabled{phys-schost-2}:

32

qfs-res
SUNW.qfs
3.1
qfs-rg
default
True

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

Enabled{phys-schost-1}:
Monitored{phys-schost-2}:
Monitored{phys-schost-1}:

True
True
True

Vrification du statut des composants du cluster


Vous pouvez aussi effectuer cette procdure par l'intermdiaire de l'interface graphique de
Oracle Solaris Cluster Manager. Pour plus d'informations, consultez l'aide en ligne de Oracle
Solaris Cluster Manager.
Remarque La commande cluster status permet galement d'afficher le statut d'un cluster de

zones.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Avant de
commencer

Les utilisateurs qui ne sont pas des superutilisateurs doivent disposer des droits d'autorisation
RBAC solaris.cluster.read pour utiliser la sous-commande status.
Vrifiez le statut des composants du cluster. Effectuez toutes les tapes de cette procdure
partir d'un nud du cluster global.
phys-schost# cluster status

Exemple 14

Vrification du statut des composants d'un cluster


L'exemple suivant prsente un extrait des informations de statut concernant les composants
d'un cluster retournes par cluster(1CL) status.
phys-schost# cluster status
=== Cluster Nodes ===
--- Node Status --Node Name
--------phys-schost-1
phys-schost-2

Status
-----Online
Online

=== Cluster Transport Paths ===

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

33

Dmarrage de l'administration du cluster

Endpoint1
--------phys-schost-1:qfe1
phys-schost-1:hme1

Endpoint2
--------phys-schost-4:qfe1
phys-schost-4:hme1

Status
-----Path online
Path online

=== Cluster Quorum ===


--- Quorum Votes Summary --Needed
-----3

Present
------3

Possible
-------4

--- Quorum Votes by Node --Node Name


--------phys-schost-1
phys-schost-2

Present
------1
1

Possible
-------1
1

Status
-----Online
Online

--- Quorum Votes by Device --Device Name


----------/dev/did/rdsk/d2s2
/dev/did/rdsk/d8s2

Present
Possible
-------------1
1
0
1

Status
-----Online
Offline

=== Cluster Device Groups ===


--- Device Group Status --Device Group Name
----------------schost-2

Primary
------phys-schost-2

Secondary
---------

Status
-----Degraded

--- Spare, Inactive, and In Transition Nodes --Device Group Name


----------------schost-2

Spare Nodes
-----------

Inactive Nodes
--------------

In Transistion Nodes
--------------------

=== Cluster Resource Groups ===

34

Group Name
---------test-rg

Node Name
Suspended
----------------phys-schost-1
No
phys-schost-2
No

test-rg

phys-schost-1
phys-schost-2

No
No

Status
-----Offline
Online
Offline
Error--stop failed

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

test-rg

phys-schost-1
phys-schost-2

No
No

Online
Online

=== Cluster Resources ===


Resource Name
------------test_1

Node Name
Status
-------------phys-schost-1
Offline
phys-schost-2
Online

Message
------Offline
Online

test_1

phys-schost-1
phys-schost-2

Offline
Stop failed

Offline
Faulted

test_1

phys-schost-1
phys-schost-2

Online
Online

Online
Online

Device Instance
--------------/dev/did/rdsk/d2

Node
---phys-schost-1

Status
-----Ok

/dev/did/rdsk/d3

phys-schost-1
phys-schost-2

Ok
Ok

/dev/did/rdsk/d4

phys-schost-1
phys-schost-2

Ok
Ok

/dev/did/rdsk/d6

phys-schost-2

Ok

=== Zone Clusters ===


--- Zone Cluster Status --Name
---sczone

Node Name
--------schost-1
schost-2

Zone HostName
------------sczone-1
sczone-2

Status
-----Online
Online

Zone Status
----------Running
Running

Vrification du statut du rseau public


Vous pouvez aussi effectuer cette procdure par l'intermdiaire de l'interface graphique de
Oracle Solaris Cluster Manager. Pour plus d'informations, consultez l'aide en ligne de Oracle
Solaris Cluster Manager.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

35

Dmarrage de l'administration du cluster

Pour vrifier le statut des groupes IPMP (IP Network Multipathing), utilisez la commande
clnode(1CL) et la sous-commande status .
Avant de
commencer

Les utilisateurs qui ne sont pas des superutilisateurs doivent disposer des droits d'autorisation
RBAC solaris.cluster.read pour utiliser cette sous-commande.
Vrifiez le statut des composants du cluster. Effectuez toutes les tapes de cette procdure
partir d'un nud du cluster global.
phys-schost# clnode status -m

Exemple 15

Vrification du statut du rseau public


L'exemple suivant prsente un extrait des informations de statut concernant les composants du
cluster retournes par la commande clnode status.
% clnode status -m
--- Node IPMP Group Status --Node Name
--------phys-schost-1
phys-schost-2

Group Name
---------test-rg
test-rg

Status
-----Online
Online

Adapter
------qfe1
qfe1

Status
-----Online
Online

Affichage de la configuration du cluster


Vous pouvez aussi effectuer cette opration par l'intermdiaire de l'interface graphique de
Oracle Solaris Cluster Manager. Pour plus d'informations, consultez l'aide en ligne de Oracle
Solaris Cluster Manager.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Avant de
commencer

Les utilisateurs qui ne sont pas des superutilisateurs doivent disposer des droits d'autorisation
RBAC solaris.cluster.read pour utiliser la sous-commande status.
Affichez la configuration d'un cluster global ou d'un cluster de zones. Effectuez toutes les tapes
de cette procdure partir d'un nud du cluster global.
% cluster show

36

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

En excutant la commande cluster show partir d'un nud votant du cluster global, vous
pouvez afficher des informations de configuration dtailles concernant le cluster ainsi que des
informations concernant les clusters de zones ventuellement configurs.
Vous pouvez galement vous servir de la commande clzonecluster show pour afficher
uniquement les informations de configuration du cluster de zones. Les proprits d'un cluster
de zones sont notamment son nom, le type d'IP, l'autoinitialisation et le chemin de la zone. La
sous-commande show s'excute l'intrieur d'un cluster de zones et s'applique uniquement au
cluster de zones concern. Excuter la commande clzonecluster show partir d'un nud
d'un cluster de zones permet uniquement d'extraire le statut des objets visibles pour le cluster de
zones concern.
Pour afficher de plus amples informations sur la commande cluster, servez-vous des options
dtailles. Reportez-vous la page de manuel cluster(1CL) pour plus de dtails.
Reportez-vous la page de manuel clzonecluster(1CL) pour plus d'informations sur
clzonecluster.
Exemple 16

Affichage de la configuration du cluster global


L'exemple suivant liste les informations de configuration concernant le cluster global. Si vous
avez configur un cluster de zones, les informations relatives ce cluster sont galement
affiches.
phys-schost# cluster show

=== Cluster ===


Cluster Name:
installmode:
heartbeat_timeout:
heartbeat_quantum:
private_netaddr:
private_netmask:
max_nodes:
max_privatenets:
global_fencing:
Node List:
Node Zones:

cluster-1
disabled
10000
1000
172.16.0.0
255.255.248.0
64
10
Unknown
phys-schost-1
phys_schost-2:za

=== Host Access Control ===


Cluster name:
Allowed hosts:
Authentication Protocol:

clustser-1
phys-schost-1, phys-schost-2:za
sys

=== Cluster Nodes ===


Node Name:
Node ID:
Type:
Enabled:

phys-schost-1
1
cluster
yes

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

37

Dmarrage de l'administration du cluster

privatehostname:
reboot_on_path_failure:
globalzoneshares:
defaultpsetmin:
quorum_vote:
quorum_defaultvote:
quorum_resv_key:
Transport Adapter List:

clusternode1-priv
disabled
3
1
1
1
0x43CB1E1800000001
qfe3, hme0

--- Transport Adapters for phys-schost-1 --Transport


Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter

Adapter:
qfe3
State:
Enabled
Transport Type:
dlpi
Property(device_name):
qfe
Property(device_instance):
3
Property(lazy_free):
1
Property(dlpi_heartbeat_timeout):
10000
Property(dlpi_heartbeat_quantum):
1000
Property(nw_bandwidth):
80
Property(bandwidth):
10
Property(ip_address):
172.16.1.1
Property(netmask):
255.255.255.128
Port Names:
0
Port State(0):
Enabled

Transport
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter

Adapter:
hme0
State:
Enabled
Transport Type:
dlpi
Property(device_name):
hme
Property(device_instance):
0
Property(lazy_free):
0
Property(dlpi_heartbeat_timeout):
10000
Property(dlpi_heartbeat_quantum):
1000
Property(nw_bandwidth):
80
Property(bandwidth):
10
Property(ip_address):
172.16.0.129
Property(netmask):
255.255.255.128
Port Names:
0
Port State(0):
Enabled

--- SNMP MIB Configuration on phys-schost-1 --SNMP MIB Name:


State:
Protocol:

Event
Disabled
SNMPv2

--- SNMP Host Configuration on phys-schost-1 ----- SNMP User Configuration on phys-schost-1 --SNMP User Name:
Authentication Protocol:
Default User:
Node Name:
Node ID:
Type:

38

foo
MD5
No
phys-schost-2:za
2
cluster

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

Enabled:
privatehostname:
reboot_on_path_failure:
globalzoneshares:
defaultpsetmin:
quorum_vote:
quorum_defaultvote:
quorum_resv_key:
Transport Adapter List:

yes
clusternode2-priv
disabled
1
2
1
1
0x43CB1E1800000002
hme0, qfe3

--- Transport Adapters for phys-schost-2 --Transport


Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter

Adapter:
hme0
State:
Enabled
Transport Type:
dlpi
Property(device_name):
hme
Property(device_instance):
0
Property(lazy_free):
0
Property(dlpi_heartbeat_timeout):
10000
Property(dlpi_heartbeat_quantum):
1000
Property(nw_bandwidth):
80
Property(bandwidth):
10
Property(ip_address):
172.16.0.130
Property(netmask):
255.255.255.128
Port Names:
0
Port State(0):
Enabled

Transport
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter
Adapter

Adapter:
qfe3
State:
Enabled
Transport Type:
dlpi
Property(device_name):
qfe
Property(device_instance):
3
Property(lazy_free):
1
Property(dlpi_heartbeat_timeout):
10000
Property(dlpi_heartbeat_quantum):
1000
Property(nw_bandwidth):
80
Property(bandwidth):
10
Property(ip_address):
172.16.1.2
Property(netmask):
255.255.255.128
Port Names:
0
Port State(0):
Enabled

--- SNMP MIB Configuration on phys-schost-2 --SNMP MIB Name:


State:
Protocol:

Event
Disabled
SNMPv2

--- SNMP Host Configuration on phys-schost-2 ----- SNMP User Configuration on phys-schost-2 --=== Transport Cables ===
Transport Cable:
Cable Endpoint1:
Cable Endpoint2:
Cable State:

phys-schost-1:qfe3,switch2@1
phys-schost-1:qfe3
switch2@1
Enabled

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

39

Dmarrage de l'administration du cluster

Transport Cable:
Cable Endpoint1:
Cable Endpoint2:
Cable State:

phys-schost-1:hme0,switch1@1
phys-schost-1:hme0
switch1@1
Enabled

Transport Cable:
Cable Endpoint1:
Cable Endpoint2:
Cable State:

phys-schost-2:hme0,switch1@2
phys-schost-2:hme0
switch1@2
Enabled

Transport Cable:
Cable Endpoint1:
Cable Endpoint2:
Cable State:

phys-schost-2:qfe3,switch2@2
phys-schost-2:qfe3
switch2@2
Enabled

=== Transport Switches ===


Transport Switch:
Switch State:
Switch Type:
Switch Port Names:
Switch Port State(1):
Switch Port State(2):

switch2
Enabled
switch
1 2
Enabled
Enabled

Transport Switch:
Switch State:
Switch Type:
Switch Port Names:
Switch Port State(1):
Switch Port State(2):

switch1
Enabled
switch
1 2
Enabled
Enabled

=== Quorum Devices ===


Quorum Device Name:
Enabled:
Votes:
Global Name:
Type:
Access Mode:
Hosts (enabled):

d3

Quorum Device Name:


Enabled:
Votes:
Global Name:
Type:
Hosts (enabled):
Quorum Server Host:
Port:

qs1
yes
1
qs1
quorum_server
phys-schost-1, phys-schost-2
10.11.114.83
9000

yes
1
/dev/did/rdsk/d3s2
scsi
scsi2
phys-schost-1, phys-schost-2

=== Device Groups ===


Device Group Name:
Type:
failback:

40

testdg3
SVM
no

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

Node List:
preferenced:
numsecondaries:
diskset name:

phys-schost-1, phys-schost-2
yes
1
testdg3

=== Registered Resource Types ===


Resource Type:
RT_description:
RT_version:
API_version:
RT_basedir:
Single_instance:
Proxy:
Init_nodes:
Installed_nodes:
Failover:
Pkglist:
RT_system:

SUNW.LogicalHostname:2
Logical Hostname Resource Type
2
2
/usr/cluster/lib/rgm/rt/hafoip
False
False
All potential masters
<All>
True
SUNWscu
True

Resource Type:
RT_description:
RT_version:
API_version:
RT_basedir:
Single_instance:
Proxy:
Init_nodes:
Installed_nodes:
Failover:
Pkglist:
RT_system:

SUNW.SharedAddress:2
HA Shared Address Resource Type
2
2
/usr/cluster/lib/rgm/rt/hascip
False
False
<Unknown>
<All>
True
SUNWscu
True

Resource Type:
RT_description:
RT_version:
API_version:
RT_basedir:
Single_instance:
Proxy:
Init_nodes:
Installed_nodes:
Failover:
Pkglist:
RT_system:

SUNW.HAStoragePlus:4
HA Storage Plus
4
2
/usr/cluster/lib/rgm/rt/hastorageplus
False
False
All potential masters
<All>
False
SUNWscu
False

Resource Type:
RT_description:
RT_version:
API_version:
RT_basedir:
Single_instance:
Proxy:
Init_nodes:
Installed_nodes:
Failover:
Pkglist:
RT_system:

SUNW.haderby
haderby server for Oracle Solaris Cluster
1
7
/usr/cluster/lib/rgm/rt/haderby
False
False
All potential masters
<All>
False
SUNWscderby
False

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

41

Dmarrage de l'administration du cluster

Resource Type:
RT_description:
RT_version:
API_version:
RT_basedir:
Single_instance:
Proxy:
Init_nodes:
Installed_nodes:
Failover:
Pkglist:
RT_system:

SUNW.sctelemetry
sctelemetry service for Oracle Solaris Cluster
1
7
/usr/cluster/lib/rgm/rt/sctelemetry
True
False
All potential masters
<All>
False
SUNWsctelemetry
False

=== Resource Groups and Resources ===


Resource Group:
RG_description:
RG_mode:
RG_state:
Failback:
Nodelist:

HA_RG
<Null>
Failover
Managed
False
phys-schost-1 phys-schost-2

--- Resources for Group HA_RG --Resource:


Type:
Type_version:
Group:
R_description:
Resource_project_name:
Enabled{phys-schost-1}:
Enabled{phys-schost-2}:
Monitored{phys-schost-1}:
Monitored{phys-schost-2}:
Resource Group:
RG_description:
RG_mode:
RG_state:
Failback:
Nodelist:

HA_R
SUNW.HAStoragePlus:4
4
HA_RG
SCSLM_HA_RG
True
True
True
True
cl-db-rg
<Null>
Failover
Managed
False
phys-schost-1 phys-schost-2

--- Resources for Group cl-db-rg --Resource:


Type:
Type_version:
Group:
R_description:
Resource_project_name:
Enabled{phys-schost-1}:
Enabled{phys-schost-2}:
Monitored{phys-schost-1}:
Monitored{phys-schost-2}:
Resource Group:
RG_description:

42

cl-db-rs
SUNW.haderby
1
cl-db-rg
default
True
True
True
True
cl-tlmtry-rg
<Null>

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

RG_mode:
RG_state:
Failback:
Nodelist:

Scalable
Managed
False
phys-schost-1 phys-schost-2

--- Resources for Group cl-tlmtry-rg --Resource:


Type:
Type_version:
Group:
R_description:
Resource_project_name:
Enabled{phys-schost-1}:
Enabled{phys-schost-2}:
Monitored{phys-schost-1}:
Monitored{phys-schost-2}:

cl-tlmtry-rs
SUNW.sctelemetry
1
cl-tlmtry-rg
default
True
True
True
True

=== DID Device Instances ===


DID Device Name:
Full Device Path:
Replication:
default_fencing:

/dev/did/rdsk/d1
phys-schost-1:/dev/rdsk/c0t2d0
none
global

DID Device Name:


Full Device Path:
Replication:
default_fencing:

/dev/did/rdsk/d2
phys-schost-1:/dev/rdsk/c1t0d0
none
global

DID Device Name:


Full Device Path:
Full Device Path:
Replication:
default_fencing:

/dev/did/rdsk/d3
phys-schost-2:/dev/rdsk/c2t1d0
phys-schost-1:/dev/rdsk/c2t1d0
none
global

DID Device Name:


Full Device Path:
Full Device Path:
Replication:
default_fencing:

/dev/did/rdsk/d4
phys-schost-2:/dev/rdsk/c2t2d0
phys-schost-1:/dev/rdsk/c2t2d0
none
global

DID Device Name:


Full Device Path:
Replication:
default_fencing:

/dev/did/rdsk/d5
phys-schost-2:/dev/rdsk/c0t2d0
none
global

DID Device Name:


Full Device Path:
Replication:
default_fencing:

/dev/did/rdsk/d6
phys-schost-2:/dev/rdsk/c1t0d0
none
global

=== NAS Devices ===


Nas Device:
Type:
User ID:

nas_filer1
netapp
root

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

43

Dmarrage de l'administration du cluster

Nas Device:
Type:
User ID:
Exemple 17

nas2
netapp
llai

Affichage de la configuration du cluster de zones


L'exemple suivant liste les proprits de la configuration du cluster de zones.
% clzonecluster show
=== Zone Clusters ===
Zone Cluster Name:
zonename:
zonepath:
autoboot:
ip-type:
enable_priv_net:

sczone
sczone
/zones/sczone
TRUE
shared
TRUE

--- Solaris Resources for sczone ---

44

Resource Name:
address:
physical:

net
172.16.0.1
auto

Resource Name:
address:
physical:

net
172.16.0.2
auto

Resource Name:
dir:
special:
raw:
type:
options:

fs

Resource Name:
dir:
special:
raw:
type:
options:

fs

Resource Name:
dir:
special:
raw:
type:
options:

fs

Resource Name:
dir:
special:
raw:

fs

/gz/db_qfs/CrsHome
CrsHome
samfs
[]

/gz/db_qfs/CrsData
CrsData
samfs
[]

/gz/db_qfs/OraHome
OraHome
samfs
[]

/gz/db_qfs/OraData
OraData

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

type:
options:

samfs
[]

--- Zone Cluster Nodes for sczone --Node Name:


physical-host:
hostname:

sczone-1
sczone-1
lzzone-1

Node Name:
physical-host:
hostname:

sczone-2
sczone-2
lzzone-2

Vous pouvez galement afficher les priphriques NAS configurs pour les clusters de zone et
les clusters globaux, l'aide de la sous-commande clnasdevice show ou d'Oracle Solaris
Cluster Manager. Pour plus d'informations, reportez-vous la page de manuel
clnasdevice(1CL).

Validation de la configuration de base d'un cluster


La commande cluster(1CL) utilise la commande check pour valider la configuration de base
requise pour permettre le fonctionnement correct d'un cluster global. Si aucune vrification
n'choue, cluster check revient l'invite de shell. Si une vrification choue, cluster check
gnre des rapports dans le rpertoire spcifi ou l'emplacement par dfaut. Si vous excutez
cluster check pour plusieurs nuds, cluster check gnre un rapport distinct pour chaque
nud ainsi qu'un rapport global pour l'ensemble des vrifications. Vous pouvez aussi excuter
la commande cluster list-checks pour afficher la liste de toutes les vrifications disponibles
pour le cluster.
Vous pouvez excuter la commande cluster check en mode dtaill en ajoutant l'indicateur
-v pour suivre l'avancement.
Remarque Excutez cluster check aprs avoir effectu une procdure d'administration

susceptible de modifier les priphriques, les composants de gestion des volumes ou la


configuration Oracle Solaris Cluster.
L'excution de la commande clzonecluster(1CL) partir du nud votant du cluster global
dclenche un ensemble de vrifications dont l'objet est de valider la configuration ncessaire
pour permettre le fonctionnement correct d'un cluster de zones. Si toutes les vrifications
russissent, clzonecluster verify revient l'invite de shell et vous pouvez installer le cluster
de zones en toute scurit. Si une vrification choue, clzonecluster verify consigne les
nuds du cluster global sur lesquels la vrification a chou. Si vous excutez clzonecluster

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

45

Dmarrage de l'administration du cluster

verify pour plusieurs nuds, un rapport distinct est gnr pour chaque nud ainsi qu'un
rapport global pour l'ensemble des vrifications. La sous-commande verify n'est pas autorise
l'intrieur d'un cluster de zones.
1

Connectez-vous en tant que superutilisateur un nud actif appartenant un cluster global.


Effectuez toutes les tapes de cette procdure partir d'un nud du cluster global.
phys-schost# su

Vrifiez la configuration du cluster

Vrifiez la configuration du cluster global.


phys-schost# cluster check

Vrifiez la configuration du cluster de zones pour contrler si un cluster de zones peut tre
install.
phys-schost# clzonecluster verify zoneclustername

Exemple 18

Vrification de la configuration du cluster global avec russite de toutes les


vrifications
L'exemple suivant illustre l'excution de cluster check en mode dtaill pour les nuds
phys-schost-1 et phys-schost-2 , toutes les vrifications se soldant par une russite.
phys-schost# cluster check -v -h phys-schost-1,
phys-schost-2
cluster
cluster
cluster
cluster
cluster
cluster
cluster
cluster
cluster
cluster
#

Exemple 19

check:
check:
check:
check:
check:
check:
check:
check:
check:
check:

Requesting explorer data and node report from phys-schost-1.


Requesting explorer data and node report from phys-schost-2.
phys-schost-1: Explorer finished.
phys-schost-1: Starting single-node checks.
phys-schost-1: Single-node checks finished.
phys-schost-2: Explorer finished.
phys-schost-2: Starting single-node checks.
phys-schost-2: Single-node checks finished.
Starting multi-node checks.
Multi-node checks finished

Vrification de la configuration du cluster global avec chec d'une vrification


L'exemple suivant prsente le nud phys-schost-2 dans le cluster nomm suncluster moins
le point de montage /global/phys-schost-1 . Les rapports sont crs dans le rpertoire
/var/cluster/logs/cluster_check/<timestamp>.

phys-schost# cluster check -v -h phys-schost-1,


phys-schost-2 -o
/var/cluster/logs/cluster_check/Dec5/

46

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>.
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
-----------------------------------CHECK ID : 3065
SEVERITY : HIGH
FAILURE : Global filesystem /etc/vfstab entries are not consistent across
all Oracle Solaris Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across
all nodes in this cluster.
Analysis indicates:
FileSystem /global/phys-schost-1 is on phys-schost-1 but missing from phys-schost-2.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the
filesystem(s) in question.
...
#

Vrification des points de montage globaux


La commande cluster(1CL) inclut des vrifications examinant le fichier /etc/vfstab et visant
reprer les erreurs de configuration concernant le systme de fichiers du cluster et ses points
de montage globaux.
Remarque Excutez cluster check aprs avoir apport des modifications la configuration du

cluster ayant affect les priphriques ou les composants de gestion des volumes.
1

Connectez-vous en tant que superutilisateur un nud actif appartenant un cluster global.


Effectuez toutes les tapes de cette procdure partir d'un nud du cluster global.
% su

Vrifiez la configuration du cluster global.


phys-schost# cluster check

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

47

Dmarrage de l'administration du cluster

Exemple 110

Vrification des points de montage globaux


L'exemple suivant prsente le nud phys-schost-2 du cluster nomm suncluster moins le
point de montage /global/schost-1 . Les rapports sont envoys dans le rpertoire
/var/cluster/logs/cluster_check/<timestamp>/.

phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/


cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5.
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
-----------------------------------CHECK ID : 3065
SEVERITY : HIGH
FAILURE : Global filesystem /etc/vfstab entries are not consistent across
all Oracle Solaris Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across
all nodes in this cluster.
Analysis indicates:
FileSystem /global/phys-schost-1 is on phys-schost-1 but missing from phys-schost-2.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the
filesystem(s) in question.
...
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
-----------------------------------CHECK ID : 1398
SEVERITY : HIGH
FAILURE : An unsupported server is being used as an Oracle Solaris Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 3.x node.
Only servers that have been qualified with Oracle Solaris Cluster 3.x are supported as
Oracle Solaris Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with
your Oracle representative to get the latest information on what servers

48

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage de l'administration du cluster

are currently supported and only use a server that is supported with Oracle Solaris Cluster 3.x.
...
#

Affichage du contenu de journaux de commandes


Oracle Solaris Cluster
Le fichier texte ASCII /var/cluster/logs/commandlog contient des enregistrements relatifs
des commandes Oracle Solaris Cluster slectionnes ayant t excutes dans un cluster. La
journalisation des commandes dbute automatiquement lorsque vous configurez le cluster et
s'achve lorsque vous arrtez le cluster. Les commandes sont journalises sur tous les nuds en
cours d'excution et initialiss en mode cluster.
Ne sont pas journalises dans ce fichier les commandes permettant d'afficher la configuration et
l'tat courant du cluster.
Sont journalises dans ce fichier notamment les commandes permettant de configurer et de
modifier l'tat courant du cluster.

claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
clzonecluster
scdidadm

Les enregistrements du fichier commandlog peuvent inclure les lments suivants :

Date et horodatage.

Nom de l'hte depuis lequel la commande a t excute.

Chapitre 1 Introduction l'administration d'Oracle Solaris Cluster

49

Dmarrage de l'administration du cluster

ID de processus de la commande.

Nom de connexion de l'utilisateur qui a excut la commande.

Commande excute par l'utilisateur, y compris toutes options et oprandes.


Remarque Les options des commandes sont consignes dans le fichier commandlog, ce qui
vous permet de les identifier facilement et de les copier, coller et excuter dans le shell.

Statut de sortie de la commande excute.


Remarque Si une commande est abandonne de faon anormale avec un rsultat inconnu,
le logiciel Oracle Solaris Cluster n'affiche aucun tat de sortie dans le fichier commandlog.

Par dfaut, le fichier commandlog est archiv une fois par semaine. Pour modifier les stratgies
d'archivage du fichier commandlog, excutez la commande crontab sur chaque nud du
cluster. Pour plus d'informations, reportez-vous la page de manuel crontab(1).
tout moment, le logiciel Oracle Solaris Cluster conserve sur chaque nud du cluster jusqu'
huit fichiers commandlog prcdemment archivs. Le fichier commandlog de la semaine en
cours est nomm commandlog. Le fichier portant sur une semaine entire le plus rcent est
nomm commandlog.0. Le fichier portant sur une semaine entire le plus ancien est nomm
commandlog.7.

Affichez le contenu du fichier commandlog de la semaine en cours, cran par cran.


phys-schost# more /var/cluster/logs/commandlog

Exemple 111

Affichage du contenu des journaux de commandes de Oracle Solaris Cluster


L'exemple suivant illustre le contenu du fichier commandlog affich l'aide de la commande
more.
more -lines10 /var/cluster/logs/commandlog
11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup
11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1"
11/11/2006 09:43:36 phys-schost-1 5758 root END 0
11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y
"RG_description=Department Shared Address RG" "app-sa-1"
11/11/2006 09:43:37 phys-schost-1 5760 root END 0
11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1"
11/11/2006 09:44:15 phys-schost-1 5810 root END 0
11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320
12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1"
-y "RG_description=Joe Bloggs Shared Address RG"
12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0

50

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

C H A P I T R E

Oracle Solaris Cluster et RBAC

Ce chapitre dcrit le contrle d'accs bas sur les rles (RBAC, Role Based Access Control) en
relation avec Oracle Solaris Cluster. Les rubriques sont les suivantes :

Configuration et utilisation de RBAC avec Oracle Solaris Cluster la page 51


Profils de droits RBAC dans Oracle Solaris Cluster la page 52
Cration et assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris
Cluster la page 53
Modification des proprits RBAC d'un utilisateur la page 57

Configuration et utilisation de RBAC avec Oracle Solaris


Cluster
Reportez-vous au tableau suivant pour dterminer quels documents consulter sur la
configuration et l'utilisation de RBAC. Des instructions spcifiques de configuration et
d'utilisation de RBAC avec le logiciel Oracle Solaris Cluster sont fournies plus loin dans ce
chapitre.
Tche

Instructions

En savoir plus sur RBAC

Chapitre 8, Using Roles and Privileges (Overview) du System Administration


Guide: Security Services

Configurer et utiliser
Chapitre 9, Using Role-Based Access Control (Tasks) du System Administration
RBAC et grer les lments Guide: Security Services
En savoir plus sur les
lments et les outils de
RBAC

Chapitre 10, Role-Based Access Control (Reference) du System Administration


Guide: Security Services

51

Profils de droits RBAC dans Oracle Solaris Cluster

Profils de droits RBAC dans Oracle Solaris Cluster


Oracle Solaris Cluster Manager et les commandes et options Oracle Solaris Cluster
slectionnes que vous utilisez dans la ligne de commande utilisent le contrle d'accs bas sur
les rles (RBAC) pour obtenir les autorisations. Les commandes et options Oracle Solaris
Cluster ncessitant une autorisation RBAC requirent un ou plusieurs des niveaux
d'autorisation suivants. Les profils de droits RBAC de Oracle Solaris Cluster s'appliquent la
fois aux nuds votants et non votants dans un cluster global.
solaris.cluster.read

Autorisation pour les oprations de liste, d'affichage et autres


fonctions de lecture

solaris.cluster.admin

Autorisation de modification de l'tat d'un objet de cluster

solaris.cluster.modify

Autorisation de modification des proprits d'un objet de


cluster

Pour plus d'informations sur l'autorisation RBAC requise par une commande Oracle Solaris
Cluster, reportez-vous la page de manuel relative la commande.
Les profils de droits RBAC incluent une ou plusieurs autorisations RBAC. Vous pouvez assigner
ces profils de droits aux utilisateurs ou aux rles pour leur donner diffrents niveaux d'accs
Oracle Solaris Cluster. Oracle a dfini les profils de droits d'accs suivants dans le logiciel Oracle
Solaris Cluster.
Remarque Les profils de droits RBAC rpertoris dans le tableau suivant continuent de prendre

en charge les anciennes autorisations RBAC telles que dfinies dans les prcdentes versions de
Oracle Solaris Cluster.

Profil de droits d'accs

Autorisations incluses

Autorisation accorde au rle

Commandes
Oracle Solaris
Cluster

Aucune, mais inclut une liste de commandes Oracle Excute les commandes Oracle Solaris Cluster
Solaris Cluster s'excutant avec euid=0
slectionnes que vous utilisez pour configurer et grer un
cluster, y compris les sous-commandes suivantes pour
toutes les commandes Oracle Solaris Cluster :

list

show

status
scha_control(1HA)
scha_resource_get(1HA)
scha_resource_setstatus(1HA)
scha_resourcegroup_get(1HA)
scha_resourcetype_get(1HA)

52

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Cration et assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris Cluster

Profil de droits d'accs

Autorisations incluses

Utilisateur Oracle
Solaris de base

Ce profil de droits Oracle Solaris existant contient


des autorisations Oracle Solaris ainsi que
l'autorisation suivante :
solaris.cluster.read

Fonctionnement
du cluster

Autorisation accorde au rle

Oprations de liste, d'affichage et de lecture pour les


commandes Oracle Solaris Cluster et accs l'interface
graphique Oracle Solaris Cluster Manager.

Ce profil de droit est spcifique au logiciel Oracle


Solaris Cluster et contient les autorisations
suivantes :
solaris.cluster.read

Oprations de liste, d'affichage, d'exportation, d'tat et de


lecture, et accs l'interface graphique Oracle Solaris
Cluster Manager.

solaris.cluster.admin

Modification de l'tat des objets de cluster.

Administrateur
systme

Ce profil de droits Oracle Solaris contient les


mmes autorisations que le profil Gestion du
cluster.

Mmes oprations que le rle Gestion du cluster, ainsi que


d'autres oprations d'administration systme.

Gestion du cluster

Ce profil de droits d'accs contient les mmes


autorisations que le profil Fonctionnement du
cluster, ainsi que l'autorisation suivante :

Mmes oprations que le rle Fonctionnement du cluster,


ainsi que la modification des proprits d'un objet de
cluster.

solaris.cluster.modify

Cration et assignation d'un rle RBAC avec un profil de droits


de gestion Oracle Solaris Cluster
Utilisez cette tche pour crer un rle RBAC avec un profil de droits de gestion Oracle Solaris
Cluster et attribuer ce nouveau rle des utilisateurs.

Avant de
commencer

Cration d'un rle par le biais de l'outil Administrative


Roles
Pour crer un rle, vous devez soit endosser un rle auquel le profil de droits Administrateur
principal est attribu, soit agir en tant qu'utilisateur root.

Chapitre 2 Oracle Solaris Cluster et RBAC

53

Cration et assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris Cluster

Dmarrez l'outil Administrative Roles (Rles administratifs).


Pour cela, dmarrez la console de gestion Solaris, tel que dcrit la section How to Assume a
Role in the Solaris Management Console du System Administration Guide: Security Services.
Ouvrez User Tool Collection (Groupe d'outils utilisateur) et cliquez sur l'icne Administrative
Roles (Rles administratifs).

Lancez l'assistant Add Administrative Role (Ajout de rles administratifs).


Slectionnez Add Administrative Role (Ajout de rles administratifs) dans le menu Action pour
lancer l'assistant correspondant et configurer des rles.

Configurez un rle auquel le profil de droits Gestion de cluster est assign.


Utilisez les boutons Back (Prcdent) et Next (Suivant) pour naviguer d'une bote de dialogue
une autre. Notez que le bouton Next ne s'active qu'une fois que les champs requis sont
renseigns. La dernire bote de dialogue vous permet de vrifier les donnes saisies. Vous
pouvez utiliser le bouton Back pour modifier les donnes, ou cliquez sur Finish (Terminer)
pour enregistrer le nouveau rle. La liste suivante rcapitule les champs et boutons des botes de
dialogue.
Role Name
Nom court du rle.
Full Name

Version longue du nom.

Description

Description du rle.

Role ID Number

UID du rle (incrment automatiquement).

Role Shell

Shells de profil disponibles pour les rles : C shell, Bourne


shell ou Korn shell de l'administrateur.

Create a role mailing list

Cre une liste de diffusion pour les utilisateurs affects


ce rle.

Available Rights / Granted Rights

Assigne ou supprime les profils de droits d'un rle.


Notez que le systme ne vous empche pas de saisir
plusieurs fois la mme commande. Les attributs assigns
la premire occurrence d'une commande dans un profil
de droits ont la priorit. Toutes les occurrences suivantes
sont ignores. Utilisez les flches Haut et Bas pour
modifier l'ordre.

54

Server

Serveur du rpertoire de base.

Path

Chemin du rpertoire de base.

Add

Ajoute les utilisateurs pouvant assumer ce rle. Doivent


appartenir la mme tendue.

Delete

Supprime les utilisateurs assigns ce rle.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Cration et assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris Cluster

Remarque Vous devez placer ce profil en premire position dans la liste des profils assigns ce

rle.
4

Ajoutez les utilisateurs devant utiliser les fonctions Oracle Solaris Cluster Manager ou les
commandes Oracle Solaris Cluster avec le nouveau rle cr.
Utilisez la commande useradd(1M) pour ajouter un compte utilisateur au systme. L'option -P
permet d'attribuer un rle un compte utilisateur.

Cliquez sur Finish (Terminer).

Ouvrez une fentre de terminal et connectez-vous en tant qu'utilisateur root.

Dmarrez et arrtez le dmon de cache du service de noms.


Le nouveau rle ne devient actif qu'aprs le redmarrage du dmon de cache du service de
noms. Aprs vous tre identifi en tant qu'utilisateur root, tapez le texte suivant :
# /etc/init.d/nscd stop
# /etc/init.d/nscd start

Cration d'un rle partir de la ligne de commande

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


RBAC de type solaris.cluster.admin.

Slectionnez une mthode de cration d'un rle :

Pour les rles dfinis dans l'tendue locale, utilisez la commande roleadd(1M) pour dfinir
un nouveau rle local et ses attributs.

Ou, pour les rles dfinis dans l'tendue locale, modifiez le fichier user_attr(4) pour
ajouter un utilisateur avec type=role.
Utilisez cette mthode uniquement si vous n'avez pas d'autre choix.

Pour les rles appartenant un service de noms, utilisez la commande smrole(1M) pour
dfinir le nouveau rle et ses attributs.
Cette commande requiert une authentification par un superutilisateur ou un rle capable de
crer d'autres rles. Vous pouvez appliquer la commande smrole tous les services de
noms. Cette commande s'excute en tant que client du serveur de la console de gestion
Solaris.

Chapitre 2 Oracle Solaris Cluster et RBAC

55

Cration et assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris Cluster

Dmarrez et arrtez le dmon du cache de service de noms.


Les nouveaux rles ne deviennent actifs qu'aprs le redmarrage du dmon de cache du service
de noms. En tant qu'utilisateur root, saisissez le texte suivant :
# /etc/init.d/nscd stop
# /etc/init.d/nscd start

Exemple 21

Cration d'un rle d'oprateur personnalis l'aide de la commande smrole


La squence suivante illustre la faon dont un rle est cr avec la commande smrole. Dans cet
exemple, une nouvelle version du rle Oprateur est cre. Les profils de droits standard
Oprateur et Restauration des supports lui sont assigns.
% su primaryadmin
# /usr/sadm/bin/smrole add -H myHost -- -c "Custom Operator" -n oper2 -a johnDoe \
-d /export/home/oper2 -F "Backup/Restore Operator" -p "Operator" -p "Media Restore"
Authenticating as user: primaryadmin
Type /? for help, pressing <enter> accepts the default denoted by [ ]
Please enter a string value for: password ::
<type primaryadmin password>
Loading Tool: com.sun.admin.usermgr.cli.role.UserMgrRoleCli from myHost
Login to myHost as user primaryadmin was successful.
Download of com.sun.admin.usermgr.cli.role.UserMgrRoleCli from myHost was successful.
Type /? for help, pressing <enter> accepts the default denoted by [ ]
Please enter a string value for: password ::
<type oper2 password>
# /etc/init.d/nscd stop
# /etc/init.d/nscd start

Pour afficher le nouveau rle cr (et tous les autres rles), utilisez la commande smrole avec
l'option list, comme suit :
# /usr/sadm/bin/smrole list -Authenticating as user: primaryadmin
Type /? for help, pressing <enter> accepts the default denoted by [ ]
Please enter a string value for: password ::
<type primaryadmin password>
Loading Tool: com.sun.admin.usermgr.cli.role.UserMgrRoleCli from myHost
Login to myHost as user primaryadmin was successful.
Download of com.sun.admin.usermgr.cli.role.UserMgrRoleCli from myHost was successful.
root
0
Super-User
primaryadmin
100
Most powerful role
sysadmin
101
Performs non-security admin tasks
oper2
102
Custom Operator

56

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Modification des proprits RBAC d'un utilisateur

Modification des proprits RBAC d'un utilisateur


Vous pouvez modifier les proprits RBAC d'un utilisateur en utilisant soit l'outil de comptes
utilisateur, soit la ligne de commande. Pour modifier les proprits RBAC d'un utilisateur,
effectuez l'une des procdures suivantes.

Avant de
commencer

Modification des proprits RBAC d'un utilisateur par le biais de l'outil User Accounts
la page 57
Modification des proprits RBAC d'un utilisateur partir de la ligne de commande
la page 58

Modification des proprits RBAC d'un utilisateur par


le biais de l'outil User Accounts
Pour modifier les proprits d'un utilisateur, vous devez excuter User Tool Collection (groupe
d'outils utilisateur) en tant qu'utilisateur root ou prendre un rle auquel est assign le profil de
droits Administrateur principal.
Dmarrez l'outil User accounts (Comptes utilisateur).
Pour cela, dmarrez la console de gestion Solaris, tel que dcrit la section How to Assume a
Role in the Solaris Management Console du System Administration Guide: Security Services.
Ouvrez User Tool Collection et cliquez sur l'icne User Accounts.
Une fois l'outil User Accounts dmarr, les icnes des comptes utilisateur existants apparaissent
dans le volet d'affichage.

Cliquez sur l'icne User Account (Compte utilisateur) modifier et slectionnez Properties
(Proprits) dans le menu Action (ou cliquez deux fois sur l'icne du compte utilisateur).

Cliquez sur l'onglet appropri de la bote de dialogue pour la proprit modifier, comme suit :

Pour modifier les rles assigns l'utilisateur, cliquez sur l'onglet Roles (Rles) et dplacez
l'affectation de rle modifier dans la colonne approprie : Available Roles (Rles
disponibles) ou Assigned Roles (Rles assigns).

Pour modifier les profils de droits assigns l'utilisateur, cliquez sur l'onglet Rights (Droits)
et dplacez-le vers la colonne approprie : Available Rights (Droits disponibles) ou Assigned
Rights (Droits assigns).
Remarque vitez d'assigner des profils de droits directement aux utilisateurs. L'approche

prfre est de demander aux utilisateurs d'endosser un rle pour pouvoir utiliser des
applications privilgies. Cette stratgie dcourage les utilisateurs d'abuser de leurs droits.

Chapitre 2 Oracle Solaris Cluster et RBAC

57

Modification des proprits RBAC d'un utilisateur

Modification des proprits RBAC d'un utilisateur


partir de la ligne de commande

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify.

Choisissez la commande approprie :

Pour modifier les autorisations, rles ou profils de droits assigns un utilisateur dfini dans
l'tendue locale, utilisez la commande usermod(1M).

Ou, pour modifier les autorisations, rles ou profils de droits assigns un utilisateur dfini
dans l'tendue locale, modifiez le fichier user_attr.
Utilisez cette mthode uniquement si vous n'avez pas d'autre choix.

Pour modifier les autorisations, rles ou profils de droits assigns un utilisateur dfini dans
un service de noms, utilisez la commande smuser(1M).
Cette commande requiert de s'authentifier en tant que superutilisateur ou avec un autre rle
autoris modifier les fichiers utilisateur. Vous pouvez appliquer la commande smuser
tous les services de noms. smuser s'excute en tant que client du serveur Solaris
Management Console.

58

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

C H A P I T R E

Fermeture et initialisation d'un cluster

Ce chapitre fournit des informations et des procdures propos de la fermeture et de


l'initialisation d'un cluster global, d'un cluster de zones et des nuds individuels. Pour plus
d'informations propos de l'initialisation d'un cluster non global, reportez-vous au Chapitre 18,
Planification et configuration de zones non globales (tches) du Guide dadministration
systme : Gestion des ressources des conteneurs et des zones Oracle Solaris.

Prsentation de la fermeture et de l'initialisation d'un cluster la page 59


Fermeture et initialisation d'un nud unique dans un cluster la page 69
Rparation d'un systme de fichiers /var complet la page 82

Pour une description de haut niveau des procdures associes dans ce chapitre, reportez-vous
la section Initialisation d'un nud en mode non cluster la page 79 et Tableau 32.

Prsentation de la fermeture et de l'initialisation d'un cluster


La commande cluster(1CL) shutdown de Oracle Solaris Cluster arrte les services du cluster
global de manire ordonne et ferme proprement un cluster global entier. Vous pouvez utiliser
la commande cluster shutdown lors du dplacement de l'emplacement d'un cluster global ou
pour fermer le cluster global si une erreur d'application provoque la corruption des donnes. La
commande clzonecluster halt arrte un cluster de zones en cours d'excution sur un nud
spcifique ou un cluster de zones entier sur tous les nuds configurs. (Vous pouvez galement
utiliser la commande cluster shutdown au sein d'un cluster de zones.)
Dans les procdures de ce chapitre, phys-schost# reflte une invite de cluster global.
clzc:schost> reprsente l'invite de shell interactive de la commande clzonecluster.

59

Prsentation de la fermeture et de l'initialisation d'un cluster

Remarque Utilisez la commande cluster shutdown pour garantir la fermeture correcte du


cluster global entier. La commande shutdown d'Oracle Solaris est utilise avec la commande
clnode(1CL) evacuate pour fermer les nuds individuels. Pour plus d'informations,
reportez-vous la section Fermeture d'un cluster la page 61 ou Fermeture et initialisation
d'un nud unique dans un cluster la page 69.

Les commandes cluster shutdown et clzonecluster halt arrtent tous les nuds dans un
cluster global ou un cluster de zones, respectivement, en effectuant les actions suivantes :
1. Met hors ligne tous les groupes de ressources en cours d'excution.
2. Dmonte tous les systmes de fichier du cluster pour un cluster global ou un cluster de
zones.
3. La commande cluster shutdown ferme les services de priphriques actifs sur un cluster
global ou un cluster de zones.
4. La commande cluster shutdown excute init 0 et met tous les nuds du cluster sur
l'invite OpenBoot PROM ok sur un systme bas sur SPARC ou sur le message Appuyez sur
une touche pour continuer dans le menu GRUB d'un systme bas sur x86. Les menus
GRUB sont dcrits de manire plus dtaille dans la section Booting an x86 Based System
by Using GRUB (Task Map) du System Administration Guide: Basic Administration. La
commande clzonecluster halt effectue la commande zoneadm-zzoneclustername halt
pour arrter (mais pas fermer) les zones du cluster de zones.
Remarque Si ncessaire, vous pouvez initialiser un nud en mode non cluster afin que le nud
ne participe pas l'appartenance au cluster. Le mode non cluster est utile lors de l'installation du
logiciel du cluster ou pour effectuer certaines procdures administratives. Pour plus
d'informations, reportez-vous la section Initialisation d'un nud en mode non cluster
la page 79.
TABLEAU 31

60

Liste des tches : fermeture et dmarrage d'un cluster

Tche

Instructions

Arrtez le cluster.

Fermeture d'un cluster la page 61

Dmarrez le cluster en dmarrant tous les nuds. Les nuds


doivent disposer d'une connexion qui fonctionne avec
l'interconnexion de cluster pour atteindre l'appartenance au
cluster.

Initialisation d'un cluster la page 63

Rinitialisez le cluster.

Rinitialisation d'un cluster la page 65

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de la fermeture et de l'initialisation d'un cluster

Fermeture d'un cluster


Vous pouvez fermer un cluster global, un cluster de zones ou tous les clusters de zones.
Attention N'utilisez pas la commande send brk dans une console de cluster pour fermer un
nud de cluster global ou un nud de cluster de zones. La commande n'est pas prise en charge
au sein d'un cluster.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Si votre cluster global ou votre cluster de zones excute Oracle Real Application Clusters (RAC),
fermez toutes les instances de la base de donnes sur le cluster que vous fermez.
Reportez-vous la documentation produit de Oracle RAC pour les procdures de fermeture.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits


d'autorisation RBCA solaris.cluster.admin sur tous les nuds du cluster. Effectuez toutes
les tapes de cette procdure depuis un nud du cluster global.

Fermez le cluster global, le cluster de zones ou tous les clusters de zones.

Fermez le cluster global. Cette action ferme galement tous les clusters de zones.
phys-schost# cluster shutdown -g0 -y

Fermez un cluster de zones spcifique.


phys-schost# clzonecluster halt zoneclustername

Fermez tous les clusters de zones.


phys-schost# clzonecluster halt +

Vous pouvez galement utiliser la commande cluster shutdown au sein d'un cluster de
zones pour fermer tous les clusters de zones.

Chapitre 3 Fermeture et initialisation d'un cluster

61

Prsentation de la fermeture et de l'initialisation d'un cluster

Vrifiez que tous les nuds du cluster global ou du cluster de zones affichent l'invite ok sur un
systme bas sur SPARC ou un menu GRUB sur un systme bas sur x86.
N'teignez pas de nud avant que tous les nuds soient associs l'invite ok sur un systme
bas sur SPARC ou un sous-systme d'initialisation sur un systme bas sur x86.

Vrifiez que les nuds du cluster global sont associs l'invite ok sur un systme bas sur
SPARC ou au message Appuyez sur une touche pour continuer sur les systmes x86
bass sur GRUB.
phys-schost# cluster status -t node

Utilisez la sous-commande statut pour vrifier que le cluster de zones a t ferm.


phys-schost# clzonecluster status

Exemple 31

Si ncessaire, teignez les nuds du cluster global.

Fermeture d'un cluster de zones


L'exemple suivant ferme un cluster de zones nomm sparse-sczone.

phys-schost# clzonecluster halt sparse-sczone


Waiting for zone halt commands to complete on all the nodes of
Sep 5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node
Sep 5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node
Sep 5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node
Sep 5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node
phys-schost#

Exemple 32

the zone cluster "sparse-sczone"...


2 of cluster sparse-sczone died.
4 of cluster sparse-sczone died.
3 of cluster sparse-sczone died.
1 of cluster sparse-sczone died.

SPARC : Fermeture d'un cluster global


L'exemple suivant montre la sortie de console lorsque l'opration normale du cluster global est
arrte et que tous les nuds sont ferms, permettant l'invite ok de s'afficher. L'option -g0
dfinit la priode de grce de la fermeture sur zro et l'option -y fournit une rponse oui
automatique la question de confirmation. Les messages de fermeture apparaissent galement
sur les consoles des autres nuds du cluster global.
phys-schost# cluster shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1#
INIT: New run level: 0
The system is coming down. Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
The system is down.
syncing file systems... done
Program terminated
ok

62

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de la fermeture et de l'initialisation d'un cluster

Exemple 33

x86 : Fermeture d'un cluster global


L'exemple suivant montre la sortie de console lorsque l'opration normale du cluster global est
arrte et que tous les nuds sont ferms. Dans cet exemple, l'invite ok ne s'affiche pas sur tous
les nuds. L'option -g0 dfinit la priode de grce de la fermeture sur zro et l'option -y fournit
une rponse oui automatique la question de confirmation. Les messages de fermeture
apparaissent galement sur les consoles des autres nuds du cluster global.
phys-schost# cluster shutdown -g0 -y
May 2 10:32:57 phys-schost-1 cl_runtime:
WARNING: CMM: Monitoring disabled.
root@phys-schost-1#
INIT: New run level: 0
The system is coming down. Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
failfasts already disabled on node 1
Print services already stopped.
May 2 10:33:13 phys-schost-1 syslogd: going down on signal 15
The system is down.
syncing file systems... done
Type any key to continue

Voir aussi

Pour redmarrer un cluster global ou un cluster de zones qui a t ferm, reportez-vous la


section Initialisation d'un cluster la page 63.

Initialisation d'un cluster


Cette procdure explique le dmarrage d'un cluster global ou d'un cluster de zones dont les
nuds ont t ferms. Pour les nuds du cluster global, le systme affiche l'invite ok sur les
systmes SPARC ou le message Press any key to continue sur les systmes x86 bass sur
GRUB.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Remarque Pour crer un cluster de zones, suivez les instructions dans la section Configuration
dun cluster de zones du Guide dinstallation du logiciel Oracle Solaris Cluster.

Chapitre 3 Fermeture et initialisation d'un cluster

63

Prsentation de la fermeture et de l'initialisation d'un cluster

Initialisez chaque nud en mode cluster. Effectuez toutes les tapes de cette procdure depuis
un nud du cluster global.

Dans les systmes SPARC, excutez la commande suivante.


ok boot

Sur les systmes x86, excutez les commandes suivantes :


Lorsque le menu GRUB s'affiche, slectionnez l'entre Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.

Pour plus d'informations concernant l'initialisation base sur GRUB, reportez-vous la


section Booting an x86 Based System by Using GRUB (Task Map) du System
Administration Guide: Basic Administration.
Remarque Les nuds doivent disposer d'une connexion qui fonctionne avec
l'interconnexion de cluster pour atteindre l'appartenance au cluster.

Si vous avez un cluster de zones, vous pouvez initialiser le cluster de zones entier.
phys-schost# clzonecluster boot zoneclustername

Si vous avez plus d'un cluster de zones, vous pouvez initialiser tous les clusters de zones.
Utilisez + la place de zoneclustername.

Vrifiez que les nuds ont t initialiss sans erreur et sont en ligne.
La commande de statut cluster(1CL) rapporte le statut des nuds du cluster global.
phys-schost# cluster status -t node

Lorsque vous excutez la commande de statut clzonecluster(1CL) depuis un nud du cluster


global, la commande rapporte l'tat du nud du cluster de zones.
phys-schost# clzonecluster status
Remarque Si le systme de fichier /var d'un nud se remplit, Oracle Solaris Cluster ne pourra

peut-tre pas redmarrer sur ce nud. Si ce problme survient, reportez-vous la section


Rparation d'un systme de fichiers /var complet la page 82.

64

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de la fermeture et de l'initialisation d'un cluster

Exemple 34

SPARC : Initialisation d'un cluster global


L'exemple suivant montre la sortie de console lorsque le nud phys-schost-1 est initialis
dans le cluster global. Des messages similaires apparaissent sur les consoles des autres nuds du
cluster global. Lorsque la proprit de dmarrage automatique d'un cluster de zones est dfinie
sur true, le systme initialise automatiquement le nud du cluster de zones aprs avoir
initialis le nud du cluster global sur cette machine.
Lorsqu'un nud du cluster global est rinitialis, tous les nuds du cluster de zones sur cette
machine s'arrtent. Tout nud du cluster de zones sur la mme machine, et dont la proprit de
dmarrage automatique est dfinie sur true, est initialis aprs le redmarrage du nud du
cluster global.
ok boot
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: Node phys-schost-1 with votecount = 1 added.
NOTICE: Node phys-schost-2 with votecount = 1 added.
NOTICE: Node phys-schost-3 with votecount = 1 added.
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
NOTICE: node phys-schost-1 is up; new incarnation number = 937846227.
NOTICE: node phys-schost-2 is up; new incarnation number = 937690106.
NOTICE: node phys-schost-3 is up; new incarnation number = 937690290.
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...

Rinitialisation d'un cluster


Pour fermer un cluster global, excutez la commande cluster shutdown, puis initialisez le
cluster global l'aide de la commande boot sur chaque nud. Pour fermer un cluster de zones
utilisez la commande clzonecluster halt, puis utilisez la commande clzonecluster boot
pour initialiser le cluster de zones. Vous pouvez galement utiliser la commande
clzonecluster reboot. Pour plus d'informations, reportez-vous aux pages de manuel
cluster(1CL)boot(1M) et clzonecluster(1CL).
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Chapitre 3 Fermeture et initialisation d'un cluster

65

Prsentation de la fermeture et de l'initialisation d'un cluster

Si votre cluster excute Oracle RAC, fermez toutes les instances de la base de donnes sur le
cluster que vous fermez.
Reportez-vous la documentation produit de Oracle RAC pour les procdures de fermeture.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits


d'autorisation RBCA solaris.cluster.admin sur tous les nuds du cluster. Effectuez toutes
les tapes de cette procdure depuis un nud du cluster global.

Fermez le cluster.

Fermez le cluster global.


phys-schost# cluster shutdown -g0 -y

Si vous avez un cluster de zones, fermez le cluster de zones depuis un nud du cluster
global.
phys-schost# clzonecluster halt zoneclustername

Chaque nud est ferm. Vous pouvez galement utiliser la commande cluster shutdown au
sein d'un cluster de zones pour fermer le cluster de zones.
Remarque Les nuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion

de cluster pour atteindre l'appartenance au cluster.


4

Initialisez chaque nud.


L'ordre dans lequel les nuds sont initialiss n'a pas d'importance, sauf si vous modifiez la
configuration entre les fermetures. Si vous modifiez la configuration entre les fermetures,
dmarrez d'abord le nud avec la configuration la plus rcente.

Pour un nud du cluster global d'un systme SPARC, excutez la commande suivante.
ok boot

Pour un nud du cluster global d'un systme x86, excutez les commandes suivantes.
Lorsque le menu GRUB s'affiche, slectionnez l'entre SE Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.

66

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de la fermeture et de l'initialisation d'un cluster

Remarque Les nuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion

de cluster pour atteindre l'appartenance au cluster.


Pour plus d'informations concernant l'initialisation bas sur GRUB, reportez-vous la section
Booting an x86 Based System by Using GRUB (Task Map) du System Administration Guide:
Basic Administration.

Pour un cluster de zones, entrez la commande suivante sur un nud unique du cluster
global pour initialiser le cluster de zones.
phys-schost# clzonecluster boot zoneclustername

Des messages apparaissent sur les consoles des nuds initialiss en mme temps que les
composants du cluster sont activs.
5

Vrifiez que les nuds ont t initialiss sans erreur et sont en ligne.

La commande clnode status rapporte le statut des nuds du cluster global.


phys-schost# clnode status

L'excution de la commande clzonecluster status sur un nud du cluster global


rapporte le statut des nuds du cluster de zones.
phys-schost# clzonecluster status

Vous pouvez galement excuter la commande cluster status au sein d'un cluster de
zones pour afficher le statut des nuds.
Remarque Si le systme de fichier /var d'un nud se remplit, Oracle Solaris Cluster ne
pourra peut-tre pas redmarrer sur ce nud. Si ce problme survient, reportez-vous la
section Rparation d'un systme de fichiers /var complet la page 82.

Exemple 35

Rinitialisation d'un cluster de zones


L'exemple suivant montre la procdure d'arrt et de dmarrage d'un cluster de zones nomm
sparse-sczone. Vous pouvez galement utiliser la commande clzonecluster reboot.

phys-schost# clzonecluster halt sparse-sczone


Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep 5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster sparse-sczone died.
Sep 5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster sparse-sczone died.
Sep 5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster sparse-sczone died.
Sep 5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster sparse-sczone died.
phys-schost#
phys-schost# clzonecluster boot sparse-sczone
Waiting for zone boot commands to complete on all the nodes of the zone cluster "sparse-sczone"...
phys-schost# Sep 5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster
sparse-sczone joined.
Chapitre 3 Fermeture et initialisation d'un cluster

67

Prsentation de la fermeture et de l'initialisation d'un cluster

Sep 5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster sparse-sczone joined.
Sep 5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster sparse-sczone joined.
Sep 5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster sparse-sczone joined.
phys-schost#
phys-schost# clzonecluster status
=== Zone Clusters ===
--- Zone Cluster Status --Name
---sparse-sczone

Node Name
--------schost-1
schost-2
schost-3
schost-4

Zone HostName
------------sczone-1
sczone-2
sczone-3
sczone-4

Status
-----Online
Online
Online
Online

Zone Status
----------Running
Running
Running
Running

phys-schost#
Exemple 36

SPARC : Rinitialisation d'un cluster global


L'exemple suivant montre la sortie de console lorsque l'opration normale du cluster global est
arrte, que tous les nuds sont ferms pour l'invite ok et que le cluster global est redmarr.
L'option -g0 dfinit la priode de grce sur zro et l'option -y fournit une rponse oui
automatique la question de confirmation. Les messages de fermeture apparaissent galement
sur les consoles des autres nuds du cluster global.
phys-schost# cluster shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1#
INIT: New run level: 0
The system is coming down. Please wait.
...
The system is down.
syncing file systems... done
Program terminated
ok boot
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
...
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up. Please wait.
checking ufs filesystems
...

68

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Fermeture et initialisation d'un nud unique dans un cluster

reservation program successfully exiting


Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up. Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:

Fermeture et initialisation d'un nud unique dans un cluster


Vous pouvez fermer un nud du cluster global, un nud du cluster de zones ou une zone non
globale. Cette section fournit des instructions concernant la fermeture d'un nud du cluster
global et d'un nud du cluster de zones.
Pour fermer un nud du cluster global, utilisez la commande clnode evacuate avec la
commande Oracle Solaris shutdown. Utilisez la commande cluster shutdown uniquement en
cas de fermeture d'un cluster global entier.
Sur un nud du cluster de zones, utilisez la commande clzonecluster halt sur un cluster
global pour fermer un nud unique du cluster de zones ou un cluster de zones entier. Vous
pouvez galement utiliser les commandes clnode evacuate et shutdown pour fermer un nud
du cluster de zones.
Pour plus d'informations propos de la fermeture et de l'initialisation d'une zone non globale,
reportez-vous au Chapitre 20, Installation, initialisation, arrt, dsinstallation et clonage de
zones non globales (tches) du Guide dadministration systme : Gestion des ressources des
conteneurs et des zones Oracle Solaris. Reportez-vous galement clnode(1CL)shutdown(1M)
et clzonecluster(1CL).
Dans les procdures de ce chapitre, phys-schost# reflte une invite de cluster global.
clzc:schost> reprsente l'invite de shell interactive de la commande clzonecluster.
TABLEAU 32

Liste des tches : fermeture et initialisation d'un nud

Tche

Outil

Instructions

Arrtez un nud.

Pour un nud du cluster


global, utilisez clnode(1CL)
evacuate et shutdown.
Pour un nud du cluster de
zones, utilisez
clzonecluster(1CL) halt.

Fermeture d'un nud la page 70

Chapitre 3 Fermeture et initialisation d'un cluster

69

Fermeture et initialisation d'un nud unique dans un cluster

TABLEAU 32

Liste des tches : fermeture et initialisation d'un nud

(Suite)

Tche

Outil

Instructions

Dmarrez un nud.

Pour un nud du cluster


global, utilisez boot ou b.
Pour un nud du cluster de
zones, utilisez
clzonecluster(1CL) boot.

Initialisation d'un nud la page 73

Le nud doit disposer d'une


connexion qui fonctionne
avec l'interconnexion de
cluster pour atteindre
l'appartenance au cluster.

Arrtez et redmarrez
Pour un nud du cluster
(rinitialisez) un nud sur un global, utilisez clnode
cluster.
evacuate et shutdown, suivi
de boot
Le nud doit disposer d'une
ou b.
connexion qui fonctionne
avec l'interconnexion de
Pour un nud du cluster de
cluster pour atteindre
zones, utilisez
clzonecluster(1CL)reboot.
l'appartenance au cluster.

Rinitialisation d'un nud la page 75

Initialisez un nud afin que le Pour un nud du cluster


Initialisation d'un nud en mode non
nud ne participe pas
global, utilisez les commandes cluster la page 79
l'appartenance au cluster.
clnode evacuate et
shutdown, suivi de boot-x
sur l'dition de l'entre de
menu SPARC ou GRUB sur
x86.
Si le cluster global
sous-jacents est initialis en
mode non cluster, le nud du
cluster de zones est
automatiquement en mode
non cluster.

Fermeture d'un nud


L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Attention N'utilisez pas la commande send brk sur la console d'un cluster pour fermer un
nud d'un cluster global ou d'un cluster de zones. La commande n'est pas prise en charge au
sein d'un cluster.

70

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Fermeture et initialisation d'un nud unique dans un cluster

Si votre cluster excute Oracle RAC, fermez toutes les instances de la base de donnes sur le
cluster que vous fermez.
Reportez-vous la documentation produit de Oracle RAC pour les procdures de fermeture.

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.admin sur le nud
du cluster fermer. Effectuez toutes les tapes de cette procdure depuis un nud du cluster
global.

Si vous souhaitez arrter un membre spcifique du cluster de zones, ignorez les tapes 4 6 et
excutez la commande suivante depuis un nud du cluster global.
phys-schost# clzonecluster halt -n physical-name zoneclustername

Lorsque vous spcifiez un nud particulier du cluster de zones, vous n'arrtez que ce nud. Par
dfaut, la commande halt arrte les clusters de zones sur tous les nuds.
4

Commutez tous les groupes de ressources, les ressources et les groupes de priphriques depuis
le nud en cours de fermeture vers les autres membres du cluster global.
Sur le nud fermer du cluster global, entrez la commande suivante. La commande clnode
evacuate commute tous les groupes de ressources et de priphriques, y compris toutes les
zones non-globales, depuis le nud spcifi vers le prochain nud de prdilection. (Vous
pouvez galement excuter la commande clnode evacuate au sein d'un nud du cluster de
zones.
phys-schost# clnode evacuate node

node
5

Spcifie le nud dont vous commutez les groupes de ressources et de priphriques.

Fermez le nud.
Spcifiez le nud du cluster global que vous souhaitez fermer.
phys-schost# shutdown -g0 -y -i0

Vrifiez que le nud du cluster global affiche l'invite ok sur un systme SPARC ou le message
Appuyez sur une touche pour continuer dans le menu GRUB d'un systme x86.
6

Exemple 37

Si ncessaire, teignez le nud.

SPARC : Fermeture d'un nud du cluster global


L'exemple suivant montre la sortie console lorsque le nud phys-schost-1 est ferm. L'option
-g0 dfinit la priode de grce sur zro et l'option -y fournit une rponse oui automatique la
question de confirmation. Les messages de fermeture pour ce nud apparaissent sur les
consoles des autres nuds du cluster global.
phys-schost# clnode evacuate nodename
phys-schost# shutdown -g0 -y
Chapitre 3 Fermeture et initialisation d'un cluster

71

Fermeture et initialisation d'un nud unique dans un cluster

Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:


WARNING: CMM monitoring disabled.
phys-schost-1#
INIT: New run level: 0
The system is coming down. Please wait.
Notice: rgmd is being stopped.
Notice: rpc.pmfd is being stopped.
Notice: rpc.fed is being stopped.
umount: /global/.devices/node@1 busy
umount: /global/phys-schost-1 busy
The system is down.
syncing file systems... done
Program terminated
ok
Exemple 38

x86 : Fermeture d'un nud du cluster global


L'exemple suivant montre la sortie console lorsque le nud phys-schost-1 est ferm. L'option
-g0 dfinit la priode de grce sur zro et l'option -y fournit une rponse oui automatique la
question de confirmation. Les messages de fermeture pour ce nud apparaissent sur les
consoles des autres nuds du cluster global.
phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y
Shutdown started.
Wed Mar 10 13:47:32 PST 2004
Changing to init state 0 - please wait
Broadcast Message from root (console) on phys-schost-1 Wed Mar 10 13:47:32...
THE SYSTEM phys-schost-1 IS BEING SHUT DOWN NOW ! ! !
Log off now or risk your files being damaged
phys-schost-1#
INIT: New run level: 0
The system is coming down. Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
failfasts disabled on node 1
Print services already stopped.
Mar 10 13:47:44 phys-schost-1 syslogd: going down on signal 15
umount: /global/.devices/node@2 busy
umount: /global/.devices/node@1 busy
The system is down.
syncing file systems... done
WARNING: CMM: Node being shut down.
Type any key to continue

Exemple 39

Fermeture d'un nud d'un cluster de zones


L'exemple suivant montre l'utilisation de clzonecluster halt pour fermer un nud d'un
cluster de zones nomm sparse-sczone. (Vous pouvez galement excuter les commandes
clnode evacuate et shutdown dans un nud du cluster de zones.)

72

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Fermeture et initialisation d'un nud unique dans un cluster

phys-schost# clzonecluster status


=== Zone Clusters ===
--- Zone Cluster Status --Name
---sparse-sczone

Node Name
--------schost-1
schost-2
schost-3
schost-4

Zone HostName
------------sczone-1
sczone-2
sczone-3
sczone-4

Status
-----Online
Online
Online
Online

Zone Status
----------Running
Running
Running
Running

phys-schost#
phys-schost# clzonecluster halt -n schost-4 sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep 5 19:24:00 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster sparse-sczone died.
phys-host#
phys-host# clzonecluster status
=== Zone Clusters ===
--- Zone Cluster Status --Name
---sparse-sczone

Node Name
--------schost-1
schost-2
schost-3
schost-4

Zone HostName
------------sczone-1
sczone-2
sczone-3
sczone-4

Status
-----Online
Online
Offline
Online

Zone Status
----------Running
Running
Installed
Running

phys-schost#
Voir aussi

Reportez-vous Initialisation d'un nud la page 73 pour redmarrer un nud ferm du


cluster global.

Initialisation d'un nud


Si vous avez l'intention d'arrter ou de rinitialiser d'autres nuds actifs du cluster global ou du
cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le nud que
vous souhaitez rinitialiser.
Sinon, le nud ne sera pas disponible pour prendre la place de services d'autres nuds du
cluster que vous fermez ou rinitialisez. Pour plus d'informations propos de l'initialisation
d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrt,
dsinstallation et clonage de zones non globales (tches) du Guide dadministration systme :
Gestion des ressources des conteneurs et des zones Oracle Solaris.

Chapitre 3 Fermeture et initialisation d'un cluster

73

Fermeture et initialisation d'un nud unique dans un cluster

Remarque Le dmarrage d'un nud peut tre affect par la configuration du quorum. Dans un
cluster deux nuds, vous devez avoir un priphrique de quorum configur afin que le
nombre total du quorum soit trois. Vous devez avoir un nombre du quorum pour chaque nud
et un nombre du quorum pour le priphrique de quorum. Dans cette situation, si le premier
nud est ferm, le second nud continue d'avoir le quorum et s'excute en tant que seul
membre du cluster. Pour que le premier nud reviennent dans le cluster en tant que nud du
cluster, le second nud doit tre oprationnel et en cours d'excution. Le nombre requis de
quorum du cluster (deux) doit tre prsent.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Remarque Les nuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion

de cluster pour atteindre l'appartenance au cluster.


1

Pour dmarrer un nud du cluster global ou un nud du cluster de zones qui a t ferm,
initialisez le nud. Effectuez toutes les tapes de cette procdure depuis un nud du cluster
global.

Dans les systmes SPARC, excutez la commande suivante.

Sur les systmes x86, excutez les commandes suivantes :

ok boot

Lorsque le menu GRUB s'affiche, slectionnez l'entre Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.

Des messages apparaissent sur les consoles des nuds initialiss en mme temps que les
composants du cluster sont activs.

Si vous avez un cluster de zones, vous pouvez indiquer un nud initialiser.


phys-schost# clzonecluster boot -n node zoneclustername

74

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Fermeture et initialisation d'un nud unique dans un cluster

Assurez-vous que le nud a t initialis sans erreurs et qu'il se trouve en ligne.

L'excution de la commande cluster status rapporte le statut d'un nud du cluster


global.
phys-schost# cluster status -t node

L'excution de la commande clzonecluster status partir d'un nud du cluster global


rapporte le statut de tous les nuds du cluster de zones.
phys-schost# clzonecluster status

Un nud du cluster de zones peut uniquement tre initialis en mode cluster lorsque le
nud hbergeant le nud est initialis en mode cluster.
Remarque Si le systme de fichier /var d'un nud se remplit, Oracle Solaris Cluster ne
pourra peut-tre pas redmarrer sur ce nud. Si ce problme survient, reportez-vous la
section Rparation d'un systme de fichiers /var complet la page 82.

Exemple 310

SPARC : Initialisation d'un nud du cluster global


L'exemple suivant montre la sortie de console lorsque le nud phys-schost-1 est initialis
dans le cluster global.
ok boot
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up. Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:

Rinitialisation d'un nud


Pour arrter ou rinitialiser d'autres nuds actifs du cluster global ou du cluster de zones,
attendez que le jalon multi-utilisateur-serveur soit en ligne pour le nud que vous souhaitez
rinitialiser.

Chapitre 3 Fermeture et initialisation d'un cluster

75

Fermeture et initialisation d'un nud unique dans un cluster

Sinon, le nud ne sera pas disponible pour prendre la place de services d'autres nuds du
cluster que vous fermez ou rinitialisez. Pour plus d'informations propos de la rinitialisation
d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrt,
dsinstallation et clonage de zones non globales (tches) du Guide dadministration systme :
Gestion des ressources des conteneurs et des zones Oracle Solaris.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Si le nud du cluster global ou du cluster de zones excute Oracle RAC, fermez toutes les
instances de la base de donnes sur le nud que vous fermez.
Reportez-vous la documentation produit de Oracle RAC pour les procdures de fermeture.

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.admin sur le nud
fermer. Effectuez toutes les tapes de cette procdure depuis un nud du cluster global.

Fermez le nud du cluster global l'aide des commandes clnode evacuate et shutdown.
Fermez le cluster de zones l'aide de la commande clzonecluster halt excute sur un nud
du cluster global. (Les commandes clnode evacuate et shutdown fonctionnent galement
dans un cluster de zones.)
Pour un cluster global, entrez les commandes suivantes sur le nud fermer. La commande
clnode evacuate bascule tous les groupes de priphriques du nud spcifi vers le prochain
nud de prdilection. La commande commute galement tous les groupes de ressources des
zones globales ou non-globales du nud spcifi vers les prochaines zones globales ou
non-globales de prdilection d'autres nuds.

Sur un systme SPARC, excutez les commandes suivantes.


phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i6

Sur les systmes x86, excutez les commandes suivantes :


phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i6

Lorsque le menu GRUB s'affiche, slectionnez l'entre Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|

76

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Fermeture et initialisation d'un nud unique dans un cluster

| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.

Indiquez le nud du cluster de zones fermer et rinitialiser.


phys-schost# clzonecluster reboot - node zoneclustername

Remarque Les nuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion

de cluster pour atteindre l'appartenance au cluster.


4

Assurez-vous que le nud a t initialis sans erreurs et qu'il se trouve en ligne.

Assurez-vous que le nud du cluster global se trouve en ligne.


phys-schost# cluster status -t node

Assurez-vous que le nud du cluster de zones se trouve en ligne.


phys-schost# clzonecluster status

Exemple 311

SPARC : Rinitialisation d'un nud du cluster global


L'exemple suivant montre la sortie console lorsque le nud phys-schost-1 est rinitialis. Les
messages pour ce nud, tels que les notifications de fermeture ou de dmarrage, apparaissent
sur les consoles des autres nuds du cluster global.
phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y -i6
Shutdown started.
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1#
INIT: New run level: 6
The system is coming down. Please wait.
System services are now being stopped.
Notice: rgmd is being stopped.
Notice: rpc.pmfd is being stopped.
Notice: rpc.fed is being stopped.
umount: /global/.devices/node@1 busy
umount: /global/phys-schost-1 busy
The system is down.
syncing file systems... done
rebooting...
Resetting ...
,,,
Sun Ultra 1 SBus (UltraSPARC 143MHz), No Keyboard
OpenBoot 3.11, 128 MB memory installed, Serial #5932401.
Ethernet address 8:8:20:99:ab:77, Host ID: 8899ab77.
...

Chapitre 3 Fermeture et initialisation d'un cluster

77

Fermeture et initialisation d'un nud unique dans un cluster

Rebooting with command: boot


...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up. Please wait.
The system is ready.
phys-schost-1 console login:
Exemple 312

x86 : Rinitialisation d'un nud du cluster global


L'exemple suivant montre la sortie console lors de la rinitialisation du nud phys-schost-1.
Les messages pour ce nud, tels que les notifications de fermeture ou de dmarrage,
apparaissent sur les consoles des autres nuds du cluster global.
phys-schost# clnode evacuate phys-schost-1
phys-schost # shutdown -y -g0 -i6
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up. Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:

Exemple 313

Rinitialisation d'un nud du cluster de zones


L'exemple suivant montre la procdure de la rinitialisation d'un nud d'un cluster de zones.

phys-schost# clzonecluster reboot -n schost-4 sparse-sczone


Waiting for zone reboot commands to complete on all the nodes of the zone cluster

78

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Fermeture et initialisation d'un nud unique dans un cluster

"sparse-sczone"...
Sep 5 19:40:59 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
sparse-sczone died.
phys-schost# Sep 5 19:41:27 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
sparse-sczone joined.
phys-schost#
phys-schost# clzonecluster status
=== Zone Clusters ===
--- Zone Cluster Status --Name
Node Name
-----------sparse-sczone schost-1
schost-2
schost-3
schost-4

Zone HostName
------------sczone-1
sczone-2
sczone-3
sczone-4

Status
-----Online
Online
Online
Online

Zone Status
----------Running
Running
Running
Running

phys-schost#

Initialisation d'un nud en mode non cluster


Vous pouvez initialiser un nud du cluster global en mode non cluster, le nud ne participant
alors pas l'appartenance au cluster. Le mode non cluster est utile lors de l'installation du
logiciel du cluster ou de la ralisation de certaines procdures d'administration, telles que
l'application de patch sur un nud. Un nud du cluster de zones ne peut pas se trouver dans un
tat de dmarrage diffrent de l'tat du nud sous-jacent du cluster global. Si le nud du cluster
global est dmarr en mode non cluster, le nud du cluster de zones est automatiquement
dmarr en mode non cluster.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.admin sur le cluster
dmarrer en mode non cluster. Effectuez toutes les tapes de cette procdure depuis un nud
du cluster global.

Fermez le nud du cluster de zones en excutant la commande clzonecluster halt sur un


nud du cluster global. Fermez le nud du cluster global l'aide des commandes clnode
evacuate et shutdown.
La commande clnode evacuate bascule tous les groupes de priphriques du nud spcifi
vers le prochain nud de prdilection. La commande commute galement tous les groupes de
Chapitre 3 Fermeture et initialisation d'un cluster

79

Fermeture et initialisation d'un nud unique dans un cluster

ressources des zones globales ou non-globales du nud spcifi vers les prochaines zones
globales ou non-globales de prdilection d'autres nuds.

Fermez un cluster global spcifique.


phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y

Fermez un nud spcifique du cluster de zones partir d'un nud du cluster global.
phys-schost# clzonecluster halt -n node zoneclustername

Vous pouvez galement utiliser les commandes clnode evacuate et shutdown dans un
cluster de zones.
3

Vrifiez que le nud du cluster global affiche l'invite ok sur un systme Oracle Solaris ou le
message Press any key to continue dans le menu GRUB d'un systme x86.

Initialisez le nud du cluster global en mode non cluster.

Dans les systmes SPARC, excutez la commande suivante.


ok boot -xs

Sur les systmes x86, excutez les commandes suivantes :

a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.

Pour plus d'informations concernant l'initialisation base sur GRUB, reportez-vous la


section Booting an x86 Based System by Using GRUB (Task Map) du System
Administration Guide: Basic Administration.
b. Dans l'cran des paramtres d'initialisation, utilisez les touches de direction pour
slectionner l'entre du noyau et saisissez l'option e pour diter cette dernire.
L'cran des paramtres d'initialisation de GRUB s'affiche comme suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot
|

80

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Fermeture et initialisation d'un nud unique dans un cluster

| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.

c. Ajoutez l'option -x la commande pour spcifier l'initialisation du systme en mode non


cluster.
[ Minimal BASH-like line editing is supported. For the first word, TAB
lists possible command completions. Anywhere else TAB lists the possible
completions of a device/filename. ESC at any time exits. ]
grub edit> kernel /platform/i86pc/multiboot -x

d. Appuyez sur la touche Entre pour accepter la modification et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot -x
|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.-

e. Saisissez l'option b pour initialiser le nud en mode non cluster.


Remarque Cette modification de la commande des paramtres d'initialisation du noyau

n'est pas conserve, lors du prochain dmarrage du systme. La prochaine fois que vous
rinitialisez le nud, ce dernier sera initialis en mode cluster. Si vous souhaitez plutt
initialiser le nud en mode non cluster, effectuez de nouveau ces tapes pour ajouter
l'option -x la commande des paramtres d'initialisation du noyau.
Exemple 314

SPARC : Initialisation d'un nud du cluster global en mode non cluster


L'exemple suivant montre la sortie de console lorsque le nud phys-schost-1 est ferm et
redmarr en mode non cluster. L'option -g0 dfinit la priode de grce sur zro, l'option -y
fournit une rponse oui automatique la question de confirmation et l'option -i0 invoque le
niveau d'excution 0 (zro). Les messages de fermeture pour ce nud apparaissent sur les
consoles des autres nuds du cluster global.

Chapitre 3 Fermeture et initialisation d'un cluster

81

Rparation d'un systme de fichiers /var complet

phys-schost# clnode evacuate phys-schost-1


phys-schost# cluster shutdown -g0 -y
Shutdown started.
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1#
...
rg_name = schost-sa-1 ...
offline node = phys-schost-2 ...
num of node = 0 ...
phys-schost-1#
INIT: New run level: 0
The system is coming down. Please wait.
System services are now being stopped.
Print services stopped.
syslogd: going down on signal 15
...
The system is down.
syncing file systems... done
WARNING: node phys-schost-1 is being shut down.
Program terminated
ok boot -x
...
Not booting as part of cluster
...
The system is ready.
phys-schost-1 console login:

Rparation d'un systme de fichiers /var complet


Le logiciel Oracle Solaris et le logiciel Oracle Solaris Cluster crivent tous deux les messages
d'erreur dans le fichier /var/adm/messages, qui peuvent avec le temps remplir le systme de
fichiers /var. Si le systme de fichiers /var d'un nud de cluster se remplit, Oracle Solaris
Cluster ne pourra peut-tre pas redmarrer sur ce nud. De plus, vous ne pourrez peut-tre pas
vous connecter au nud.

Rparation d'un systme de fichiers /var complet


Si un nud rapporte un systme de fichiers /var complet et continue d'excuter les services de
Oracle Solaris Cluster, utilisez cette procdure pour vider le systme de fichiers complet. Pour
plus d'informations, reportez-vous la section Viewing System Messages du System
Administration Guide: Advanced Administration du System Administration Guide: Advanced
Administration .

82

Connectez-vous en tant que superutilisateur sur le nud du cluster dont le systme de fichiers
/var est complet.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Rparation d'un systme de fichiers /var complet

Videz le systme de fichiers complet.


Par exemple, supprimez du systme de fichiers les fichiers qui ne sont pas essentiels.

Chapitre 3 Fermeture et initialisation d'un cluster

83

84

C H A P I T R E

Mthodes de rplication de donnes

Ce chapitre dcrit les technologies de rplication de donnes que vous pouvez utiliser avec le
logiciel Oracle Solaris Cluster. La rplication de donnes dsigne la copie de donnes d'un
priphrique de stockage principal vers un priphrique de sauvegarde ou secondaire. En cas de
dfaillance du priphrique principal, vos donnes sont disponibles sur le priphrique
secondaire. La rplication de donnes assure la haute disponibilit et la tolrance de sinistre de
votre cluster.
Le logiciel Oracle Solaris Cluster prend en charge les mthodes de rplication de donnes
suivantes :

Entre clusters - Utiliser Oracle Solaris Cluster Geographic Edition pour la reprise sur
sinistre

Dans un cluster - Utiliser cette mthode en tant qu'alternative la mise en miroir base sur
les htes dans un cluster de campus.

Pour effectuer la rplication de donnes, vous devez disposer d'un groupe de priphriques dont
le nom est identique celui de l'objet que vous rpliquez. Un priphrique ne peut appartenir
qu' un seul groupe de priphriques la fois. Ainsi, s'il appartient dj un groupe de
priphriques Oracle Solaris Cluster, vous devez le supprimer avant de l'ajouter un nouveau
groupe de priphriques. Pour obtenir des instructions sur la cration et la gestion de Solaris
Volume Manager, Veritas Volume Manager, ZFS ou les groupes de priphriques de disque
brut, reportez-vous la section Administration de groupes de priphriques la page 123 du
chapitre 5.
Avant de slectionner la mthode de rplication de donnes la mieux adapte votre cluster,
vous devez vous familiariser avec les deux mthodes de rplication (base sur les htes et base
sur le stockage). Pour de plus amples informations sur l'utilisation d'Oracle Solaris Cluster
Geographic Edition pour grer la rplication de donnes dans le cadre de la reprise sur sinistre,
reportez-vous la section Oracle Solaris Cluster Geographic Edition Overview.
Ce chapitre contient les sections suivantes :

Prsentation de la rplication de donnes la page 86


85

Prsentation de la rplication de donnes

Utilisation de la rplication de donnes base sur le stockage dans un cluster la page 88

Prsentation de la rplication de donnes


Oracle Solaris Cluster prend en charge les mthodes de rplication de donnes suivantes :

La rplication de donnes utilise le logiciel pour rpliquer les volumes de disque en temps
rel entre les clusters loigns gographiquement. La rplication distante permet de
rpliquer les donnes partir du volume principal du cluster principal sur le volume
principal du cluster secondaire loign gographiquement. Un bitmap miroir distant
rpertorie les diffrences entre les volumes principaux du disque principal et du disque
secondaire. Sun StorageTek Availability Suite 4 fait partie des logiciels utiliss pour la
rplication entre les clusters (et entre les clusters et un hte ne se trouvant pas dans un
cluster).
La rplication de donnes base sur les htes est une solution moins onreuse, car elle utilise
les ressources des htes, plutt que des baies de stockage spcifiques. Les bases de donnes,
les applications ou les systmes de fichiers qui sont configurs pour permettre plusieurs
htes excutant le SE Oracle Solaris d'crire des donnes sur un volume partag ne sont pas
pris en charge (Oracle 9iRAC et Oracle Parallel Server, par exemple). Pour plus
d'informations sur l'utilisation de la rplication de donnes base sur les htes entre deux
clusters, consultez le Oracle Solaris Cluster Geographic Edition Data Replication Guide for
Sun StorageTek Availability Suite. Pour un exemple de rplication base sur les htes
n'utilisant pas Oracle Solaris Cluster Geographic Edition, reportez-vous l'annexe A,
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun
StorageTek Availability Suite la page 371.

La rplication de donnes base sur le stockage utilise le logiciel prsent sur le contrleur de
stockage pour dplacer le processus de rplication de donnes des nuds de cluster vers le
priphrique de stockage. Ce logiciel libre de la puissance de traitement de nud pour les
requtes du cluster. Hitachi TrueCopy, Hitachi Universal Replicator et EMC SRDF font
partie des logiciels bass sur le stockage qui peuvent rpliquer les donnes dans un cluster ou
entre clusters. La rplication de donnes base sur le stockage est particulirement utile dans
les configurations de cluster de campus et peut simplifier l'infrastructure requise. Pour de
plus amples informations sur l'utilisation de la rplication de donnes dans un
environnement de cluster de campus, reportez-vous la section Utilisation de la
rplication de donnes base sur le stockage dans un cluster la page 88.
Pour de plus amples informations sur l'utilisation de la rplication base sur le stockage
entre deux clusters au minimum, et sur le produit Oracle Solaris Cluster Geographic Edition
qui automatise le processus, consultez les documents Oracle Solaris Cluster Geographic
Edition Data Replication Guide for Hitachi TrueCopy and Universal Replicator et Oracle
Solaris Cluster Geographic Edition Data Replication Guide for EMC Symmetrix Remote Data
Facility. Voir aussi l'annexe A, Configuration de la rplication de donnes base sur les
htes l'aide du logiciel Sun StorageTek Availability Suite la page 371 qui contient un
exemple complet de ce type de configuration de cluster.

86

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de la rplication de donnes

Mthodes de rplication de donnes prises en charge


Le logiciel Oracle Solaris Cluster prend en charge les mthodes suivantes de rplication de
donnes entre clusters ou dans un cluster.
1. Rplication entre clusters - Dans le cadre de la reprise sur sinistre, vous pouvez utiliser la
rplication base sur les htes ou base sur le stockage afin de rpliquer des donnes entre
clusters. Gnralement, vous choisissez l'un ou l'autre type, mais pas une combinaison des
deux. Le logiciel Oracle Solaris Cluster Geographic Edition permet de grer les deux types
de rplication.

Rplication base sur les htes

Sun StorageTek Availability Suite, partir du SE Oracle Solaris 10

Si vous souhaitez utiliser la rplication base sur les htes sans le logiciel Oracle Solaris
Cluster Geographic Edition, consultez les instructions de l'Annexe A, exemple,
Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun
StorageTek Availability Suite la page 371.

Rplication base sur le stockage

Hitachi TrueCopy et Hitachi Universal Replicator, par le biais d'Oracle Solaris


Cluster Geographic Edition

EMC Symmetrix Remote Data Facility (SRDF), par le biais dOracle Solaris Cluster
Geographic Edition

Si vous souhaitez utiliser la rplication base sur le stockage sans le logiciel Oracle Solaris
Cluster Geographic Edition, consultez la documentation de votre logiciel de rplication.
2. Rplication dans un cluster - Cette mthode constitue une alternative la mise en miroir
base sur les htes.

Rplication base sur le stockage

Hitachi TrueCopy et Hitachi Universal Replicator


EMC Symmetrix Remote Data Facility (SRDF)

3. Rplication base sur une application - Oracle Data Guard est un exemple de logiciel de
rplication base sur une application. Ce type de logiciel est utilis uniquement pour la
reprise sur sinistre. Pour plus d'informations, reportez-vous au Oracle Solaris Cluster
Geographic Edition Data Replication Guide for Oracle Data Guard.

Chapitre 4 Mthodes de rplication de donnes

87

Utilisation de la rplication de donnes base sur le stockage dans un cluster

Utilisation de la rplication de donnes base sur le stockage


dans un cluster
La rplication de donnes base sur le stockage utilise le logiciel install sur le priphrique de
stockage pour grer la rplication dans un cluster ou un cluster de campus. Un logiciel de ce
type est spcifique votre priphrique de stockage et n'est pas utilis pour la reprise sur
sinistre. Lors de la configuration de la rplication de donnes base sur le stockage,
reportez-vous la documentation qui accompagne votre priphrique de stockage .
En fonction du logiciel utilis, vous pouvez utiliser le basculement automatique ou manuel pour
ce type de rplication. Oracle Solaris Cluster prend en charge les deux types de basculement des
copies avec les logiciels Hitachi TrueCopy, Hitachi Universal Replicator et EMC SRDF.
Cette section dcrit la rplication de donnes base sur le stockage telle qu'utilise dans un
cluster de campus. La Figure 41 illustre un exemple de configuration deux pices o les
donnes sont rpliques entre deux baies de stockage. Dans cette configuration, la baie de
stockage principale se trouve dans la premire pice, o elle fournit les donnes aux nuds des
deux pices. Elle fournit galement la baie de stockage principale les donnes rpliquer.
Remarque La Figure 41 indique que le priphrique de quorum se trouve sur un volume non
rpliqu. Un volume rpliqu ne peut pas tre utilis en tant que priphrique de quorum.

88

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Utilisation de la rplication de donnes base sur le stockage dans un cluster

FIGURE 41

Configuration deux pices avec la rplication de donnes base sur le stockage


Configuration initiale
Salle 1

Configuration rcupre

Salle 2

Room 1

Room 2

Serveur

Serveur

Serveur

Commutateur
FC

Commutateur
FC
..
..
.

Commutateur
FC
..
..
.

Commutateur
FC

Priphrique
de stockage
principal

Priphrique
de stockage
secondaire

Priphrique
de stockage
secondaire

Priphrique
de stockage
principal

..
..
.

..
..
.

Commutateur
FC

Commutateur
FC

Priphrique
de quorum
Commutateur
FC

Serveur

Priphrique
de quorum
Commutateur
FC

Fibre monomodale
Fibre multimodale
.
..
..
..

Un lien physique est prsent, mais utilis uniquement lors d'une commutation manuelle

En fonction du type d'application utilis, la rplication de donnes base sur le stockage avec
Hitachi TrueCopy ou Hitachi Universal Replicator peut tre effectue de manire synchrone ou
asynchrone dans l'environnement Oracle Solaris Cluster. Si vous souhaitez effectuer un
basculement automatique dans un cluster de campus, utilisez TrueCopy de manire synchrone.
La rplication synchrone base sur le stockage avec EMC SRDF est prise en charge avec Oracle
Solaris Cluster ; la rplication asynchrone n'est pas prise en charge pour EMC SRDF.
N'utilisez pas les modes Domino ou Adaptive Copy d'EMC SRDF. Le mode Domino rend les
volumes SRDF local et cible indisponibles pour l'hte lorsque la cible est indisponible. Le mode
Adaptive Copy est gnralement utilis pour les migrations de donnes et les dplacements du
centre de donnes et n'est pas recommand pour la reprise sur sinistre.
N'utilisez pas les modes Data ou Status dans Hitachi TrueCopy ou Hitachi Universal Replicator.
En cas de dfaillance du priphrique de stockage secondaire, des problmes d'criture sont
susceptibles de se produire sur le priphrique de stockage principal.
Chapitre 4 Mthodes de rplication de donnes

89

Utilisation de la rplication de donnes base sur le stockage dans un cluster

Configuration requise et restrictions applicables lors


de l'utilisation de la rplication de donnes base sur
le stockage dans un cluster
Pour assurer l'intgrit des donnes, utilisez le multiacheminement et le package RAID
appropri. La liste suivante rpertorie les considrations prendre en compte lors de la mise en
uvre d'une configuration de cluster qui utilise la rplication de donnes base sur le stockage.

La distance de nud nud est limite par la structure Fibre Channel et d'interconnexion
de Oracle Solaris Cluster. Pour de plus amples informations sur les limitations actuelles et
les technologies prises en charge, contactez votre fournisseur de services Oracle.

Ne configurez pas un volume rpliqu en tant que priphrique de quorum. Identifiez tous
les priphriques de quorum sur un volume partag non rpliqu ou utilisez le serveur de
quorum.

Assurez-vous que seule la copie principale des donnes est visible pour les nuds de cluster.
Dans le cas contraire, le gestionnaire de volumes peut essayer d'accder simultanment aux
copies principale et secondaire des donnes. Reportez-vous la documentation fournie avec
votre baie de stockage pour obtenir des informations sur le contrle de la visibilit de vos
copies de donnes.

EMC SRDF, Hitachi TrueCopy et Hitachi Universal Replicator permettent l'utilisateur de


dfinir des groupes de priphriques rpliqus. Chaque groupe de priphriques de
rplication doit tre associ un groupe de priphriques Oracle Solaris Cluster au nom
identique.

Certaines donnes spcifiques une application peuvent ne pas tre adaptes la rplication
asynchrone. En fonction du comportement de votre application, dterminez la meilleure
mthode de rplication de ce type de donnes sur les priphriques de stockage.

Si vous configurez le cluster en vue d'un basculement automatique, utilisez la rplication


synchrone.
Pour obtenir des instructions sur la configuration du cluster en vue du basculement
automatique des volumes rpliqus, reportez-vous la section Administration de
priphriques rpliqus et bass sur le stockage la page 97.

90

Lors de la rplication dans un cluster, Oracle Real Application Clusters (RAC) n'est pas prise
en charge avec SRDF, Hitachi TrueCopy et Hitachi Universal Replicator. Les nuds
connects aux rpliques qui ne sont pas actuellement les rpliques principales ne
disposeront pas d'un accs en criture. Les applications volutives qui requirent un accs
en criture direct partir de tous les nuds du cluster ne peuvent tre prises en charge avec
les priphriques rpliqus.

Veritas Cluster Volume Manager (CVM) et Solaris Volume Manager multipropritaire


pour le logiciel Oracle Solaris Cluster ne sont pas pris en charge.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Utilisation de la rplication de donnes base sur le stockage dans un cluster

N'utilisez pas le mode Domino ou Adaptive Copy dans EMC SRDF. Pour de plus amples
informations, reportez-vous la section Utilisation de la rplication de donnes base sur
le stockage dans un cluster la page 88.

N'utilisez pas le mode Data ou Status dans Hitachi TrueCopy ou Hitachi Universal
Replicator. Pour de plus amples informations, reportez-vous la section Utilisation de la
rplication de donnes base sur le stockage dans un cluster la page 88.

Considrations prendre en compte concernant la


rcupration manuelle lors de l'utilisation de la
rplication de donnes base sur le stockage dans un
cluster
A l'instar de tous les clusters de campus, les clusters qui utilisent la rplication de donnes base
sur le stockage ne requirent pas d'intervention en cas de dfaillance unique. Toutefois, si vous
utilisez le basculement manuel et perdez la pice qui contient votre priphrique de stockage
principal (comme illustr dans la Figure 41), des problmes surviennent dans un cluster
deux nuds. Le nud restant ne peut pas rserver le priphrique de quorum ni dmarrer en
tant qu'lment du cluster. Dans ce cas, le cluster ncessite l'intervention manuelle suivante :
1. Votre fournisseur de services Oracle doit reconfigurer le nud restant de faon ce qu'il
dmarre en tant qu'lment du cluster.
2. Votre fournisseur de services Oracle ou vous-mme devez configurer un volume non
rpliqu de votre priphrique de stockage secondaire en tant que priphrique de quorum.
3. Votre fournisseur de services Oracle ou vous-mme devez configurer le nud restant de
sorte utiliser le priphrique de stockage secondaire en tant que priphrique de stockage
principal. Cette reconfiguration peut ncessiter la reconstruction des volumes du
gestionnaire de volumes, la restauration des donnes ou la modification des associations de
l'application avec les volumes de stockage.

Chapitre 4 Mthodes de rplication de donnes

91

Utilisation de la rplication de donnes base sur le stockage dans un cluster

Pratiques recommandes lors de l'utilisation de la


rplication de donnes base sur le stockage
Lors de la configuration de groupes de priphriques utilisant Hitachi TrueCopy ou le logiciel
Hitachi Universal Replicator pour la rplication de donnes bases sur le stockage, respectez les
points suivants :

Utilisez la rplication synchrone pour viter la perte de donnes susceptible de se produire


en cas de dfaillance du site principal.

Une relation de type un un doit exister entre le groupe de priphriques global Oracle
Solaris Cluster et le groupe de rplication TrueCopy dfinis dans le fichier de configuration
horcm. Cela permet aux deux groupes de passer d'un nud un autre en tant qu'unit
unique.

Les volumes du systme de fichiers global et les volumes du systme de fichiers de


basculement ne peuvent faire partie du mme groupe de priphriques rpliqu car ils sont
soumis un type de contrle diffrent. Les systmes de fichiers globaux sont contrls par
un systme DCS (Device Configuration System, systme de configuration de priphrique).
Les volumes de systmes de fichiers de basculement, quant eux, sont contrls par HAS+.
Pour chaque type de systme, le nud principal peut tre un nud diffrent, ce qui peut
entraner des conflits quant au nud devant jouer le rle de nud principal de rplication.

Toutes les instances de gestionnaire RAID doivent tre en cours d'excution tout moment.

Lors de l'utilisation du logiciel EMC SRDF pour la rplication de donnes base sur le stockage,
utilisez des priphriques dynamiques plutt que statiques. Les priphriques statiques peuvent
ncessiter plusieurs minutes pour changer le nud principal de rplication et affecter ainsi la
dure de basculement.

92

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

C H A P I T R E

Administration des priphriques globaux, du


contrle de chemin de disque et des systmes
de fichiers du cluster

Ce chapitre contient des informations et des procdures concernant l'administration des


priphriques globaux, du contrle de chemin de disque et des systmes de fichiers du cluster.

Prsentation de l'administration des priphriques globaux et de l'espace de noms global


la page 93
Administration de priphriques rpliqus et bass sur le stockage la page 97
Prsentation de l'administration des systmes de fichiers de cluster la page 121
Administration de groupes de priphriques la page 123
Administration des paramtres du protocole SCSI pour les priphriques de stockage
la page 168
Administration des systmes de fichiers du cluster la page 173
Administration du contrle de chemin de disque la page 180

Le Tableau 54 dtaille les procdures dcrites dans le prsent chapitre.


Pour obtenir des informations conceptuelles relatives aux priphriques globaux, l'espace de
noms global, les groupes de priphriques, le contrle de chemin de disque et le systme de
fichiers du cluster, reportez-vous au Oracle Solaris Cluster Concepts Guide.

Prsentation de l'administration des priphriques globaux


et de l'espace de noms global
L'administration des groupes de priphriques Oracle Solaris Cluster est fonction du
gestionnaire de volumes install sur le cluster. Solaris Volume Manager est compatible avec les
clusters. Par consquent, vous ajoutez, enregistrez et supprimez les groupes de priphriques
l'aide de la commande metaset(1M) de Solaris Volume Manager. Si vous utilisez Veritas
Volume Manager (VxVM), vous crez des groupes de disques l'aide des commandes VxVM.
L'utilitaire clsetup permet d'enregistrer les groupes de disques en tant que groupes de
priphriques Oracle Solaris Cluster. Pour supprimer des groupes de priphriques VxVM,
utilisez la commande clsetup et les commandes VxVM.
93

Prsentation de l'administration des priphriques globaux et de l'espace de noms global

Remarque Les priphriques globaux ne sont pas directement accessibles depuis des nuds
non votants de cluster global.

Le logiciel Oracle Solaris Cluster cre automatiquement un groupe de priphriques de disque


brut pour chaque priphrique de disque et priphrique bande du cluster. Toutefois, les
groupes de priphriques du cluster restent en tat hors ligne jusqu' ce que vous y accdiez en
tant que priphriques globaux. Pour administrer un groupe de priphriques ou un groupe de
disques du gestionnaire de volumes, vous devez vous placer sur le nud de cluster
correspondant au nud principal du groupe.
Gnralement, il n'est pas ncessaire d'administrer l'espace de noms du priphrique global.
L'espace de noms global est automatiquement configur lors de l'installation et mis jour
automatiquement lors du redmarrage du SE Oracle Solaris. Cependant, si l'espace de noms
global doit tre mis jour, vous pouvez excuter la commande cldevice populate partir d'un
nud quelconque du cluster. Cette commande entrane la mise jour de l'espace de noms
global sur tous les autres nuds existants et futurs du cluster.

Permissions du priphrique global pour Solaris


Volume Manager
Les modifications que vous apportez aux permissions du priphrique global ne sont pas
automatiquement propages tous les nuds du cluster pour les priphriques de disque et
Solaris Volume Manager. Pour modifier les permissions sur les priphriques globaux, vous
devez modifier les permissions sur tous les nuds du cluster manuellement. Par exemple, pour
remplacer les permissions sur le priphrique global /dev/global/dsk/d3s0 par 644, vous
devez excuter la commande suivante sur tous les nuds du cluster :
# chmod 644 /dev/global/dsk/d3s0
VxVM ne prend pas en charge la commande chmod. Pour modifier les permissions du
priphrique global dans VxVM, consultez le guide de l'administrateur correspondant.

Reconfiguration dynamique avec les priphriques


globaux
Gardez l'esprit les problmes suivants lorsque vous effectuez des oprations de
reconfiguration dynamique (DR, dynamic reconfiguration) sur les priphriques de disque et
les priphriques bande du cluster.
94

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration des priphriques globaux et de l'espace de noms global

Toutes les conditions requises, procdures et restrictions dcrites pour la reconfiguration


dynamique d'Oracle Solaris s'appliquent galement la prise en charge de cette fonction
dans Oracle Solaris Cluster. L'opration de quiescence du systme d'exploitation reste la
seule et unique exception. Par consquent, reportez-vous la documentation de la fonction
de reconfiguration dynamique d'Oracle Solaris avant d'utiliser cette fonction avec Oracle
Solaris Cluster. Vous devez vous concentrer tout particulirement sur les problmes
affectant les priphriques d'E/S se trouvant en dehors du rseau, lors de la phase de
sparation de la reconfiguration dynamique.

Oracle Solaris Cluster rejette les oprations de suppression de carte DR sur les priphriques
actifs rsidant sur le nud principal. Vous pouvez excuter les oprations DR sur les
priphriques inactifs au niveau du nud principal et sur tous les priphriques au niveau
des nuds secondaires.

L'accs aux donnes du cluster continue alors comme avant l'opration DR.

Oracle Solaris Cluster rejette les oprations DR ayant une incidence sur la disponibilit des
priphriques de quorum. Pour plus d'informations, reportez-vous la section
Reconfiguration dynamique avec les priphriques de quorum la page 191.

Attention La dfaillance du nud principal au cours de l'opration DR sur un nud secondaire

influence la disponibilit du cluster. Le nud principal n'a nulle part o basculer tant que vous
ne fournissez pas un nouveau nud secondaire.
Pour excuter des oprations DR sur les priphriques globaux, suivez les tapes ci-dessous
dans l'ordre indiqu.
Liste des tches : reconfiguration dynamique avec les priphriques de disque et les
priphriques bande

TABLEAU 51

Tche

Instructions

1. Si vous devez excuter une opration DR Changement du nud principal d'un groupe de priphriques
au niveau du nud principal, qui aura une la page 165
incidence sur un groupe de priphriques
actifs, changez les nuds principal et
secondaire avant d'excuter l'opration de
suppression DR sur le priphrique.
2. Excutez l'opration de suppression DR
sur le priphrique en cours de
suppression.

Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual


de la collection Solaris 10 on Sun Hardware.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

95

Prsentation de l'administration des priphriques globaux et de l'espace de noms global

Considrations d'administration Veritas Volume


Manager

Pour que le logiciel Oracle Solaris Cluster conserve l'espace de noms VxVM, vous devez
enregistrer les modifications de volume ou de groupe de disques VxVM en tant que
modifications de configuration de groupe de priphriques Oracle Solaris Cluster.
L'enregistrement de ces modifications garantit la mise jour de l'espace de noms sur
l'ensemble des nuds du cluster. L'ajout, la suppression ou le renommage d'un volume
constituent des modifications de configuration ayant une incidence sur l'espace de noms.
Modifier l'ID de groupe, le propritaire ou les permissions du volume influe galement sur
l'espace de noms.
Remarque N'importez ni ne retirez jamais des groupes de disques VxVM l'aide des

commandes VxVM aprs l'enregistrement du groupe de disques avec le cluster en tant que
groupe de priphriques Oracle Solaris Cluster. Le logiciel Oracle Solaris Cluster gre tous
les cas d'importation ou de retrait des groupes de disques.

96

Chaque groupe de disques VxVM doit possder un code mineur unique l'chelle du
cluster. Par dfaut, lors de la cration d'un groupe de disques, VxVM lui attribue un nombre
multiple de 1000 alatoire comme code mineur de base. Dans la plupart des configurations
dotes d'un nombre de groupes de disques rduit, le code mineur suffit garantir l'unicit.
En revanche, un conflit peut se prsenter entre le code mineur d'un nouveau groupe de
disques et celui d'un groupe de disques existant, import sur un autre nud. Dans ce cas, la
tentative d'enregistrement du groupe de priphriques Oracle Solaris Cluster choue. La
solution consiste attribuer au nouveau groupe de disques un nouveau code mineur
unique, puis l'enregistrer en tant que groupe de priphriques Oracle Solaris Cluster.

Dans le cadre de la configuration d'un volume mis en miroir, vous pouvez rduire la dure
de reprise du volume aprs la dfaillance d'un nud l'aide du journal des zones modifies
(DRL, Dirty Region Logging). Il est vivement conseill d'utiliser le DRL malgr le risque de
rduction de la capacit de traitement d'E/S.

VxVM ne prend pas en charge la commande chmod. Pour modifier les permissions du
priphrique global dans VxVM, consultez le guide de l'administrateur correspondant.

Le logiciel Oracle Solaris Cluster 3.3 ne prend pas en charge la gestion DMP (Dynamic
Multipathing, multiacheminement dynamique) VxVM de plusieurs chemins partir du
mme nud.

Si vous configurez des groupes de disques partags pour Oracle RAC l'aide de VxVM,
utilisez la fonction de cluster de VxVM comme dcrit dans le Veritas Volume Manager
Administrator's Reference Guide. La cration des groupes de disques pour Oracle RAC est
diffrente. Vous devez importer les groupes de disques partags Oracle RAC l'aide de la
commande vxdg -s. Vous n'enregistrez pas les groupes de disques partags Oracle RAC

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de priphriques rpliqus et bass sur le stockage

avec la structure du cluster. Pour crer des groupes de disques VxVM, reportez-vous la
section Cration d'un groupe de disques lors de l'initialisation des disques (Veritas Volume
Manager) la page 136.

Administration de priphriques rpliqus et bass sur le


stockage
Vous pouvez configurer un groupe de priphriques Oracle Solaris Cluster dont les
priphriques seront rpliqus l'aide de la rplication base sur le stockage. Oracle Solaris
Cluster prend en charge les logiciels de rplication base sur le stockage Hitachi TrueCopy et
EMC Symmetrix Remote Data Facility.
Avant de rpliquer des donnes avec les logiciels Hitachi TrueCopy et EMC Symmetrix Remote
Data Facility, familiarisez-vous avec la documentation sur la rplication base sur le stockage et
installez sur votre systme le logiciel de rplication base sur le stockage ainsi que les patchs les
plus rcents. Pour plus d'informations sur l'installation de logiciels de rplication base sur le
stockage, consultez la documentation produit.
Le logiciel de rplication base sur le stockage configure deux priphriques en tant que
rpliques (l'un en tant que rplique principale, l'autre en tant que rplique secondaire). tout
moment, le priphrique connect un jeu de nuds fait office de rplique principale, tandis
que le priphrique connect l'autre jeu de nuds de rplique secondaire.
Dans une configuration Oracle Solaris Cluster, la rplique principale suit automatiquement les
dplacements du groupe de priphriques Oracle Solaris Cluster auquel elle appartient. Ainsi,
vous ne devez jamais dplacer la rplique principale directement dans une configuration Oracle
Solaris Cluster. La reprise doit plutt s'oprer par dplacement du groupe de priphriques
Oracle Solaris Cluster associ.
Attention Le nom du groupe de priphriques Oracle Solaris Cluster que vous crez (Solaris
Volume Manager, Veritas Volume Manager ou disque brut) doit tre identique celui du
groupe de priphriques rpliqu.

Cette section contient les procdures suivantes :

Administration de priphriques rpliqus Hitachi TrueCopy la page 98


Administration de priphriques rpliqus EMC Symmetrix Remote Data Facility
la page 109

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

97

Administration de priphriques rpliqus et bass sur le stockage

Administration de priphriques rpliqus Hitachi


TrueCopy
Le tableau suivant numre les tches accomplir pour configurer un priphrique rpliqu
bas sur le stockage.
TABLEAU 52

Liste des tches : administration d'un priphrique de rplique base sur le stockage Hitachi

TrueCopy
Tche

Instructions

Installez le logiciel TrueCopy sur vos nuds et votre


priphrique de stockage.

Consultez la documentation livre avec votre


priphrique de stockage Hitachi.

Configurez le groupe de rplication Hitachi.

Configuration d'un groupe de rplication Hitachi


TrueCopy la page 98

Configurez le priphrique DID.

Configuration de la rplication de priphriques DID


l'aide de Hitachi TrueCopy la page 100

Enregistrez le groupe rpliqu.

Ajout et enregistrement de groupes de priphriques


(Solaris Volume Manager) la page 132 ou
Enregistrement d'un groupe de disques en tant que
groupe de priphriques (Veritas Volume Manager)
la page 145

Vrifiez la configuration.

Vrification de la configuration d'un groupe de


priphriques global rpliqu Hitachi TrueCopy
la page 102

Configuration d'un groupe de rplication Hitachi TrueCopy


Avant de
commencer

En premier lieu, configurez les groupes de priphriques Hitachi TrueCopy sur des disques
partags du cluster principal. Ces informations de configuration sont indiques dans le fichier
/etc/horcm.conf sur chaque nud du cluster ayant accs la baie Hitachi. Pour plus
d'informations sur la configuration du fichier /etc/horcm.conf, consultez le Sun StorEdge SE
9900 V Series Command and Control Interface User and Reference Guide.
Attention Le nom du groupe de priphriques Oracle Solaris Cluster que vous crez (Solaris
Volume Manager, Veritas Volume Manager, ZFS ou disque brut) doit tre identique celui du
groupe de priphriques rpliqu.

98

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur tous les nuds connects la baie de
stockage.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de priphriques rpliqus et bass sur le stockage

Ajoutez l'entre horcm au fichier /etc/services.


horcm 9970/udp

Prcisez le numro de port et le nom de protocole de la nouvelle entre.


3

Spcifiez les informations de configuration de groupe de priphriques Hitachi TrueCopy dans


le fichier /etc/horcm.conf.
La documentation livre avec le logiciel TrueCopy contient les instructions auxquelles vous
reporter.

Dmarrez le dmon CCI TrueCopy en excutant la commande horcmstart.sh sur tous les
nuds.
# /usr/bin/horcmstart.sh

Crez les paires de rpliques, si ce n'est dj fait.


Pour crer les paires de rpliques du niveau de clture souhait, faites appel la commande
paircreate. La documentation TrueCopy contient les instructions relatives la cration des
paires de rpliques.

Sur chacun des nuds configurs avec des priphriques rpliqus, vrifiez que la
configuration de la rplication des donnes est correcte l'aide de la commande pairdisplay.
Un groupe de priphriques Hitachi TrueCopy ou Hitachi Universal Replicator d'un niveau de
clture ASYNC ne peut partager son ctgid avec aucun autre groupe de priphriques du
systme.
# pairdisplay -g group-name
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -

Vrifiez que tous les nuds peuvent administrer les groupes de rplication.
a. l'aide de la commande pairdisplay, choisissez les deux nuds devant hberger la
rplique principale et la rplique secondaire respectivement.
# pairdisplay -g group-name
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -

Le nud dot du priphrique local (L) dans l'tat P-VOL contient la rplique principale,
tandis que le nud dot du priphrique local (L) dans l'tat S-VOL contient la rplique
secondaire.
b. Excutez la commande horctakeover sur le nud contenant la rplique secondaire pour
faire du nud secondaire le matre.
# horctakeover -g group-name

Attendez la fin de la copie des donnes d'origine avant de passer l'tape suivante.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

99

Administration de priphriques rpliqus et bass sur le stockage

c. Vrifiez que le priphrique local (L) sur le nud ayant excut la commande horctakeover
est prsent dans l'tat P-VOL.
# pairdisplay -g group-name
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
group-name pair1(L) (CL1-C , 0, 9) 54321 58..S-VOL PAIR NEVER ,12345 29 group-name pair1(R) (CL1-A , 0, 29)12345 29..P-VOL PAIR NEVER ,----- 58 -

d. Excutez la commande horctakeover sur le nud qui contenait la rplique principale


initialement.
# horctakeover -g group-name

e. l'aide de la commande pairdisplay, vrifiez que la configuration d'origine du nud


principal est rtablie.
# pairdisplay -g group-name
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 tapes suivantes

Poursuivez la configuration de votre priphrique rpliqu d'aprs les instructions dcrites dans
la section Configuration de la rplication de priphriques DID l'aide de Hitachi TrueCopy
la page 100.

Configuration de la rplication de priphriques DID l'aide de Hitachi

TrueCopy
Avant de
commencer

Aprs avoir configur un groupe de priphriques pour votre priphrique rpliqu, vous devez
configurer le pilote DID (device identifier, identificateur de priphrique) que ce dernier utilise.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Vrifiez que le dmon horcmd est excut sur tous les nuds.
La commande suivante lance le dmon s'il n'est pas en cours d'excution. En cas contraire, un
message s'affiche.
# /usr/bin/horcmstart.sh

l'aide de la commande pairdisplay, choisissez le nud qui hberge la rplique secondaire.


# pairdisplay -g group-name
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M

100

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de priphriques rpliqus et bass sur le stockage

group-name pair1(L) (CL1-C , 0, 9) 54321


group-name pair1(R) (CL1-A , 0, 29)12345

58..P-VOL PAIR NEVER ,12345 29


29..S-VOL PAIR NEVER ,----- 58

Le nud dot du priphrique local (L) dans l'tat S-VOL contient la rplique secondaire.
4

Sur le nud contenant la rplique secondaire (dtermin au cours de l'tape prcdente),


configurez les priphriques DID utiliser avec la rplication base sur le stockage.
Cette commande combine les deux instances DID des paires de rpliques de priphrique en
une seule et unique instance DID logique. Grce cette instance unique, le logiciel de gestion de
volumes peut utiliser le priphrique des deux cts.
Attention Si plusieurs nuds sont connects la rplique secondaire, excutez cette commande

sur l'un d'eux uniquement.


# cldevice replicate -D primary-replica-nodename -S secondary replica-nodename

primary-replica-nodename
Spcifie le nom du nud distant qui contient la rplique principale.
-S
Spcifie un nud source, autre que le nud actuel.
secondary replica-nodename
Spcifie le nom du nud distant qui contient la rplique secondaire.
Remarque Par dfaut, le nud actuel est le nud source. Pour en spcifier un autre, utilisez

l'option -S.
5

Vrifiez que les instances DID ont t combines.


# cldevice list -v logical_DID_device

Vrifiez que la rplication TrueCopy est dfinie.


# cldevice show logical_DID_device

La sortie de commande doit indiquer que la rplication est de type TrueCopy.


7

Si la reconfiguration DID n'a pas russi combiner tous les priphriques rpliqus, combinez
manuellement ceux qui ne l'ont pas t.
Attention Procdez la combinaison manuelle des instances DID avec grande prcaution. Une

reconfiguration de priphrique inadquate risque d'endommager des donnes.


a. Excutez la commande cldevice combine sur tous les nuds qui contiennent la rplique
secondaire.
# cldevice combine -d destination-instance source-instance
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

101

Administration de priphriques rpliqus et bass sur le stockage

-d
Instance DID distante qui correspond la rplique principale.
destination-instance
source-instance

Instance DID locale qui correspond la rplique secondaire.

b. Vrifiez que la reconfiguration DID a russi.


# cldevice list desination-instance source-instance

Une des instances DID ne doit pas apparatre dans la liste.


8

Sur tous les nuds, vrifiez que les priphriques DID pour toutes les instances DID combines
sont accessibles.
# cldevice list -v

tapes suivantes

Pour terminer la configuration de votre groupe de priphriques rpliqus, procdez comme


suit, tape par tape.

Ajout et enregistrement de groupes de priphriques (Solaris Volume Manager)


la page 132 ou Enregistrement d'un groupe de disques en tant que groupe de
priphriques (Veritas Volume Manager) la page 145
Lors de l'enregistrement du groupe de priphriques, veillez lui attribuer le nom du groupe
de rplication TrueCopy.

Vrification de la configuration d'un groupe de priphriques global rpliqu Hitachi


TrueCopy la page 102

Vrification de la configuration d'un groupe de priphriques global

rpliqu Hitachi TrueCopy


Avant de
commencer

Vous devez crer le groupe de priphriques global avant de pouvoir le vrifier. Vous pouvez
utiliser des groupes de priphriques du type Solaris Volume Manager, Veritas Volume
Manager, ZFS ou disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :

Ajout et enregistrement de groupes de priphriques (Solaris Volume Manager)


la page 132
Ajout et enregistrement d'un groupe de priphriques (disque brut) la page 134
Ajout et enregistrement d'un groupe de priphriques rpliqu (ZFS) la page 135
Cration d'un groupe de disques lors de l'initialisation des disques (Veritas Volume
Manager) la page 136

Attention Le nom du groupe de priphriques Oracle Solaris Cluster que vous avez cr (Solaris

Volume Manager, Veritas Volume Manager ou disque brut) doit tre identique celui du
groupe de priphriques rpliqu.

102

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de priphriques rpliqus et bass sur le stockage

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Vrifiez que le groupe de priphriques principal correspond au nud qui contient la rplique
principale.
# pairdisplay -g group-name
# cldevicegroup status -n nodename group-name

Veillez ce que la proprit de rplication du groupe de priphriques soit dfinie.


# cldevicegroup show -n nodename group-name

Veillez ce que la proprit rplique du priphrique soit dfinie.


# usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]

Ralisez un essai de commutation afin de garantir que les groupes de priphriques sont
configurs correctement et que les rpliques peuvent passer d'un nud l'autre.
Si le groupe de priphriques est dconnect, mettez-le en ligne.
# cldevicegroup switch -n nodename group-name

-n nodename

Nud vers lequel le groupe de priphriques est commut. Ce nud devient


le nud principal.

Pour vrifier que la commutation a russi, comparez la sortie des commandes suivantes.
# pairdisplay -g group-name
# cldevicegroup status -n nodename group-name

Exemple : configuration d'un groupe de rplication TrueCopy pour


Oracle Solaris Cluster
Cet exemple reprsente la procdure spcifique Oracle Solaris Cluster que vous devez
effectuer pour configurer la rplication TrueCopy dans votre cluster. Il part du principe que
vous avez dj ralis les tches suivantes :

Configuration des LUN Hitachi ;

Installation du logiciel TrueCopy sur vos nuds de cluster et votre priphrique de


stockage ;

Configuration des paires de rplication sur vos nuds de cluster.


La section Configuration d'un groupe de rplication Hitachi TrueCopy la page 98
contient les instructions relatives la configuration des paires de rplication.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

103

Administration de priphriques rpliqus et bass sur le stockage

Le cluster trois nuds de cet exemple utilise TrueCopy. Il s'tend sur deux sites distants,
comportant un nud et deux nuds respectivement. Chaque site possde son propre
priphrique de stockage Hitachi.
Le fichier de configuration TrueCopy /etc/horcm.conf sur chaque nud est illustr dans les
exemples suivants.
EXEMPLE 51

HORCM_DEV
#dev_group
VG01
VG01
VG01
HORCM_INST
#dev_group
VG01
EXEMPLE 52

HORCM_DEV
#dev_group
VG01
VG01
VG01
HORCM_INST
#dev_group
VG01
EXEMPLE 53

HORCM_DEV
#dev_group
VG01
VG01
VG01
HORCM_INST
#dev_group
VG01
VG01

Fichier de configuration TrueCopy sur le nud 1


dev_name
pair1
pair2
pair3
ip_address
node-3

port#
CL1-A
CL1-A
CL1-A

TargetID
0
0
0

LU#
29
30
31

MU#

service
horcm

Fichier de configuration TrueCopy sur le nud 2


dev_name
pair1
pair2
pair3
ip_address
node-3

port#
CL1-A
CL1-A
CL1-A

TargetID
0
0
0

LU#
29
30
31

MU#

LU#
09
10
11

MU#

service
horcm

Fichier de configuration TrueCopy sur le nud 3


dev_name
pair1
pair2
pair3
ip_address
node-1
node-2

port#
CL1-C
CL1-C
CL1-C

TargetID
0
0
0

service
horcm
horcm

Dans les exemples prcdents, trois LUN sont rpliqus entre les deux sites. Ils se trouvent tous
dans le groupe de rplication nomm VG01. La commande pairdisplay vrifie ces
informations et indique que le nud 3 contient la rplique principale.
EXEMPLE 54

Sortie de la commande pairdisplay sur le nud 1

# pairdisplay -g VG01
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence,
VG01
pair1(L)
(CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER
VG01
pair1(R)
(CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER
VG01
pair2(L)
(CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER
VG01
pair2(R)
(CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER

104

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Seq#,P-LDEV#
,----58
,61114
29
,----59
,61114
30

M
-

Administration de priphriques rpliqus et bass sur le stockage

EXEMPLE 54

VG01
VG01

Sortie de la commande pairdisplay sur le nud 1

pair3(L)
pair3(R)

EXEMPLE 55

(CL1-A , 0, 31)61114
(CL1-C , 0, 11)20064

(Suite)

31..S-VOL PAIR NEVER ,----60..P-VOL PAIR NEVER ,61114

Sortie de la commande pairdisplay sur le nud 2

# pairdisplay -g VG01
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence,
VG01
pair1(L)
(CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER
VG01
pair1(R)
(CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER
VG01
pair2(L)
(CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER
VG01
pair2(R)
(CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER
VG01
pair3(L)
(CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER
VG01
pair3(R)
(CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER
EXEMPLE 56

60 31 -

Seq#,P-LDEV#
,----58
,61114
29
,----59
,61114
30
,----60
,61114
31

M
-

Seq#,P-LDEV#
,61114
29
,----58
,61114
30
,----59
,61114
31
,----60

M
-

Sortie de la commande pairdisplay sur le nud 3

# pairdisplay -g VG01
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence,
VG01
pair1(L)
(CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER
VG01
pair1(R)
(CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER
VG01
pair2(L)
(CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER
VG01
pair2(R)
(CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER
VG01
pair3(L)
(CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER
VG01
pair3(R)
(CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER

L'option -fd de la commande pairdisplay affiche les disques utiliss, comme illustr dans les
exemples suivants.
EXEMPLE 57

Sortie de la commande pairdisplay sur le nud 1, indiquant les disques utiliss

# pairdisplay -fd -g VG01


Group PairVol(L/R) Device_File
,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV#
VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----58
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114
29
VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----59
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064 59..P-VOL PAIR NEVER ,61114
30
VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----60
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114
31
EXEMPLE 58

M
-

Sortie de la commande pairdisplay sur le nud 2, indiquant les disques utiliss

# pairdisplay -fd -g VG01


Group PairVol(L/R) Device_File
,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV#
VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----58
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114
29
VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----59
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114
30
VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----60
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114
31

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

M
-

105

Administration de priphriques rpliqus et bass sur le stockage

EXEMPLE 59

Sortie de la commande pairdisplay sur le nud 3, indiquant les disques utiliss

# pairdisplay -fd -g VG01


Group PairVol(L/R) Device_File
,Seq#,LDEV#.P/S,Status,Fence
VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER
VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER
VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER
VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER
VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER
VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER

,Seq#,P-LDEV#
,61114
29
,----58
,61114
30
,----59
,61114
31
,----60

Dans ces exemples, les disques utiliss sont les suivants :

Sur le nud 1 :

Sur le nud 2 :

c6t500060E8000000000000EEBA0000001Dd0s2
c6t500060E8000000000000EEBA0000001Ed0s2
c6t500060E8000000000000EEBA0000001Fd0s
c5t500060E8000000000000EEBA0000001Dd0s2
c5t500060E8000000000000EEBA0000001Ed0s2
c5t500060E8000000000000EEBA0000001Fd0s2

Sur le nud 3 :

c5t50060E800000000000004E600000003Ad0s2
c5t50060E800000000000004E600000003Bd0s2
c5t50060E800000000000004E600000003Cd0s2

Pour afficher les priphriques DID correspondant ces disques, utilisez la commande
cldevice list, comme dcrit dans les exemples suivants.
EXEMPLE 510

Affichage des DID correspondant aux disques utiliss

# cldevice list -v
DID Device
---------1
2
11
11
12
12
13
13
14
14
18
19
20
21
22

106

Full Device Path


---------------node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2
node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18
node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19
node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de priphriques rpliqus et bass sur le stockage

EXEMPLE 510

23
24

Affichage des DID correspondant aux disques utiliss

(Suite)

node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

Lors de la combinaison des instances DID pour chaque paire de priphriques rpliqus, la
commande cldevice list doit combiner les instances 12 et 22, 13 et 23, et 14 et 24. Le nud 3
contenant la rplique principale, excutez la commande cldevice-T partir du nud 1 ou 2.
Vous devez toujours combiner les instances partir d'un nud contenant la rplique
secondaire. Excutez cette commande partir d'un seul et unique nud.
L'exemple suivant illustre la sortie lorsque les instances DID sont combines en excutant la
commande sur le nud 1.
EXEMPLE 511

Combinaison des instances DID

# cldevice replicate -D node-3


Remapping instances for devices replicated with node-3...
VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0
VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0
Combining instance 14 with 24
VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
Combining instance 13 with 23
VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
Combining instance 12 with 22

La sortie de la commande cldevice list indique que les LUN des deux sites possdent
prsent la mme instance DID. Ainsi, chaque paire de rpliques ressemble un priphrique
unique, comme illustr dans l'exemple suivant.
EXEMPLE 512

Affichage des DID combins

# cldevice
DID Device
---------1
2
11
11
18
19
20
21
22
22
22
23
23
23

list -v
Full Device Path
---------------node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2
node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0
node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0
node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18
node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19
node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0
node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0

/dev/did/rdsk/d11
/dev/did/rdsk/d11
/dev/did/rdsk/d20
/dev/did/rdsk/d21
/dev/did/rdsk/d1222
/dev/did/rdsk/d12
/dev/did/rdsk/d22
/dev/did/rdsk/d13
/dev/did/rdsk/d13
/dev/did/rdsk/d23

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

107

Administration de priphriques rpliqus et bass sur le stockage

EXEMPLE 512

24
24
24

Affichage des DID combins

(Suite)

node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

L'tape suivante consiste crer le groupe de priphriques gestionnaire de volumes. Excutez


cette commande partir du nud contenant la rplique principale (le nud 3, dans cet
exemple). Attribuez au groupe de priphriques le nom du groupe de rpliques, comme illustr
dans l'exemple suivant.
EXEMPLE 513

Cration du groupe de priphriques Solaris Volume Manager

# metaset -s VG01 -ah phys-deneb-3


# metaset -s VG01 -ah phys-deneb-1
# metaset -s VG01 -ah phys-deneb-2
# metaset -s VG01 -a /dev/did/rdsk/d22
# metaset -s VG01 -a /dev/did/rdsk/d23
# metaset -s VG01 -a /dev/did/rdsk/d24
# metaset
Set name = VG01, Set number = 1
Host
phys-deneb-3
phys-deneb-1
phys-deneb-2
Drive
d22
d23
d24

Owner
Yes

Dbase
Yes
Yes
Yes

ce stade, vous pouvez utiliser le groupe de priphriques, crer les mtapriphriques et


dplacer le groupe de priphriques sur l'un des trois nuds. Toutefois, l'efficacit des
commutations et des basculements peut tre amliore si vous excutez la commande
cldevicegroup set qui signale le groupe de priphriques comme tant rpliqu dans la
configuration du cluster.
EXEMPLE 514

Efficacit des commutations et des basculements

# cldevicegroup sync VG01


# cldevicegroup show VG01
=== Device Groups===
Device Group Name
Type:
failback:
Node List:
preferenced:
numsecondaries:
device names:
Replication type:
108

VG01
SVM
no
phys-deneb-3, phys-deneb-1, phys-deneb-2
yes
1
VG01
truecopy

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de priphriques rpliqus et bass sur le stockage

Cette tape met fin la configuration du groupe de rplication. Pour vrifier la russite de la
configuration, suivez la procdure dcrite la section Vrification de la configuration d'un
groupe de priphriques global rpliqu Hitachi TrueCopy la page 102.

Administration de priphriques rpliqus EMC


Symmetrix Remote Data Facility
Le tableau suivant numre les tches accomplir pour configurer et grer un priphrique
rpliqu bas sur le stockage Symmetrix Remote Data Facility (SRDF) d'EMC.
TABLEAU 53

Liste des tches : administration d'un priphrique rpliqu bas sur le stockage SRDF d'EMC

Tche

Instructions

Installez le logiciel SRDF sur vos nuds et votre


priphrique de stockage.

Consultez la documentation livre avec votre


priphrique de stockage EMC.

Configurez le groupe de rplication EMC.

Configuration d'un groupe de rplication EMC


SRDF la page 109

Configurez le priphrique DID.

Configuration de la rplication de priphriques DID


l'aide du logiciel EMC SRDF la page 111

Enregistrez le groupe rpliqu.

Ajout et enregistrement de groupes de priphriques


(Solaris Volume Manager) la page 132 ou
Enregistrement d'un groupe de disques en tant que
groupe de priphriques (Veritas Volume Manager)
la page 145

Vrifiez la configuration.

Vrification de la configuration d'un groupe de


priphriques global rpliqu EMC SRFD
la page 113

Rcuprez manuellement des donnes aprs la


dfaillance totale de la salle principale du cluster
campus.

Rcupration de donnes EMC SRDF aprs la


dfaillance totale de la salle principale la page 118

Configuration d'un groupe de rplication EMC SRDF


Avant de
commencer

Le logiciel EMC Solutions Enabler doit tre install sur tous les nuds du cluster pralablement
la configuration d'un groupe de rplication EMC Symmetrix Remote Data Facility (SRDF). En
premier lieu, configurez les groupes de priphriques EMC SRDF sur des disques partags du
cluster. Pour plus d'informations sur la configuration des groupes de priphriques EMC SRFD,
consultez la documentation du produit SRFD d'EMC.
Lors de l'utilisation du logiciel EMC SRDF, utilisez des priphriques dynamiques plutt que
statiques. Les priphriques statiques peuvent ncessiter plusieurs minutes pour changer le
nud principal de rplication et affecter ainsi la dure de basculement.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

109

Administration de priphriques rpliqus et bass sur le stockage

Attention Le nom du groupe de priphriques Oracle Solaris Cluster que vous crez (Solaris
Volume Manager, Veritas Volume Manager ou disque brut) doit tre identique celui du
groupe de priphriques rpliqu.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur tous les nuds connects la baie de
stockage.

Sur chaque nud configur avec les donnes rpliques, dtectez la configuration de
priphrique Symmetrix.
Cette opration peut prendre quelques minutes.
# /usr/symcli/bin/symcfg discover

Crez les paires de rpliques, si ce n'est dj fait.


Pour crer les paires de rpliques, faites appel la commande symrdf. La documentation SRDF
contient les instructions relatives la cration des paires de rpliques.

Sur chacun des nuds configurs avec des priphriques rpliqus, vrifiez que la
configuration de la rplication des donnes est correcte.
# /usr/symcli/bin/symdg show group-name

Permutez le groupe de priphriques.


a. Vrifiez que les rpliques principale et secondaire sont synchronises.
# /usr/symcli/bin/symrdf -g group-name verify -synchronized

b. l'aide de la commande symdg show, choisissez les deux nuds devant hberger la rplique
principale et la rplique secondaire respectivement.
# /usr/symcli/bin/symdg show group-name

Le nud dot du priphrique RDF1 contient la rplique principale, tandis que le nud
dot de l'tat du priphrique RDF2 contient la rplique secondaire.
c. Activez la rplique secondaire.
# /usr/symcli/bin/symrdf -g group-name failover

d. Permutez les priphriques RDF1 et RDF2.


# /usr/symcli/bin/symrdf -g group-name swap -refresh R1

e. Activez la paire de rpliques.


# /usr/symcli/bin/symrdf -g group-name establish

110

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de priphriques rpliqus et bass sur le stockage

f. Vrifiez que le nud principal et les rpliques secondaires sont synchroniss.


# /usr/symcli/bin/symrdf -g group-name verify -synchronized
6

tapes suivantes

Renouvelez toutes les oprations de l'tape 5 sur le nud qui hbergeait la rplique principale
l'origine.
Aprs avoir configur un groupe de priphriques pour votre priphrique rpliqu EMC
SRDF, vous devez configurer le pilote DID (device identifier, identificateur de priphrique)
que ce dernier utilise.

Configuration de la rplication de priphriques DID l'aide du logiciel

EMC SRDF
Pour configurer le pilote DID (device identifier, identificateur de priphrique) du priphrique
rpliqu, procdez comme suit.
Avant de
commencer

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Identifiez les priphriques DID qui correspondent aux priphriques configurs RDF1 et RDF2.
# /usr/symcli/bin/symdg show group-name
Remarque Si le systme n'affiche pas l'intgralit du patch de priphrique Oracle Solaris,
dfinissez la variable d'environnement SYMCLI_FULL_PDEVNAME sur 1 et saisissez nouveau la
commande symdg -show.

Identifiez les priphriques DID qui correspondent aux priphriques Oracle Solaris.
# cldevice list -v

Pour chaque paire de priphriques DID associs, combinez les instances en un priphrique
DID rpliqu unique. Excutez la commande suivante du ct RDF2/secondaire.
# cldevice combine -t srdf -g replication-device-group \
-d destination-instance source-instance

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

111

Administration de priphriques rpliqus et bass sur le stockage

Remarque L'option -T n'est pas prise en charge pour les priphriques de rplication de

donnes SRDF.
-t replication-type

Spcifie le type de rplication. Pour EMC SRDF, tapez SRDF.

-g replication-device-group

Spcifie le nom du groupe de priphriques, comme illustr


dans la commande symdg show.

-d destination-instance

Spcifie l'instance DID correspondant au priphrique RDF1.

source-instance

Spcifie l'instance DID correspondant au priphrique RDF2.

Remarque Si vous combinez le priphrique DID incorrect, annulez la combinaison des deux
priphriques DID l'aide de l'option -b de la commande scdidadm.
# scdidadm -b device

-b device

Instance DID qui correspondait au priphrique de destination lorsque les


instances taient combines.

En cas de modification du nom d'un groupe de priphriques de rplication, Hitachi TrueCopy et


SRDF exigent que vous effectuiez une tape supplmentaire. Une fois les tapes 1 4 termines,
passez l'tape supplmentaire qui convient.
lment

Description

TrueCopy

En cas de modification du nom du groupe de priphriques de rplication (et du groupe de


priphriques global correspondant), vous devez rexcuter la commande cldevice
replicate en vue de mettre jour les informations de priphrique rpliqu.

SRDF

En cas de modification du nom du groupe de priphriques de rplication (et du groupe de


priphriques global, vous devez mettre jour les informations de priphrique rpliqu.
Commencez par supprimer les informations existantes l'aide de scdidadm -b. Crez ensuite
un priphrique mis jour l'aide de la commande cldevice combine.

Vrifiez que les instances DID ont t combines.


# cldevice list -v device

Vrifiez que la rplication SRDF est dfinie.


# cldevice show device

Sur tous les nuds, vrifiez que les priphriques DID pour toutes les instances DID combines
sont accessibles.
# cldevice list -v

112

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de priphriques rpliqus et bass sur le stockage

tapes suivantes

Aprs avoir configur le pilote DID utilis par le priphrique rpliqu, vous devez vrifier la
configuration du groupe de priphriques global rpliqu EMC SRDF.

Vrification de la configuration d'un groupe de priphriques global

rpliqu EMC SRFD


Avant de
commencer

Vous devez crer le groupe de priphriques global avant de pouvoir le vrifier. Vous pouvez
utiliser des groupes de priphriques du type Solaris Volume Manager, Veritas Volume
Manager, ZFS ou disque brut. Pour plus d'informations, reportez-vous aux sections suivantes :

Ajout et enregistrement de groupes de priphriques (Solaris Volume Manager)


la page 132
Ajout et enregistrement d'un groupe de priphriques (disque brut) la page 134
Ajout et enregistrement d'un groupe de priphriques rpliqu (ZFS) la page 135
Cration d'un groupe de disques lors de l'initialisation des disques (Veritas Volume
Manager) la page 136

Attention Le nom du groupe de priphriques Oracle Solaris Cluster que vous avez cr (Solaris

Volume Manager, Veritas Volume Manager ou disque brut) doit tre identique celui du
groupe de priphriques rpliqu.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Vrifiez que le groupe de priphriques principal correspond au nud qui contient la rplique
principale.
# symdg -show group-name
# cldevicegroup status -n nodename group-name

Ralisez un essai de commutation afin de garantir que les groupes de priphriques sont
configurs correctement et que les rpliques peuvent passer d'un nud l'autre.
Si le groupe de priphriques est dconnect, mettez-le en ligne.
# cldevicegroup switch -n nodename group-name

-n nodename

Nud vers lequel le groupe de priphriques est commut. Ce nud devient


le nud principal.

Pour vrifier que la commutation a russi, comparez la sortie des commandes suivantes.
# symdg -show group-name
# cldevicegroup status -n nodename group-name
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

113

Administration de priphriques rpliqus et bass sur le stockage

Exemple : configuration d'un groupe de rplication SRDF pour Oracle


Solaris Cluster
Cet exemple reprsente la procdure spcifique Oracle Solaris Cluster que vous devez
effectuer pour configurer la rplication SRDF dans votre cluster. Il part du principe que vous
avez dj ralis les tches suivantes :

Appariement des LUN pour la rplication entre les baies ;

Installation du logiciel SRDF sur vos nuds de cluster et votre priphrique de stockage.

Cet exemple prsente un cluster quatre nuds dont deux sont connects un priphrique
Symmetrix et les deux autres au second priphrique Symmetrix. Le nom du groupe de
priphriques SRDF est dg1.
EXEMPLE 515

Cration de paires de rplication

Excutez la commande suivante sur tous les nuds.


# symcfg discover
! This operation might take up to a few minutes.
# symdev list pd
Symmetrix ID: 000187990182
Device Name
Directors
Device
--------------------------- ------------ -------------------------------------Cap
Sym Physical
SA :P DA :IT Config
Attribute
Sts (MB)
--------------------------- ------------- ------------------------------------0067 c5t600604800001879901* 16D:0 02A:C1 RDF2+Mir
0068 c5t600604800001879901* 16D:0 16B:C0 RDF1+Mir
0069 c5t600604800001879901* 16D:0 01A:C0 RDF1+Mir
...

N/Grpd
N/Grpd
N/Grpd

Sur tous les nuds du ct RDF1, tapez :


# symdg -type RDF1 create dg1
# symld -g dg1 add dev 0067

Sur tous les nuds du ct RDF2, tapez :


# symdg -type RDF2 create dg1
# symld -g dg1 add dev 0067
EXEMPLE 516

Vrification de la configuration de la rplication de donnes

partir d'un nud du cluster, tapez :


# symdg show dg1

114

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

RW
RW
RW

4315
4315
4315

Administration de priphriques rpliqus et bass sur le stockage

EXEMPLE 516

Vrification de la configuration de la rplication de donnes

(Suite)

Group Name: dg1


Group Type
Device Group in GNS
Valid
Symmetrix ID
Group Creation Time
Vendor ID
Application ID
Number
Number
Number
Number
Number
Number
Number

of
of
of
of
of
of
of

:
:
:
:
:
:
:

RDF1
(RDFA)
No
Yes
000187900023
Thu Sep 13 13:21:15 2007
EMC Corp
SYMCLI

STD Devices in Group


:
Associated GKs
:
Locally-associated BCVs
:
Locally-associated VDEVs
:
Remotely-associated BCVs (STD RDF):
Remotely-associated BCVs (BCV RDF):
Remotely-assocd RBCVs (RBCV RDF) :

1
0
0
0
0
0
0

Standard (STD) Devices (1):


{
-------------------------------------------------------------------Sym
Cap
LdevName
PdevName
Dev Att. Sts
(MB)
-------------------------------------------------------------------DEV001
/dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067
}

RW

4315

Device Group RDF Information


...
# symrdf -g dg1 establish
Execute an RDF Incremental Establish operation for device
group dg1 (y/[n]) ? y
An RDF Incremental Establish operation execution is
in progress for device group dg1. Please wait...
Write Disable device(s) on RA at target (R2)..............Done.
Suspend RDF link(s).......................................Done.
Mark target (R2) devices to refresh from source (R1)......Started.
Device: 0067 ............................................ Marked.
Mark target (R2) devices to refresh from source (R1)......Done.
Merge device track tables between source and target.......Started.
Device: 0067 ............................................ Merged.
Merge device track tables between source and target.......Done.
Resume RDF link(s)........................................Started.
Resume RDF link(s)........................................Done.
The RDF Incremental Establish operation successfully initiated for
device group dg1.
#
# symrdf -g dg1 query

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

115

Administration de priphriques rpliqus et bass sur le stockage

EXEMPLE 516

Vrification de la configuration de la rplication de donnes

Device Group (DG) Name


DGs Type
DGs Symmetrix ID

: dg1
: RDF2
: 000187990182

Target (R2) View


-------------------------------ST
Standard
A
Logical
T R1 Inv R2 Inv
Device Dev E Tracks Tracks
-------------------------------DEV001 0067 WD
Total
MB(s)

(Suite)

LI
N
K
S
--

Source (R1) View


-----------------------ST
A
T R1 Inv R2 Inv
Dev E Tracks Tracks
------------------------

0 RW 0067 RW

-------- -------0.0
0.0

MODES
----- -----------RDF Pair
MDA STATE
----- ------------

0 S..

Synchronized

-------- -------0.0
0.0

Legend for MODES:


M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy
D(omino)
: X = Enabled, . = Disabled
A(daptive Copy)
: D = Disk Mode, W = WP Mode, . = ACp off
#
EXEMPLE 517

Affichage des DID correspondant aux disques utiliss

Appliquez la mme procdure aux cts RDF1 et RDF2.


Examinez le champ PdevName de la sortie de la commande dymdg show dg.
Sur le ct RDF1, tapez :
# symdg show dg1
Group Name: dg1
Group Type

: RDF1

(RDFA)

...
Standard (STD) Devices (1):
{
-------------------------------------------------------------------Sym
Cap
LdevName
PdevName
Dev Att. Sts
(MB)
-------------------------------------------------------------------DEV001
/dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067
}
Device Group RDF Information
...

Pour obtenir le DID correspondant, tapez :

116

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

RW

4315

Administration de priphriques rpliqus et bass sur le stockage

EXEMPLE 517

Affichage des DID correspondant aux disques utiliss

(Suite)

# scdidadm -L | grep c5t6006048000018790002353594D303637d0


217
pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217
217
pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217
#

Pour rpertorier le DID correspondant, tapez :


# cldevice show d217
=== DID Device Instances ===
DID Device Name:
Full Device Path:
Full Device Path:
Replication:
default_fencing:

/dev/did/rdsk/d217
pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
none
global

Sur le ct RDF2, tapez :


Examinez le champ PdevName de la sortie de la commande dymdg show dg.
# symdg show dg1
Group Name: dg1
Group Type

: RDF2

(RDFA)

...
Standard (STD) Devices (1):
{
-------------------------------------------------------------------Sym
Cap
LdevName
PdevName
Dev Att. Sts
(MB)
-------------------------------------------------------------------DEV001
/dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067
}

WD

4315

Device Group RDF Information


...

Pour obtenir le DID correspondant, tapez :


# scdidadm -L | grep c5t6006048000018799018253594D303637d0
108
pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108
108
pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108
#

Pour rpertorier le DID correspondant, tapez :


# cldevice show d108

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

117

Administration de priphriques rpliqus et bass sur le stockage

Affichage des DID correspondant aux disques utiliss

EXEMPLE 517

(Suite)

=== DID Device Instances ===


DID Device Name:
Full Device Path:
Full Device Path:
Replication:
default_fencing:

/dev/did/rdsk/d108
pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
none
global

#
EXEMPLE 518

Combinaison des instances DID

Sur le ct RDF2, tapez :


# cldevice combine -t srdf -g dg1 -d d217 d108
#
EXEMPLE 519

Affichage des DID combins

partir d'un nud du cluster, tapez :


# cldevice show d217 d108
cldevice: (C727402) Could not locate instance "108".
=== DID Device Instances ===
DID Device Name:
Full Device Path:
Full Device Path:
Full Device Path:
Full Device Path:
Replication:
default_fencing:

/dev/did/rdsk/d217
pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
srdf
global

Rcupration de donnes EMC SRDF aprs la dfaillance totale de la

salle principale
Cette procdure permet de rcuprer les donnes perdues suite la dfaillance totale de la salle
principale du cluster campus, suivi du basculement de la salle principale sur la salle secondaire
et du retour en ligne de la salle principale. La salle principale du cluster campus correspond au
nud principal et au site de stockage. La dfaillance totale d'une salle entrane celle de son hte
et de son stockage. En cas de dfaillance du cluster principal, Oracle Solaris Cluster bascule
automatiquement sur le cluster secondaire, et active l'accs en lecture et en criture du
priphrique de stockage ainsi que le basculement des groupes de priphriques et de
ressources correspondants.

118

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de priphriques rpliqus et bass sur le stockage

Au retour en ligne de la salle principale, il est possible de rcuprer manuellement les donnes
du groupe de priphriques SRDF enregistres dans la salle secondaire et de les resynchroniser.
Cette procdure permet de rcuprer le groupe de priphriques SRDF par synchronisation des
donnes de la salle secondaire initiale (phys-campus-2 ) vers la salle principale initiale
(phys-campus-1). Au cours de la procdure, le type du groupe de priphriques SRDF est
remplac par RDF1 sur phys-campus-2 et par RDF2 sur phys-campus-1.
Avant de
commencer

Avant de procder un basculement manuel, il est ncessaire de configurer le groupe de


rplication EMC et les priphriques DID, et d'enregistrer le groupe de rplication EMC. Pour
plus d'informations sur la cration d'un groupe de priphriques Solaris Volume Manager,
reportez-vous la section Ajout et enregistrement de groupes de priphriques (Solaris
Volume Manager) la page 132. Pour plus d'informations sur la cration d'un groupe de
priphriques Veritas Volume Manager, reportez-vous la section Cration d'un groupe de
disques lors de l'encapsulation des disques (Veritas Volume Manager) la page 141.
Remarque Ces instructions illustrent une mthode que vous pouvez utiliser pour rcuprer
manuellement des donnes SRDF aprs la dfaillance d'une salle principale et son retour en
ligne. La documentation EMC prsente d'autres mthodes.

Pour effectuer la procdure, connectez-vous la salle principale du cluster campus. Dans la


procdure dcrite ci-dessous, dg1 est le nom du groupe de priphriques SRDF. Au moment de
la dfaillance, phys-campus-1 est la salle principale et phys-campus-2 la salle secondaire.
1

Connectez-vous la salle principale du cluster campus en tant que superutilisateur ou


utilisateur dot d'une autorisation RBAC solaris.cluster.modify.

Dans la salle principale, utilisez la commande symrdf pour interroger l'tat de rplication des
priphriques RDF et afficher les informations les concernant.
phys-campus-1# symrdf -g dg1 query
Astuce Un groupe de priphriques dont l'tat est split (spar) n'est pas synchronis.

Lorsque l'tat de la paire RDF est spar et le type du groupe de priphriques RDF1, faites
basculer le groupe de priphriques SRDF.
phys-campus-1# symrdf -g dg1 -force failover

Affichez le statut des priphriques RDF.


phys-campus-1# symrdf -g dg1 query

Aprs le basculement des priphriques RDF, vous pouvez changer leurs donnes.
phys-campus-1# symrdf -g dg1 swap

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

119

Administration de priphriques rpliqus et bass sur le stockage

Vrifiez le statut et les autres informations concernant les priphriques RDF.


phys-campus-1# symrdf -g dg1 query

tablissez le groupe de priphriques SRDF dans la salle principale.


phys-campus-1# symrdf -g dg1 establish

Confirmez que l'tat du groupe de priphriques est synchronis et que son type est RDF2.
phys-campus-1# symrdf -g dg1 query

Exemple 520

Rcupration manuelle des donnes EMC SRDF aprs le basculement d'un site
principal
Cet exemple dcrit la procdure spcifique Oracle Solaris Cluster permettant de rcuprer
manuellement des donnes EMC SRDF aprs le basculement du cluster principal du cluster
campus, la reprise et l'enregistrement des donnes par le cluster secondaire et le retour en ligne
du cluster principal. Dans cet exemple, dg1 est le nom du groupe de priphriques SRDF et
DEV001 est le priphrique logique standard. Au moment de la dfaillance, phys-campus-1 est
la salle principale et phys-campus-2 la salle secondaire. Effectuez la procdure partir de la salle
principale du cluster campus, phys-campus-1.
phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012RW 0 0NR 0012RW 2031 O S.. Split
phys-campus-1# symdg list | grep RDF
dg1 RDF1 Yes 00187990182 1 0 0 0 0
phys-campus-1# symrdf -g dg1 -force failover
...
phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012 WD 0 0 NR 0012 RW 2031 O S.. Failed Over
phys-campus-1# symdg list | grep RDF
dg1 RDF1 Yes 00187990182 1 0 0 0 0
phys-campus-1# symrdf -g dg1 swap
...
phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012 WD 0 0 NR 0012 RW 0 2031 S.. Suspended
phys-campus-1# symdg list | grep RDF
dg1 RDF2 Yes 000187990182 1 0 0 0 0
phys-campus-1# symrdf -g dg1 establish
...
phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012 WD 0 0 RW 0012 RW 0 0 S.. Synchronized

120

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration des systmes de fichiers de cluster

phys-campus-1# symdg list | grep RDF


dg1 RDF2 Yes 000187990182 1 0 0 0 0

Prsentation de l'administration des systmes de fichiers de


cluster
Aucune commande Oracle Solaris Cluster spciale n'est ncessaire pour administrer le systme
de fichiers du cluster. L'administration d'un systme de fichiers du cluster n'tant en rien
diffrente de celle d'un systme de fichiers Oracle Solaris, utilisez les commandes de systme de
fichiers Oracle Solaris classiques, telles que mount et newfs. Pour monter les systmes de fichiers
du cluster, excutez la commande mount avec l'option -g. Il est galement possible de monter
automatiquement les systmes de fichiers du cluster au dmarrage. Les systmes de fichiers du
cluster ne sont visibles qu' partir du nud votant dans le cluster global. Pour que le systme de
fichiers du cluster soit accessible partir d'un nud non votant, associez les donnes ce nud
l'aide de zoneadm(1M) ou HAStoragePlus.
Remarque Lors de la lecture des fichiers, le systme de fichiers ne met pas jour le temps d'accs
sur ces fichiers.

Restrictions du systme de fichiers du cluster


Les restrictions suivantes s'appliquent l'administration des systmes de fichiers du cluster :

La commande unlink(1M) n'est pas prise en charge dans les rpertoires qui ne sont pas
vides.

La commande lockfs -d n'est pas prise en charge. Utilisez la place la commande lockfs
-n.

Vous ne pouvez pas remonter un systme de fichiers du cluster en ajoutant l'option de


montage directio au remontage.

Le systme ZFS pour les systmes de fichiers racines est pris en charge, une exception
significative prs. Si vous utilisez une partition ddie du disque d'initialisation d'un systme
de fichiers de priphriques globaux, son systme de fichiers ne peut tre qu'un systme
UFS. L'espace de noms des priphriques globaux requiert l'excution du systme de fichiers
proxy (PxFS) sur le systme de fichiers UFS. Toutefois, un systme de fichiers UFS pour
l'espace de noms des priphriques globaux peut coexister avec un systme de fichiers ZFS
pour le systme de fichiers racine (/) et d'autres systmes de fichiers racines tels que /var ou
/home. Sinon, si vous utilisez plutt un priphrique lofi pour hberger l'espace de noms des
priphriques globaux, vous pouvez utiliser le systme ZFS pour les systmes de fichiers
racines, sans aucune restriction.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

121

Prsentation de l'administration des systmes de fichiers de cluster

Directives relatives la prise en charge VxFS


Les fonctions VxFS suivantes ne sont pas prises en charge dans un systme de fichiers du cluster
Oracle Solaris Cluster. Elles sont nanmoins prises en charge dans un systme de fichiers local.

E/S rapide

Instantans

Points de contrle de stockage

Options de montage spcifiques VxFS :

convosync (convertir O_SYNC)


mincache
qlog, delaylog, tmplog

Systme de fichiers du cluster Veritas (requiert la fonction de cluster VxVM et Veritas


Cluster Server). La fonction de cluster VxVM n'est pas prise en charge par les systmes x86.

Des donnes en cache peuvent tre utilises, mais l'effet est uniquement observ sur le nud
donn.
Toutes les fonctions et options VxFS prises en charge dans un systme de fichiers du cluster
sont prises en charge par le logiciel Oracle Solaris Cluster Reportez-vous la documentation
VxFS pour plus d'informations sur les options VxFS prises en charge dans une configuration en
cluster.
Les directives ci-dessous relatives l'utilisation de VxFS dans le cadre de la cration de systmes
de fichiers de cluster haut niveau de disponibilit s'appliquent une configuration Oracle
Solaris 3.3;

Suivez les procdures dcrites dans la documentation VxFS pour crer un systme de
fichiers VxFS.

Montez et dmontez un systme de fichiers VxFS partir du nud principal. Le nud


principal administre le disque sur lequel le systme de fichiers VxFS rside. L'opration de
montage et le dmontage d'un systme de fichiers VxFS partir d'un nud secondaire
risque d'chouer.

Excutez toutes les commandes d'administration VxFS partir du nud principal du


systme de fichiers du cluster VxFS.

Les directives ci-dessous relatives l'administration de systmes de fichiers de cluster VxFS ne


sont pas spcifiques au logiciel Oracle Solaris 3.3. Toutefois, elles diffrent de votre mthode
d'administration des systmes de fichiers de cluster UFS.

122

L'administration des fichiers sur un systme de fichiers de cluster VxFS s'effectue depuis
n'importe quel nud du cluster. Toutefois, la commande ioctls, qui fait figure d'exception,
doit tre excute partir du nud principal. Si vous ignorez si une commande
d'administration implique ioctls, excutez-la partir du nud principal.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Lorsqu'un systme de fichiers du cluster VxFS bascule sur un nud secondaire, toutes les
oprations standard d'appel du systme en cours d'excution sont rexcutes en
transparence sur le nouveau nud principal. Cependant, les oprations associes ioctl en
cours d'excution lors du basculement chouent. Aprs le basculement d'un systme de
fichiers du cluster VxFS, vrifiez son tat. Vous devrez ventuellement prendre des mesures
de rectification quant aux commandes d'administration qui taient excutes sur l'ancien
nud principal avant le basculement. Pour plus d'informations, consultez la documentation
VxFS.

Administration de groupes de priphriques


En fonction de l'volution des besoins de votre cluster, vous devrez ajouter, supprimer ou
modifier les groupes de priphriques qu'il hberge. Oracle Solaris Cluster offre une interface
interactive, appele clsetup, qui vous permet d'apporter ces modifications. clsetup gnre les
commandes cluster. Les commandes gnres sont illustres dans les exemples que vous
trouverez la fin de certaines procdures. Le tableau ci-dessous numre les tches
d'administration des groupes de priphriques et inclut des liens vers les procdures
correspondantes dans la prsente section.
Attention N'excutez pas la commande metaset s setname f -t sur un nud initialis en
dehors du cluster si d'autres nuds du cluster sont actifs et que l'un d'eux au moins possde
l'ensemble de disques.

Remarque Le logiciel Oracle Solaris Cluster cre automatiquement un groupe de priphriques


de disque brut pour chaque priphrique de disque et priphrique bande du cluster.
Toutefois, les groupes de priphriques du cluster restent en tat hors ligne jusqu' ce que vous
y accdiez en tant que priphriques globaux.
TABLEAU 54

Liste des tches : administration de groupes de priphriques

Tche

Instructions

Mettez jour l'espace de noms des


priphriques globaux sans
reconfiguration au dmarrage l'aide de la
commande populate.

Mise jour de l'espace de noms des priphriques globaux


la page 126

Modifiez la taille d'un priphrique lofi


utilis pour l'espace de noms de
priphriques globaux.

Modification de la taille d'un priphrique lofi utilis pour


l'espace de noms de priphriques globaux la page 127

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

123

Administration de groupes de priphriques

TABLEAU 54

Liste des tches : administration de groupes de priphriques

(Suite)

Tche

Instructions

Dplacez un espace de noms des


priphriques globaux.

Migration de l'espace de noms des priphriques globaux d'une


partition ddie vers un priphrique lofi la page 129
Migration de l'espace de noms des priphriques globaux d'un
priphrique lofi vers une partition ddie la page 130

124

Ajoutez des ensembles de disques Solaris


Volume Manager et enregistrez-les en tant
que groupes de priphriques l'aide de la
commande metaset.

Ajout et enregistrement de groupes de priphriques (Solaris


Volume Manager) la page 132

Ajoutez un groupe de priphriques de


disque brut et enregistrez-le l'aide de la
commande cldevicegroup.

Ajout et enregistrement d'un groupe de priphriques (disque


brut) la page 134

Ajoutez un groupe de priphriques


nomm un systme ZFS l'aide de la
commande cldevicegroup.

Ajout et enregistrement d'un groupe de priphriques rpliqu


(ZFS) la page 135

Ajoutez et enregistrez un nouveau groupe


de disques en tant que groupe de
priphriques selon votre mthode
prfre.

Cration d'un groupe de disques lors de l'initialisation des


disques (Veritas Volume Manager) la page 136

Supprimez les groupes de priphriques


Solaris Volume Manager de la
configuration l'aide des commandes
metaset et metaclear.

Suppression et annulation de l'enregistrement d'un groupe de


priphriques (Solaris Volume Manager) la page 137

Supprimez un nud de l'ensemble des


groupes de priphriques l'aide des
commandes cldevicegroup, metaset et
clsetup.

Suppression d'un nud de tous les groupes de priphriques


la page 138

Supprimez un nud d'un groupe de


priphriques Solaris Volume Manager
l'aide de la commande metaset.

Suppression d'un nud d'un groupe de priphriques (Solaris


Volume Manager) la page 139

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

TABLEAU 54

Liste des tches : administration de groupes de priphriques

(Suite)

Tche

Instructions

Ajoutez des groupes de disques Veritas


Volume Manager en tant que groupes de
priphriques l'aide des commandes
VxVM et clsetup.

Cration d'un groupe de disques lors de l'initialisation des


disques (Veritas Volume Manager) la page 136
Cration d'un groupe de disques lors de l'encapsulation des
disques (Veritas Volume Manager) la page 141
Ajout d'un nouveau volume un groupe de priphriques
existant (Veritas Volume Manager) la page 143
Conversion d'un groupe de disques en groupe de priphriques
(Veritas Volume Manager) la page 144
Assignation d'un nouveau code mineur un groupe de
priphriques (Veritas Volume Manager) la page 144
Enregistrement d'un groupe de disques en tant que groupe de
priphriques (Veritas Volume Manager) la page 145
Conversion d'un groupe de disques local en groupe de
priphriques (VxVM) la page 149
Conversion d'un groupe de priphriques en groupe de disques
local (VxVM) la page 150
Enregistrement des modifications apportes la configuration
d'un groupe de disques (Veritas Volume Manager) la page 148

Supprimez des groupes de priphriques


Veritas Volume Manager de la
configuration l'aide de la commande
clsetup (pour gnrer la commande
cldevicegroup).

Suppression d'un volume d'un groupe de priphriques (Veritas


Volume Manager) la page 151

Ajoutez un nud au groupe de


priphriques Veritas Volume Manager
l'aide de la commande clsetup pour
gnrer la commande cldevicegroup.

Ajout d'un nud un groupe de priphriques (Veritas Volume


Manager) la page 153

Supprimez un nud d'un groupe de


priphriques Veritas Volume Manager
l'aide de la commande clsetup pour
gnrer la commande cldevicegroup.

Suppression d'un nud d'un groupe de priphriques (Veritas


Volume Manager) la page 155

Supprimez un nud d'un groupe de


priphriques de disque brut l'aide de la
commande cldevicegroup.

Suppression d'un nud d'un groupe de priphriques de disque


brut la page 157

Modifiez les proprits des groupes de


priphriques l'aide de la commande
clsetup pour gnrer la commande
cldevicegroup.

Modification des proprits des groupes de priphriques


la page 159

Suppression et annulation de l'enregistrement d'un groupe de


priphriques (Veritas Volume Manager) la page 152

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

125

Administration de groupes de priphriques

TABLEAU 54

Liste des tches : administration de groupes de priphriques

(Suite)

Tche

Instructions

Affichez les proprits et les groupes de


priphriques l'aide de la commande
cldevicegroup show.

Affichage sous forme de liste de la configuration d'un groupe de


priphriques la page 164

Modifiez le nombre souhait des nuds


Dfinition du nombre souhait de nuds secondaires pour un
secondaires d'un groupe de priphriques groupe de priphriques la page 160
l'aide de la commande clsetup pour
gnrer la commande cldevicegroup.
Permutez le nud principal d'un groupe de Changement du nud principal d'un groupe de priphriques
priphriques l'aide de la commande
la page 165
cldevicegroup switch.
Placez un groupe de priphriques en tat
de maintenance l'aide de la commande
metaset ou vxdg.

Mise en tat de maintenance du groupe de priphriques


la page 166

Mise jour de l'espace de noms des priphriques


globaux
Lors de l'ajout d'un priphrique global, mettez manuellement jour l'espace de noms des
priphriques globaux l'aide de la commande cldevice populate.
Remarque La commande cldevice populate n'a aucun effet si le nud qui l'excute

n'appartient pas au cluster. Elle n'a pas non plus d'effet si le systme de fichiers
/global/.devices/node@ nodeID n'est pas mont.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Sur chaque nud du cluster, excutez la commande devfsadm(1M).


Vous pouvez excuter cette commande sur tous les nuds du cluster la fois.

Reconfigurez l'espace de noms.


# cldevice populate

126

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Vrifiez que la commande cldevice populate est termine sur chaque nud avant d'essayer
de crer un ensemble de disques.
La commande cldevice s'auto-appelle distance sur tous les nuds, y compris lorsqu'elle est
excute partir d'un seul nud. Pour savoir si la commande cldevice populate a termin le
traitement, excutez la commande suivante sur chaque nud du cluster.
# ps -ef | grep cldevice populate

Exemple 521

Mise jour de l'espace de noms des priphriques globaux


L'exemple suivant illustre la sortie gnre lorsque la commande cldevice populate s'excute
correctement.
# devfsadm
cldevice populate
Configuring the /dev/global directory (global devices)...
obtaining access to all attached disks
reservation program successfully exiting
# ps -ef | grep cldevice populate

Modification de la taille d'un priphrique lofi utilis


pour l'espace de noms de priphriques globaux
Si vous utilisez un priphrique lofi pour l'espace de noms de priphriques globaux sur un ou
plusieurs nuds du cluster global, suivez cette procdure pour modifier la taille du
priphrique.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits


d'autorisation RBCA solaris.cluster.modify sur un nud associ au priphrique lofi
redimensionner pour l'espace de noms des priphriques globaux.

vacuez les services du nud et rinitialisez celui-ci en mode non cluster.


Cela vous garantit que les priphriques globaux ne seront pas servis partir de ce nud
pendant que vous effectuerez cette procdure. Pour plus d'instructions, reportez-vous la
section Initialisation d'un nud en mode non cluster la page 79.

Dmontez le systme de fichiers de priphriques globaux et dtachez son priphrique lofi.


Le systme de fichiers de priphriques globaux se monte localement.
phys-schost# umount /global/.devices/node\@clinfo -n > /dev/null 2>&1
Ensure that the lofi device is detached
phys-schost# lofiadm -d /.globaldevices
The command returns no output if the device is detached
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

127

Administration de groupes de priphriques

Remarque Si le systme de fichiers est mont l'aide de l'option -m, aucune entre n'est ajoute

au fichier mnttab. La commande umount peut signaler un avertissement similaire ce qui suit :
umount: warning: /global/.devices/node@2 not in mnttab
not mounted

====>>>>

Cet avertissement peut tre ignor.


4

Supprimez et recrez le fichier /.globaldevices avec la taille requise.


L'exemple suivant prsente la cration d'un fichier /.globaldevices dont la taille atteint
200 Mo.
phys-schost# rm /.globaldevices
phys-schost# mkfile 200M /.globaldevices

Crez un systme de fichiers pour l'espace de noms de priphriques globaux.


phys-schost# lofiadm -a /.globaldevices
phys-schost# newfs lofiadm /.globaldevices < /dev/null

Initialisez le nud en mode cluster.


Les priphriques globaux s'affichent dsormais sur le nouveau systme de fichiers.
phys-schost# reboot

Migrez les services excuter sur le nud vers ce nud.

Migration de l'espace de noms des priphriques


globaux
Vous pouvez crer un espace de noms sur un priphrique lofi (loopback file interface, interface
de fichier loopback) plutt qu'un espace de noms des priphriques globaux sur une partition
ddie. Cette fonctionnalit s'avre utile si vous installez le logiciel Oracle Solaris Cluster sur des
systmes prinstalls avec le SE Oracle Solaris 10.

128

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Remarque Le systme ZFS pour les systmes de fichiers racines est pris en charge, une
exception significative prs. Si vous utilisez une partition ddie du disque d'initialisation d'un
systme de fichiers de priphriques globaux, son systme de fichiers ne peut tre qu'un systme
UFS. L'espace de noms des priphriques globaux requiert l'excution du systme de fichiers
proxy (PxFS) sur le systme de fichiers UFS. Toutefois, un systme de fichiers UFS pour l'espace
de noms des priphriques globaux peut coexister avec un systme de fichiers ZFS pour le
systme de fichiers racine (/) et d'autres systmes de fichiers racines tels que /var ou /home.
Sinon, si vous utilisez plutt un priphrique lofi pour hberger l'espace de noms des
priphriques globaux, vous pouvez utiliser le systme ZFS pour les systmes de fichiers racines,
sans aucune restriction.

Les procdures suivantes expliquent comment dplacer un espace de noms des priphriques
globaux, d'une partition ddie vers un priphrique lofi ou inversement :

Migration de l'espace de noms des priphriques globaux d'une partition ddie vers un
priphrique lofi la page 129
Migration de l'espace de noms des priphriques globaux d'un priphrique lofi vers une
partition ddie la page 130

Migration de l'espace de noms des priphriques


globaux d'une partition ddie vers un priphrique
lofi

Connectez-vous en tant que superutilisateur au nud votant du cluster global dont vous
souhaitez changer l'emplacement de l'espace de noms.

vacuez les services du nud et rinitialisez celui-ci en mode non cluster.


Cela vous garantit que les priphriques globaux ne seront pas servis partir de ce noeud
pendant que vous effectuerez cette procdure. Pour plus d'instructions, reportez-vous la
section Initialisation d'un nud en mode non cluster la page 79.

Vrifiez qu'aucun fichier nomm /.globaldevices n'existe sur le nud. Si c'est le cas,
supprimez-le.

Crez le priphrique lofi.


# mkfile 100m /.globaldevices# lofiadm -a /.globaldevices# \
LOFI_DEV=lofiadm /.globaldevices# newfs echo ${LOFI_DEV} | \
sed -e s/lofi/rlofi/g < /dev/null# lofiadm -d /.globaldevices
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

129

Administration de groupes de priphriques

Dans le fichier /etc/vfstab, commentez l'entre de l'espace de noms des priphriques


globaux. Cette entre possde un chemin de montage qui commence par
/global/.devices/node@nodeID.

Dmontez la partition des priphriques globaux /global/.devices/node@nodeID.

Dsactivez les services SMF globaldevices et scmountdev, puis ractivez-les.


# svcadm disable globaldevices# svcadm disable scmountdev# \
svcadm enable scmountdev# svcadm enable globaldevices

Un priphrique lofi est prsent cr sur /.globaldevices et mont en tant que systme de
fichiers des priphriques globaux.
8

Procdez de la mme manire sur les autres nuds dont vous souhaitez migrer l'espace de
noms des priphriques globaux d'une partition vers un priphrique lofi.

partir d'un nud, remplissez les espaces de noms des priphriques globaux.
# /usr/cluster/bin/cldevice populate

Sur chaque nud, vrifiez que la commande a termin le traitement avant d'excuter d'autres
actions sur le cluster.
# ps -ef \ grep cldevice populate

L'espace de noms des priphriques globaux rside dsormais sur le priphrique lofi.
10

Migrez les services excuter sur le noeud vers ce noeud.

Migration de l'espace de noms des priphriques


globaux d'un priphrique lofi vers une partition
ddie

Connectez-vous en tant que superutilisateur au nud votant du cluster global dont vous
souhaitez changer l'emplacement de l'espace de noms.

vacuez les services du nud et rinitialisez celui-ci en mode non cluster.


Cela vous garantit que les priphriques globaux ne seront pas servis partir de ce noeud
pendant que vous effectuerez cette procdure. Pour plus d'instructions, reportez-vous la
section Initialisation d'un nud en mode non cluster la page 79.

Sur un disque local du nud, crez une partition rpondant la configuration requise suivante :

130

Taille minimale de 512 Mo


Utilisation du systme de fichiers UFS

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Ajoutez une entre au fichier /etc/vfstab pour monter la nouvelle partition en tant que
systme de fichiers des priphriques globaux.

Dterminez l'ID du nud actuel.


# /usr/sbin/clinfo -nnode ID

Crez l'entre dans le fichier /etc/vfstab au format suivant :


blockdevice rawdevice /global/.devices/node@nodeID ufs 2 no global

Par exemple, si vous avez choisi d'utiliser la partition /dev/did/rdsk/d5s3 , la nouvelle entre
ajouter au fichier /etc/vfstab est /dev/did/dsk/d5s3 /dev/did/rdsk/d5s3
/global/.devices/node@3 ufs 2 no global.
5

Dmontez la partition des priphriques globaux /global/.devices/node@ nodeID.

Supprimez le priphrique lofi associ au fichier /.globaldevices.


# lofiadm -d /.globaldevices

Supprimez le fichier /.globaldevices.


# rm /.globaldevices

Dsactivez les services SMF globaldevices et scmountdev, puis ractivez-les.


# svcadm disable globaldevices# svcadm disable scmountdev# \
svcadm enable scmountdev# svcadm enable globaldevices

La partition est prsent monte en tant que systme de fichiers d'espace de noms des
priphriques globaux.
9

10

Procdez de la mme manire sur les autres nuds dont vous souhaitez migrer l'espace de
noms des priphriques globaux d'un priphrique lofi vers une partition.
partir d'un nud du cluster, excutez la commande cldevice populate pour remplir l'espace
de noms des priphriques globaux.
# /usr/cluster/bin/cldevice populate

Veillez ce que ce processus soit termin sur l'ensemble des nuds du cluster avant d'excuter
une nouvelle action sur l'un d'eux.
# ps -ef | grep cldevie populate

L'espace de noms des priphriques globaux rside dsormais sur la partition ddie.
11

Migrez les services excuter sur le noeud vers ce noeud.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

131

Administration de groupes de priphriques

Ajout et enregistrement de groupes de priphriques


Vous pouvez ajouter et enregistrer des groupes de priphriques du type Solaris Volume
Manager, Veritas Volume Manager, ZFS ou disque brut.

Ajout et enregistrement de groupes de priphriques


(Solaris Volume Manager)
Utilisez la commande metaset pour crer un ensemble de disques Solaris Volume Manager et
l'enregistrer en tant que groupe de priphriques Oracle Solaris Cluster. Lorsque vous
enregistrez l'ensemble de disques, le nom que vous lui attribuez est automatiquement assign au
groupe de priphriques.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Attention Le nom du groupe de priphriques Oracle Solaris Cluster que vous crez (Solaris
Volume Manager, Veritas Volume Manager ou disque brut) doit tre identique celui du
groupe de priphriques rpliqu.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur l'un des nuds connects aux disques o
vous crez l'ensemble de disques.

Ajoutez l'ensemble de disques Solaris Volume Manager et enregistrez-le en tant que groupe de
priphriques avec Oracle Solaris Cluster. Pour crer un groupe de priphriques
multipropritaire, utilisez l'option -M.
# metaset -s diskset -a -M -h nodelist

132

-s diskset

Spcifie l'ensemble de disques crer.

-a -h nodelist

Ajoute la liste des nuds qui peuvent administrer l'ensemble de disques.

-M

Dsigne le groupe de disques comme multipropritaire.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Remarque L'excution de la commande metaset pour configurer un groupe de priphriques


/Solaris Volume Manager sur un cluster cre un seul nud secondaire par dfaut,
indpendamment du nombre de nuds que comporte le groupe de priphriques. Vous avez la
possibilit de modifier le nombre souhait de nuds secondaires selon vos besoins en excutant
l'utilitaire clsetup une fois le groupe de priphriques cr. Pour plus d'informations sur le
basculement de disque, reportez-vous la section Dfinition du nombre souhait de nuds
secondaires pour un groupe de priphriques la page 160.
3

Si vous configurez un groupe de priphriques rpliqu, dfinissez la proprit de rplication


pour le groupe en question.
# cldevicegroup sync devicegroup

Vrifiez que le groupe de priphriques a t ajout.


Le nom du groupe de priphriques correspond celui de l'ensemble de disques spcifi l'aide
de la commande metaset.
# cldevicegroup list

Rpertoriez les mappages DID.


# cldevice show | grep Device

Choisissez des units partages par les nuds du cluster qui administreront ou seront
susceptibles d'administrer l'ensemble de disques.

Lors de l'ajout d'une unit l'ensemble de disques, utilisez le nom complet de priphrique
DID dont la forme est /dev/did/rdsk/d N.

Dans l'exemple ci-dessous, les entres du priphrique DID /dev/did/rdsk/d3 indiquent que
l'unit est partage par phys-schost-1 et phys-schost-2.
=== DID Device Instances ===
DID Device Name:
Full Device Path:
DID Device Name:
Full Device Path:
DID Device Name:
Full Device Path:
Full Device Path:
...
6

/dev/did/rdsk/d1
phys-schost-1:/dev/rdsk/c0t0d0
/dev/did/rdsk/d2
phys-schost-1:/dev/rdsk/c0t6d0
/dev/did/rdsk/d3
phys-schost-1:/dev/rdsk/c1t1d0
phys-schost-2:/dev/rdsk/c1t1d0

Ajoutez les units l'ensemble de disques.


Utilisez le nom de chemin DID complet.
# metaset -s setname -a /dev/did/rdsk/dN

-s setname

Spcifie le nom de l'ensemble de disques, qui correspond celui du groupe de


priphriques.

-a

Ajoute l'unit l'ensemble de disques.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

133

Administration de groupes de priphriques

Remarque N'utilisez pas le nom de priphrique de niveau infrieur ( cNtX dY) lorsque vous

ajoutez une unit l'ensemble de disques. tant local et non unique l'chelle du cluster, le nom
de priphrique de niveau infrieur risque d'empcher la commutation de metaset.
7

Vrifiez l'tat de l'ensemble de disques et des units.


# metaset -s setname

Exemple 522

Ajout d'un groupe de priphriques Solaris Volume Manager


L'exemple suivant illustre la cration de l'ensemble de disques et du groupe de priphriques
avec les units de disque /dev/did/rdsk/d1 et /dev/did/rdsk/d2 ainsi que la vrification de la
cration du groupe de priphriques.
# metaset -s dg-schost-1 -a -h phys-schost-1
# cldevicegroup list
dg-schost-1
metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2

Ajout et enregistrement d'un groupe de


priphriques (disque brut)
Le logiciel Oracle Solaris Cluster prend en charge l'utilisation des groupes de priphriques de
disque brut, en plus d'autres gestionnaires de volumes. Au dpart, lorsque vous configurez
Oracle Solaris Cluster, des groupes de priphriques sont automatiquement configurs pour
chaque priphrique brut du cluster. Pour reconfigurer ces groupes de priphriques crs
automatiquement en vue d'une utilisation avec Oracle Solaris Cluster, procdez comme suit.
Crez un groupe de priphriques du type disque brut pour les raisons suivantes :

Vous souhaitez ajouter plusieurs DID au groupe de priphriques.

Vous devez modifier le nom du groupe de priphriques.

Vous souhaitez dresser la liste des groupes de priphriques sans recourir l'option -v de la
commande cldg.

Attention Si vous crez un groupe de priphriques sur des priphriques rpliqus, le nom du

groupe de priphriques que vous crez (Solaris Volume Manager, Veritas Volume Manager ou
disque brut) doit tre identique celui du groupe de priphriques rpliqu.

134

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Identifiez les priphriques utiliser et annulez la configuration des groupes de priphriques


prdfinis.
Les commandes suivantes suppriment les groupes de priphriques prdfinis pour d7 et d8.
paris-1# cldevicegroup disable dsk/d7 dsk/d8
paris-1# cldevicegroup offline dsk/d7 dsk/d8
paris-1# cldevicegroup delete dsk/d7 dsk/d8

Crez le nouveau groupe de priphriques de disque brut, comportant les priphriques de


votre choix.
La commande suivante cre le groupe de priphriques global rawdg qui contient d7 et d8.
paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 -t rawdisk
-d d7,d8 rawdg
paris-1# /usr/cluster/lib/dcs/cldg show rawdg -d d7 rawdg
paris-1# /usr/cluster/lib/dcs/cldg show rawdg -d d8 rawdg

Ajout et enregistrement d'un groupe de


priphriques rpliqu (ZFS)
Pour rpliquer ZFS, vous devez crer un groupe de priphriques nomm et rpertorier les
disques qui appartiennent au zpool. Un priphrique ne peut appartenir qu' un seul groupe de
priphriques la fois. Ainsi, s'il appartient dj un groupe de priphriques Oracle Solaris
Cluster, vous devez le supprimer avant de l'ajouter un nouveau groupe de priphriques ZFS.
Le nom du groupe de priphriques Oracle Solaris Cluster que vous crez (Solaris Volume
Manager, Veritas Volume Manager ou disque brut) doit tre identique celui du groupe de
priphriques rpliqu.
Attention La prise en charge complte de ZFS avec les technologies de rplication de donnes

tierces est en suspens. Les notes de version Oracle Solaris Cluster les plus rcentes contiennent
les toutes dernires informations sur la prise en charge de ZFS.
1

Supprimez les groupes de priphriques par dfaut qui correspondent aux priphriques dans
le zpool.
Par exemple, si un zpool appel mypool contient les deux priphriques /dev/did/dsk/d2 et
/dev/did/dsk/d13, vous devez supprimer les deux groupes de priphriques par dfaut d2 et
d3.
# cldevicegroup offline dsk/d2 dsk/d13
# cldevicegroup remove dsk/d2 dsk/d13

Crez un groupe de priphriques nomm avec des DID correspondant ceux du groupe de
priphriques supprim l'tape 1.
# cldevicegroup create -d d2,d13 -t rawdisk mypool

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

135

Administration de groupes de priphriques

Un groupe de priphriques appel mypool (nom du zpool) est alors cr pour administrer les
priphriques bruts /dev/did/dsk/d2 et /dev/did/dsk/d13.
3

Crez un zpool contenant ces priphriques.


# zpool create mypool mirror /dev/did/dsk/d2 /dev/did/dsk/d13

Crez un groupe de ressources pour grer la migration des priphriques rpliqus (dans le
groupe de priphriques) avec uniquement des zones globales dans sa liste de nuds.
# clrg create -n pnode1,pnode2 migrate_truecopydg-rg

Crez une ressource hasp-rs dans le groupe de ressources que vous avez cr l'tape 4, en
dfinissant la proprit globaldevicepaths sur un groupe de priphriques du type disque
brut. Vous avez cr ce groupe de priphriques l'tape 2.
# clrs create -t HAStoragePlus -x globaldevicepaths=mypool -g \
migrate_truecopydg-rg hasp2migrate_mypool

Si le groupe de ressources de l'application doit s'excuter dans des zones locales, crez un
nouveau groupe de ressources avec la liste de nuds contenant les zones locales appropries.
Les zones globales correspondant aux zones locales doivent figurer dans la liste des nuds du
groupe de ressources cr l'tape 4. Au lieu de ce groupe de ressources, dfinissez la valeur
+++ dans la proprit rg_affinities sur le groupe de ressources cr l'tape 4.
# clrg create -n pnode1:zone-1,pnode2:zone-2 -p \
RG_affinities=+++migrate_truecopydg-rg sybase-rg

Crez une ressource HAStoragePlus (hasp-rs) pour le zpool cr l'tape 3 dans le groupe de
ressources cr l'tape 4 ou 6. Dfinissez la proprit resource_dependencies sur la ressource
hasp-rs cre l'tape 5.
# clrs create -g sybase-rg -t HAStoragePlus -p zpools=mypool \
-p resource_dependencies=hasp2migrate_mypool \
-p ZpoolsSearchDir=/dev/did/dsk hasp2import_mypool

Utilisez le nouveau nom de groupe de priphriques lorsqu'un nom de groupe de priphriques


est ncessaire.

Cration d'un groupe de disques lors de l'initialisation


des disques (Veritas Volume Manager)
Remarque Cette procdure concerne uniquement l'initialisation des disques. Pour encapsuler
des disques, reportez-vous la procdure Cration d'un groupe de disques lors de
l'encapsulation des disques (Veritas Volume Manager) la page 141.

136

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Aprs l'ajout du groupe de disques VxVM, vous devez enregistrer le groupe de priphriques.
Si vous configurez des groupes de disques partags pour Oracle RAC l'aide de VxVM, utilisez
la fonction de cluster de VxVM comme dcrit dans le Veritas Volume Manager Administrator's
Reference Guide.
1

Connectez-vous en tant que superutilisateur un nud du cluster connect physiquement aux


disques constituant le groupe de disques en cours d'ajout.

Crez le volume et le groupe de disques VxVM.


Crez le volume et le groupe de disques selon la mthode qui vous convient le mieux.
Remarque Dans le cadre de la configuration d'un volume mis en miroir, vous pouvez rduire la
dure de reprise du volume aprs la dfaillance d'un nud l'aide du journal des zones
modifies (DRL, Dirty Region Logging). Toutefois, le DRL risque de rduire la capacit de
traitement d'E/S.

La documentation Veritas Volume Manager contient les procdures permettant d'effectuer


cette tape.
3

Enregistrez le groupe de disques VxVM en tant que groupe de priphriques Oracle Solaris
Cluster.
Reportez-vous la section Enregistrement d'un groupe de disques en tant que groupe de
priphriques (Veritas Volume Manager) la page 145.
N'enregistrez pas les groupes de disques partags Oracle RAC avec la structure du cluster.

Maintenance des groupes de priphriques


Vous pouvez raliser diverses tches d'administration de vos groupes de priphriques.

Suppression et annulation de l'enregistrement d'un


groupe de priphriques (Solaris Volume Manager)
Les groupes de priphriques sont des ensembles de disques Solaris Volume Manager
enregistrs avec Oracle Solaris Cluster. Pour supprimer un groupe de priphriques Solaris
Volume Manager, servez-vous des commandes metaclear et metaset. Ces commandes
suppriment le groupe de priphriques du mme nom et annule l'enregistrement du groupe de
disques en tant que groupe de priphriques Oracle Solaris Cluster.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

137

Administration de groupes de priphriques

La documentation Solaris Volume Manager dcrit la procdure suivre pour supprimer un


ensemble de disques.

Suppression d'un nud de tous les groupes de


priphriques
Procdez comme suit pour supprimer un nud du cluster de tous les groupes de priphriques
rpertoriant ce nud dans leur liste des nuds principaux potentiels.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur le nud que vous supprimez en tant que
nud principal potentiel de tous les groupes de priphriques.

Dterminez le ou les groupes auxquels appartient le nud supprimer.


Recherchez le nom du nud dans la liste des nuds de groupe de priphriques pour
chaque groupe de priphriques.
# cldevicegroup list -v

Si des groupes de priphriques identifis l'tape 2 sont du type SVM, suivez la procdure
dcrite la section Suppression d'un nud d'un groupe de priphriques (Solaris Volume
Manager) la page 139 pour chacun d'eux.

Si des groupes de priphriques identifis l'tape 2 sont du type VxVM, suivez la procdure
dcrite la section Suppression d'un nud d'un groupe de priphriques (Veritas Volume
Manager) la page 155 pour chacun d'eux.

Dterminez les groupes de disques de priphrique brut auxquels appartient le nud


supprimer.
# cldevicegroup list -v

138

Si des groupes de priphriques rpertoris l'tape 5 sont de type Disk ou Local_Disk, suivez
la procdure dcrite la section Suppression d'un nud d'un groupe de priphriques de
disque brut la page 157 pour chacun d'eux.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Vrifiez que le nud a t supprim de la liste des nuds principaux potentiels de tous les
groupes de priphriques.
La commande ne renvoie aucun lment si le nud n'est plus rpertori en tant que nud
principal potentiel d'un groupe de priphriques.
# cldevicegroup list -v nodename

Suppression d'un nud d'un groupe de priphriques


(Solaris Volume Manager)
Procdez comme suit pour supprimer un nud du cluster dans la liste des nuds principaux
potentiels d'un groupe de priphriques Solaris Volume Manager. Rexcutez la commande
metaset pour chaque groupe de priphriques duquel vous souhaitez supprimer le nud.
Attention N'excutez pas la commande metaset s setname f -t sur un nud initialis en
dehors du cluster si d'autres nuds du cluster sont actifs et que l'un d'eux au moins possde
l'ensemble de disques.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Vrifiez que le nud appartient toujours au groupe de priphriques et que ce dernier est un
groupe de priphriques Solaris Volume Manager.
Le type de groupe de priphriques SDS/SVM indique un groupe de priphriques Solaris
Volume Manager.
phys-schost-1% cldevicegroup show devicegroup

Identifiez le nud principal actuel du groupe de priphriques.


# cldevicegroup status devicegroup

Connectez-vous en tant que superutilisateur au nud qui possde le groupe de priphriques


modifier.

Supprimez le nom d'hte du nud dans le groupe de priphriques.


# metaset -s setname -d -h nodelist

-s setname

Spcifie le nom du groupe du priphrique.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

139

Administration de groupes de priphriques

-d

Supprime du groupe de priphriques les nuds identifis avec la


commande -h.

-h nodelist

Spcifie le nom du ou des nuds qui seront supprims.

Remarque La mise jour peut prendre plusieurs minutes.

En cas d'chec de la commande, ajoutez-lui l'option -f (force).


# metaset -s setname -d -f -h nodelist
5

Renouvelez l'tape 4 pour chaque groupe de priphriques duquel le nud est supprim en
tant que nud principal potentiel.

Vrifiez que le nud a t supprim du groupe de priphriques.


Le nom du groupe de priphriques correspond celui de l'ensemble de disques spcifi l'aide
de la commande metaset.
phys-schost-1% cldevicegroup list -v devicegroup

Exemple 523

Suppression d'un nud d'un groupe de priphriques (Solaris Volume Manager)


L'exemple suivant illustre la suppression du nom d'hte phys-schost-2 d'une configuration de
groupe de priphriques. Dans cet exemple, phys-schost-2 est supprim en tant que nud
principal potentiel du groupe de priphriques dsign. Vrifiez que le nud a t supprim
l'aide de la commande cldevicegroup show. Vrifiez que le nud supprim ne s'affiche plus
l'cran.
[Determine the Solaris Volume Manager
device group for the node:]
# cldevicegroup show dg-schost-1
=== Device Groups ===
Device Group Name:
dg-schost-1
Type:
SVM
failback:
no
Node List:
phys-schost-1, phys-schost-2
preferenced:
yes
numsecondaries:
1
diskset name:
dg-schost-1
[Determine which node is the current primary for the device group:]
# cldevicegroup status dg-schost-1
=== Cluster Device Groups ===
--- Device Group Status --Device Group Name
----------------dg-schost-1

140

Primary
------phys-schost-1

Secondary
Status
-------------phys-schost-2 Online

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

[Become superuser on the node that currently owns the device group.]
[Remove the host name from the device group:]
# metaset -s dg-schost-1 -d -h phys-schost-2
[Verify removal of the node:]]
phys-schost-1% cldevicegroup list -v dg-schost-1
=== Cluster Device Groups ===
--- Device Group Status --Device Group Name
----------------dg-schost-1

Primary
------phys-schost-1

Secondary
---------

Status
-----Online

Cration d'un groupe de disques lors de


l'encapsulation des disques (Veritas Volume Manager)
Remarque Cette procdure concerne uniquement l'encapsulation des disques. Pour initialiser
des disques, reportez-vous la procdure Cration d'un groupe de disques lors de
l'initialisation des disques (Veritas Volume Manager) la page 136.

Vous pouvez convertir des disques non racines en groupes de priphriques Oracle Solaris
Cluster. Pour cela, encapsulez les disques en tant que groupes de disques VxVM que vous
enregistrez ensuite en tant que groupes de priphriques Oracle Solaris Cluster.
L'encapsulation de disque est prise en charge lors de la cration initiale d'un groupe de disques
VxVM et dans ce cas uniquement. Aprs la cration d'un groupe de disques VxVM et son
enregistrement en tant que groupe de priphriques Oracle Solaris Cluster, vous ne devez
ajouter au groupe de disques que les disques initialisables.
Si vous configurez des groupes de disques partags pour Oracle RAC l'aide de VxVM, utilisez
la fonction de cluster de VxVM comme dcrit dans le Veritas Volume Manager Administrator's
Reference Guide.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

141

Administration de groupes de priphriques

Si le disque en cours d'encapsulation possde des entres de systme de fichiers dans le fichier
/etc/vfstab, assurez-vous que l'option mount at boot est dfinie sur no.
Restaurez la valeur yes une fois le disque encapsul et enregistr en tant que groupe de
priphriques Oracle Solaris Cluster.

Encapsulez les disques.


Pour cela, faites appel aux menus vxdiskadm ou l'interface utilisateur graphique. VxVM
ncessite deux partitions libres et des cylindres non assigns en dbut ou fin de disque. La
tranche 2 doit tre dfinie sur le disque entier. Pour plus d'informations, reportez-vous la page
de manuel vxdiskadm.

Fermez le nud, puis redmarrez-le.


La commande clnode evacuate commute tous les groupes de ressources et groupes de
priphriques, y compris les nuds non votant dans un cluster global, du nud spcifi au
nud prfr suivant. Fermez le nud, puis redmarrez-le l'aide de la commande shutdown.
# clnode evacuate node[,...]
# shutdown -g0 -y -i6

Si ncessaire, commutez nouveau tous les groupes de ressources et les groupes de


priphriques sur le nud d'origine.
Cette tape n'est pas ncessaire si les groupes de ressources et les groupes de priphriques
taient configurs au dpart pour basculer sur le nud principal.
# cldevicegroup switch -n node devicegroup
# clresourcegroup switch -z zone -n node resourcegroup

node

Nom du nud.

zone

Nom du nud non votant, node, qui peut administrer le groupe de ressources.
Spcifiez la zone uniquement si vous avez indiqu un nud non votant lors de la
cration du groupe de ressources.

Enregistrez le groupe de disques VxVM en tant que groupe de priphriques Oracle Solaris
Cluster.
Reportez-vous la section Enregistrement d'un groupe de disques en tant que groupe de
priphriques (Veritas Volume Manager) la page 145.
N'enregistrez pas les groupes de disques partags Oracle RAC avec la structure du cluster.

142

Si vous avez dfini l'option mount at boot sur no l'tape 2, redfinissez-la sur yes.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Ajout d'un nouveau volume un groupe de


priphriques existant (Veritas Volume Manager)
Lorsque vous ajoutez un nouveau volume un groupe de priphriques VxVM existant,
excutez la procdure suivante partir du nud principal du groupe de priphriques en ligne.
Remarque Pour ajouter le volume, vous devez enregistrer la modification de la configuration
selon la procdure Enregistrement des modifications apportes la configuration d'un groupe
de disques (Veritas Volume Manager) la page 148.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.read et solaris.cluster.administer sur un nud du
cluster.

Dterminez le nud principal du groupe de priphriques auquel vous ajoutez le nouveau


volume.
# cldevicegroup status

Si le groupe de priphriques est dconnect, mettez-le en ligne.


# cldevicegroup switch -n nodename devicegroup

nodename

Spcifie le nom du nud sur lequel vous souhaitez commuter le groupe de


priphriques. Ce nud devient le nud principal.

devicegroup

Spcifie le groupe des priphriques commuter.

partir du nud principal (celui qui administre le groupe de priphriques), crez le volume
VxVM dans le groupe de disques.
La documentation Veritas Volume Manager contient la procdure de cration du volume
VxVM.

Synchronisez les modifications apportes au groupe de disques VxVM pour mettre jour
l'espace de noms global.
# cldevicegroup sync

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

143

Administration de groupes de priphriques

Enregistrement des modifications apportes la configuration d'un groupe de disques (Veritas


Volume Manager) la page 148.

Conversion d'un groupe de disques en groupe de


priphriques (Veritas Volume Manager)
Vous pouvez convertir un groupe de disques VxVM existant en groupe de priphriques Oracle
Solaris Cluster. Pour cela, vous devez l'importer sur le nud actuel, puis l'enregistrer en tant
que groupe de priphriques Oracle Solaris Cluster.

Connectez-vous en tant que superutilisateur un nud du cluster.

Importez le groupe de disques VxVM sur le nud actuel.


# vxdg import diskgroup

Enregistrez le groupe de disques VxVM en tant que groupe de priphriques Oracle Solaris
Cluster.
Reportez-vous la section Enregistrement d'un groupe de disques en tant que groupe de
priphriques (Veritas Volume Manager) la page 145.

Assignation d'un nouveau code mineur un groupe


de priphriques (Veritas Volume Manager)
Si l'enregistrement d'un groupe de priphriques a chou parce que son code mineur entrait en
conflit avec celui d'un autre groupe de disques, vous devez rassigner au nouveau groupe de
disques un code mineur qui n'est pas encore utilis. Une fois le nouveau code mineur assign,
renouvelez la procdure d'enregistrement du groupe de disques en tant que groupe de
priphriques Oracle Solaris Cluster.

Connectez-vous en tant que superutilisateur un nud du cluster.

Identifiez les codes mineurs en cours d'utilisation.


# ls -l /global/.devices/node@nodeid/dev/vx/dsk/*

Choisissez un multiple de 1000 non utilis comme code mineur de base du nouveau groupe de
disques.

Assignez le nouveau code mineur au groupe de disques.


# vxdg reminor diskgroup base-minor-number

144

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Exemple 524

Enregistrez le groupe de disques VxVM en tant que groupe de priphriques Oracle Solaris
Cluster.
Reportez-vous la section Enregistrement d'un groupe de disques en tant que groupe de
priphriques (Veritas Volume Manager) la page 145.

Assignation d'un nouveau code mineur un groupe de priphriques


Cet exemple utilise les codes mineurs 16000 16002 et 4000 4001. La commande vxdg
reminor permet d'assigner le code mineur de base 5000 au nouveau groupe de priphriques.
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
/global/.devices/node@nodeid/dev/vx/dsk/dg1
brw------- 1 root
root
56,16000 Oct 7 11:32 dg1v1
brw------- 1 root
root
56,16001 Oct 7 11:32 dg1v2
brw------- 1 root
root
56,16002 Oct 7 11:32 dg1v3
/global/.devices/node@nodeid/dev/vx/dsk/dg2
brw------- 1 root
root
56,4000 Oct 7 11:32 dg2v1
brw------- 1 root
root
56,4001 Oct 7 11:32 dg2v2
# vxdg reminor dg3 5000

Enregistrement d'un groupe de disques en tant que


groupe de priphriques (Veritas Volume Manager)
Au cours de cette procdure, vous enregistrez le groupe de disques VxVM associ en tant que
groupe de priphriques Oracle Solaris Cluster l'aide de l'utilitaire clsetup.
Remarque Une fois un groupe de priphriques enregistr avec le cluster, n'importez ni
n'exportez jamais un groupe de disques VxVM l'aide des commandes VxVM. Si vous modifiez
le volume ou le groupe de disques VxVM, suivez la procdure Enregistrement des
modifications apportes la configuration d'un groupe de disques (Veritas Volume Manager)
la page 148 pour enregistrer les modifications apportes la configuration du groupe de
priphriques. Cette procdure garantit que l'tat de l'espace de noms global est correct.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

145

Administration de groupes de priphriques

Avant de
commencer

Avant d'enregistrer un groupe de priphriques VxVM, vrifiez que les prrequis suivants ont
t satisfaits :

Privilge de superutilisateur sur un nud du cluster ;

Nom du groupe de disques VxVM enregistrer en tant que groupe de priphriques ;

Ordre prfr des nuds pour administrer le groupe de priphriques ;

Nombre souhait des nuds secondaires pour le groupe de priphriques.

Lorsque vous dfinissez l'ordre de prfrence, vous spcifiez galement si le groupe de


priphriques doit commuter nouveau sur le nud prfr en cas d'chec et de retour
ultrieur sur le cluster de ce dernier.
Pour plus d'informations sur les options de rtablissement et de prfrence de nud,
reportez-vous la page de manuel cldevicegroup(1CL).
Les nuds de cluster non principaux (disponibles) passent en nuds secondaires en fonction
de l'ordre de prfrence des nuds. Par dfaut, un groupe de priphriques compte un seul
nud secondaire. Cela permet de minimiser les risques de dgradation des performances lis
l'application de points de contrle principaux sur plusieurs nuds secondaires en
fonctionnement normal. Par exemple, la configuration par dfaut d'un cluster quatre nuds
est un nud principal, un nud secondaire et deux nuds disponibles. Reportez-vous
galement la section Dfinition du nombre souhait de nuds secondaires pour un groupe
de priphriques la page 160.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


3

Pour utiliser des groupes de priphriques VxVM, tapez le numro correspondant l'option des
volumes et groupes de priphriques.
Le menu Groupes de priphriques s'affiche.

Pour enregistrer un groupe de priphriques VxVM, tapez le numro correspondant l'option


d'enregistrement d'un groupe de disques VxVM en tant que groupe de priphriques.
Suivez les instructions et tapez le nom du groupe de disques VxVM enregistrer en tant que
groupe de priphriques Oracle Solaris Cluster.
Si ce groupe de priphriques est rpliqu l'aide de la rplication base sur le stockage, ce nom
doit correspondre au nom du groupe de rplication.

146

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Si vous utilisez VxVM pour configurer des groupes de disques partags pour Oracle Parallel
Server/Oracle RAC, vous n'enregistrez pas les groupes de disques partags avec la structure du
cluster. Servez-vous de la fonctionnalit de cluster de VxVM, comme dcrit dans le Veritas
Volume Manager Administrator's Reference Guide.
5

Si l'erreur suivante se produit lors de la tentative d'enregistrement du groupe de priphriques,


attribuez un autre code mineur celui-ci.
cldevicegroup: Failed to add device group - in use

Pour attribuer un autre code mineur au groupe de priphriques, reportez-vous la procdure


Assignation d'un nouveau code mineur un groupe de priphriques (Veritas Volume
Manager) la page 144. Cette procdure permet d'assigner un nouveau code mineur qui ne
cre pas de conflit avec celui d'un groupe de priphriques existant.
6

Si vous configurez un groupe de priphriques rpliqu, dfinissez la proprit de rplication


pour le groupe en question.
# cldevicegroup sync devicegroup

Vrifiez que le groupe de priphriques est enregistr et connect.


Si le groupe de priphriques est enregistr correctement, des informations le concernant
s'affichent lorsque vous utilisez la commande suivante.
# cldevicegroup status devicegroup
Remarque Si vous modifiez des informations de configuration concernant un volume ou un
groupe de disques VxVM enregistr avec le cluster, vous devez synchroniser le groupe de
priphriques l'aide de la commande clsetup. Les modifications de la configuration incluent
l'ajout ou la suppression de volumes, mais aussi la modification du groupe, du propritaire ou
des permissions de volumes existants. Pour garantir que l'tat de l'espace de noms global est
correct, renregistrez la configuration aprs toute modification. Reportez-vous la section
Mise jour de l'espace de noms des priphriques globaux la page 126.

Exemple 525

Enregistrement d'un groupe de priphriques Veritas Volume Manager


L'exemple suivant illustre la commande cldevicegroup gnre par clsetup lors de
l'enregistrement d'un groupe de priphriques VxVM (dg1) et l'tape de vrification. Il part du
principe que le volume et le groupe de disques VxVM sont dj crs.
# clsetup
# cldevicegroup create -t vxvm -n phys-schost-1,phys-schost-2 -p failback=true dg1
# cldevicegroup status dg1
=== Cluster Device Groups ===
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

147

Administration de groupes de priphriques

--- Device Group Status --Device Group Name


----------------dg1
Voir aussi

Primary
Secondary
Status
-------------------phys-schost-1 phys-schost-2 Online

Pour crer un systme de fichiers du cluster sur le groupe de priphriques VxVM,


reportez-vous la section Ajout d'un systme de fichiers du cluster la page 174.
En cas de problme avec le code mineur, reportez-vous la section Assignation d'un nouveau
code mineur un groupe de priphriques (Veritas Volume Manager) la page 144.

Enregistrement des modifications apportes la


configuration d'un groupe de disques (Veritas Volume
Manager)
Lorsque vous modifiez des informations de configuration d'un volume ou d'un groupe de
disques VxVM, vous devez enregistrer vos modifications pour le groupe de disques Oracle
Solaris Cluster. L'enregistrement garantit que l'tat de l'espace de noms global est correct.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


3

148

Pour utiliser des groupes de priphriques VxVM, tapez le numro correspondant l'option des
volumes et groupes de priphriques.
Le menu Groupes de priphriques s'affiche.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Pour enregistrer les modifications que vous apportez la configuration, tapez le numro
correspondant l'option de synchronisation des informations de volume d'un groupe de
priphriques VxVM.
Suivez les instructions et tapez le nom du groupe de disques VxVM dont la configuration a t
modifie.

Exemple 526

Enregistrement des modifications apportes la configuration d'un groupe de


disques Veritas Volume Manager
L'exemple suivant illustre la commande cldevicegroup gnre par clsetup lors de
l'enregistrement d'un groupe de priphriques VxVM modifi (dg1). Il part du principe que le
volume et le groupe de disques VxVM sont dj crs.
# clsetup
cldevicegroup sync dg1

Conversion d'un groupe de disques local en groupe de


priphriques (VxVM)
La procdure suivante permet de modifier un groupe de disques VxVM local en groupe de
priphriques VxVM accessible globalement.

Connectez-vous en tant que superutilisateur un nud du cluster.

Dmarrez l'utilitaire clsetup.


# clsetup

Annulez le paramtrage de la proprit localonly.


a. Choisissez l'option de menu Volumes et groupes de priphriques.
b. Choisissez l'option de menu Rinitialisez un groupe de disques local en un groupe de
disques VxVM.
c. Suivez les instructions pour annuler le paramtrage de la proprit localonly.

Spcifiez les nuds qui peuvent administrer le groupe de disques.


a. Retournez au menu principal de l'utilitaire clsetup.
b. Choisissez l'option de menu Volumes et groupes de priphriques.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

149

Administration de groupes de priphriques

c. Choisissez l'option de menu Enregistrer un groupe de disques VxVM en tant que groupe de
priphriques.
d. Suivez les instructions pour spcifier les nuds qui peuvent administrer le groupe de
disques.
e. Lorsque vous avez termin, quittez l'utilitaire clsetup.
5

Vrifiez que le groupe de priphriques est configur.


phys-schost# cldevicegroup show

Conversion d'un groupe de priphriques en groupe


de disques local (VxVM)
La procdure suivante permet de remplacer un groupe de priphriques VxVM par un groupe
de disques VxVM non gr par le logiciel Oracle Solaris Cluster. Mme si sa liste de nuds
contient plusieurs nuds, le groupe de disques local ne peut tre administr que par un seul
nud la fois.

Connectez-vous en tant que superutilisateur un nud du cluster.

Mettez le groupe de priphriques hors ligne.


phys-schost# cldevicegroup offline devicegroup

Annulez l'enregistrement du groupe de priphriques.


a. Dmarrez l'utilitaire clsetup.
phys-schost# clsetup

b. Choisissez l'option de menu Volumes et groupes de priphriques.


c. Choisissez l'option de menu Supprimer un groupe de disques VxVM en tant que groupe de
priphriques.
d. Suivez les instructions pour spcifier le groupe de disques VxVM dont vous annulez
l'enregistrement dans le logiciel Oracle Solaris Cluster.
e. Quittez l'utilitaire clsetup.
4

Vrifiez que le groupe de disques n'est plus enregistr dans Oracle Solaris Cluster.
phys-schost# cldevicegroup status

150

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

La sortie de la commande ne doit plus afficher le groupe de priphriques dont vous avez annul
l'enregistrement.
5

Importez le groupe de disques.


phys-schost# vxdg import diskgroup

Dfinissez la proprit localonly du groupe de disques.


a. Dmarrez l'utilitaire clsetup.
phys-schost# clsetup

b. Choisissez l'option de menu Volumes et groupes de priphriques.


c. Choisissez l'option de menu Dfinissez un groupe de disques VxVM en tant que groupe de
disques local.
d. Suivez les instructions pour dfinir la proprit localonly et spcifier le nud qui doit
administrer exclusivement le groupe de disques.
e. Lorsque vous avez termin, quittez l'utilitaire clsetup.
7

Vrifiez que le groupe de disques est configur en tant que groupe de disques local.
phys-schost# vxdg list diskgroup

Suppression d'un volume d'un groupe de


priphriques (Veritas Volume Manager)
Remarque Une fois le volume supprim du groupe de priphriques, vous devez enregistrer les

modifications apportes la configuration du groupe de priphriques selon la procdure


Enregistrement des modifications apportes la configuration d'un groupe de disques (Veritas
Volume Manager) la page 148.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

151

Administration de groupes de priphriques

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.read et solaris.cluster.modify sur un nud du
cluster.

Dterminez le nud principal et l'tat du groupe de priphriques.


# cldevicegroup status devicegroup

Si le groupe de priphriques est dconnect, mettez-le en ligne.


# cldevicegroup online devicegroup

partir du nud principal (celui qui administre le groupe de priphriques), supprimez le


volume VxVM dans le groupe de disques.
# vxedit -g diskgroup -rf rm volume

-g diskgroup

Spcifie le groupe de disques VxVM qui contient le volume.

-rf rm volume

Supprime le volume spcifi. Utilisez l'option -r pour que l'opration soit


rcursive. L'option -f est ncessaire pour supprimer un volume activ.

l'aide de l'utilitaire clsetup, enregistrez les modifications apportes la configuration du


groupe de priphriques pour mettre jour l'espace de noms global.
Reportez-vous la section Enregistrement des modifications apportes la configuration d'un
groupe de disques (Veritas Volume Manager) la page 148.

Suppression et annulation de l'enregistrement d'un


groupe de priphriques (Veritas Volume Manager)
La suppression d'un groupe de priphriques Oracle Solaris Cluster entrane l'exportation (non
la destruction) du groupe de disques VxVM correspondant. Toutefois, bien qu'il existe
toujours, le groupe de disques VxVM ne peut tre utilis tant qu'il n'est pas enregistr.
Au cours de la procdure suivante, l'utilitaire clsetup permet de supprimer un groupe de
disques VxVM et d'annuler son enregistrement en tant que groupe de priphriques Oracle
Solaris Cluster.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

152

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Mettez le groupe de priphriques hors ligne.


# cldevicegroup offline devicegroup

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


4

Pour utiliser des groupes de priphriques VxVM, tapez le numro correspondant l'option des
volumes et groupes de priphriques.
Le menu Groupes de priphriques s'affiche.

Exemple 527

Pour annuler l'enregistrement d'un groupe de disques VxVM, tapez le numro correspondant
l'option d'annulation de l'enregistrement d'un groupe de priphriques VxVM.
Suivez les instructions et tapez le nom du groupe de disques VxVM dont vous souhaitez
annuler l'enregistrement.

Suppression et annulation de l'enregistrement d'un groupe de priphriques


Veritas Volume Manager
L'exemple suivant illustre la mise hors ligne du groupe de disques VxVM dg1 et la commande
cldevicegroup gnre par clsetup lors de la suppression du groupe de priphriques et de
l'annulation de son enregistrement.
# cldevicegroup offline dg1
# clsetup
cldevicegroup delete dg1

Ajout d'un nud un groupe de priphriques


(Veritas Volume Manager)
Lors de cette procdure, un nud est ajout un groupe de priphriques l'aide de l'utilitaire
clsetup.
Pour ajouter un nud un groupe de priphriques VxVM, les prrequis suivants doivent tre
satisfaits :

Privilge de superutilisateur sur un nud du cluster ;


Nom du groupe de disques VxVM auquel le nud doit tre ajout ;
Nom ou ID des nuds ajouter.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

153

Administration de groupes de priphriques

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.read et solaris.cluster.modify sur un nud du
cluster.

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


3

Pour utiliser des groupes de priphriques VxVM, tapez le numro correspondant l'option des
volumes et groupes de priphriques.
Le menu Groupes de priphriques s'affiche.

Pour ajouter un nud un groupe de priphriques VxVM, tapez le numro correspondant


l'option d'ajout de nud un groupe de priphriques VxVM.
Suivez les instructions et entrez les noms du groupe de priphriques et du nud.

Vrifiez que le nud a t ajout.


Examinez les informations sur le groupe de priphriques du nouveau disque, qui s'affichent
suite l'excution de la commande ci-dessous.
# cldevicegroup show devicegroup

Exemple 528

Ajout d'un nud un groupe de priphriques Veritas Volume Manager


L'exemple suivant illustre la commande cldevicegroup gnre par clsetup lors de l'ajout
d'un nud (phys-schost-3) un groupe de priphriques VxVM (dg1) et l'tape de
vrification.
# clsetup
cldevicegroup add-node -n phys-schost-3 dg1
# cldevicegroup show dg1
=== Device Groups ===
Device Group Name:
Type:
failback:
Node List:
preferenced:

154

dg1
VxVM
yes
phys-schost-1, phys-schost-3
no

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

numsecondaries:
diskgroup names:

1
dg1

Suppression d'un nud d'un groupe de priphriques


(Veritas Volume Manager)
Cette procdure permet de supprimer un nud de cluster de la liste des nuds principaux
potentiels d'un groupe de priphriques (groupe de disques) Veritas Volume Manager
(VxVM).
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Vrifiez que le nud appartient toujours au groupe et que ce dernier est un groupe de
priphriques VxVM.
Le type de groupe de priphriques VxVM indique un groupe de priphriques VxVM.
phys-schost-1% cldevicegroup show devicegroup

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.read et solaris.cluster.modify sur un nud
appartenant au cluster.

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


4

Pour reconfigurer un groupe de priphriques, tapez le numro correspondant l'option des


volumes et groupes de priphriques.

Pour supprimer un nud d'un groupe de priphriques VxVM, tapez le numro correspondant
l'option de suppression de nud d'un groupe de priphriques VxVM.
Rpondez aux invites pour supprimer le nud du cluster du groupe de priphriques. Vous tes
invit fournir les informations suivantes :

Groupe de priphriques VxVM


Nom du nud

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

155

Administration de groupes de priphriques

Vrifiez que le nud a t supprim du ou des groupes de priphriques VxVM.


# cldevicegroup show devicegroup

Exemple 529

Suppression d'un nud d'un groupe de priphriques (VxVM)


L'exemple suivant illustre la suppression du nud nomm phys-schost-1 du groupe de
priphriques VxVM dg1.
[Determine the VxVM device group for the node:]
# cldevicegroup show dg1
=== Device Groups ===
Device Group Name:
dg1
Type:
VXVM
failback:
no
Node List:
phys-schost-1, phys-schost-2
preferenced:
no
numsecondaries:
1
diskgroup names:
dg1
[Become superuser and start the clsetup utility:]
# clsetup
Select Device groups and volumes>Remove a node from a VxVM device group.
Answer the questions when prompted.
You will need the following information.
Name:
Example:
VxVM device group name
dg1
node names
phys-schost-1
[Verify that the cldevicegroup command executed properly:]
cldevicegroup remove-node -n phys-schost-1 dg1
Command completed successfully.
Dismiss the clsetup Device Groups Menu and Main Menu.
[Verify that the node was removed:]
# cldevicegroup show dg1
=== Device Groups ===
Device Group Name:
Type:
failback:
Node List:
preferenced:
numsecondaries:
device names:

156

dg1
VXVM
no
phys-schost-2
no
1
dg1

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Suppression d'un nud d'un groupe de priphriques


de disque brut
Procdez comme suit pour supprimer un nud du cluster dans la liste des nuds principaux
potentiels d'un groupe de priphriques de disque brut.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.read et solaris.cluster.modify sur un nud du
cluster autre que le nud supprimer.

Identifiez les groupes de priphriques connects au nud en cours de suppression et


dterminez les groupes de priphriques de disque brut.
# cldevicegroup show -n nodename -t rawdisk +

Dsactivez la proprit localonly sur chaque groupe de priphriques de disque brut


Local_Disk.
# cldevicegroup set -p localonly=false devicegroup

Reportez-vous la page de manuel cldevicegroup(1CL) pour plus d'informations sur la


proprit localonly.
4

Vrifiez que vous avez dsactiv la proprit localonly de tous les groupes de priphriques
de disque brut connects au nud en cours de suppression.
Le type de groupe de priphriques Disk indique que la proprit localonly est dsactive
pour ce groupe de priphriques de disque brut.
# cldevicegroup show -n nodename -t rawdisk -v +

Supprimez le nud de tous les groupes de priphriques de disque brut identifis l'tape 2.
Vous devez effectuer cette tape pour chaque groupe de priphriques de disque brut connect
au nud en cours de suppression.
# cldevicegroup remove-node -n nodename devicegroup

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

157

Administration de groupes de priphriques

Exemple 530

Suppression d'un nud d'un groupe de priphriques de disque brut


Cet exemple illustre la suppression d'un nud (phys-schost-2) d'un groupe de priphriques
de disque brut. Toutes les commandes sont excutes partir d'un autre nud du cluster
(phys-schost-1).

[Identify the device groups connected to the node being removed, and determine which are raw-disk
device groups:]
phys-schost-1# cldevicegroup show -n phys-schost-2 -t rawdisk -v +
Device Group Name:
dsk/d4
Type:
Disk
failback:
false
Node List:
phys-schost-2
preferenced:
false
localonly:
false
autogen
true
numsecondaries:
1
device names:
phys-schost-2
Device Group Name:
Type:
failback:
Node List:
preferenced:
localonly:
autogen
numsecondaries:
diskgroup name:

dsk/d2
VxVM
true
pbrave2
false
false
true
1
vxdg1

Device Group Name:


dsk/d1
Type:
SVM
failback:
false
Node List:
pbrave1, pbrave2
preferenced:
true
localonly:
false
autogen
true
numsecondaries:
1
diskset name:
ms1
(dsk/d4) Device group node list: phys-schost-2
(dsk/d2) Device group node list: phys-schost-1, phys-schost-2
(dsk/d1) Device group node list: phys-schost-1, phys-schost-2
[Disable the localonly flag for each local disk on the node:]
phys-schost-1# cldevicegroup set -p localonly=false dsk/d4
[Verify that the localonly flag is disabled:]
phys-schost-1# cldevicegroup show -n phys-schost-2 -t rawdisk +
(dsk/d4) Device group type:
Disk
(dsk/d8) Device group type:
Local_Disk
[Remove the node from all raw-disk device groups:]
phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d4
phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d2
phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d1

158

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Modification des proprits des groupes de


priphriques
La mthode permettant d'tablir la proprit principale d'un groupe de priphriques repose
sur la configuration d'un attribut de prfrence de proprit appel preferenced. Si l'attribut
n'est pas dfini, le propritaire principal d'un groupe de priphriques qui n'appartiendrait
autrement aucun nud est le premier nud qui essaie d'accder un disque du groupe.
Toutefois, si l'attribut est dfini, vous devez spcifier l'ordre de prfrence dans lequel les nuds
essaient d'tablir la proprit.
Si vous dsactivez l'attribut preferenced, l'attribut failback est dsactiv automatiquement.
Cependant, si vous essayez d'activer ou de ractiver l'attribut preferenced, vous pouvez choisir
d'activer ou de dsactiver l'attribut failback.
Si l'attribut preferenced est activ ou ractiv, vous devez rtablir l'ordre des nuds dans la
liste de prfrence de proprit principale.
Dans cette procdure, le paramtrage et l'annulation du paramtrage des attributs preferenced
et failback des groupes de priphriques Solaris Volume Manager ou VxVM s'effectuent
l'aide de clsetup.

Avant de
commencer

Pour effectuer cette procdure, vous avez besoin du nom du groupe de priphriques dont vous
modifiez les valeurs d'attribut.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.read et solaris.cluster.modify sur un nud du
cluster.

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


3

Pour utiliser des groupes de priphriques, tapez le numro correspondant l'option des
volumes et groupes de priphriques.
Le menu Groupes de priphriques s'affiche.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

159

Administration de groupes de priphriques

Pour modifier la proprit principale d'un groupe de priphriques, tapez le numro


correspondant l'option de modification des proprits principales d'un groupe de
priphriques VxVM ou Solaris Volume Manager.
Le menu Change Key Properties (Modifier les proprits principales) s'affiche.

Pour modifier la proprit d'un groupe de priphriques, tapez le numro correspondant


l'option de modification des proprits de prfrences et/ou de rtablissement.
Suivez les instructions pour dfinir les options preferenced et failback d'un groupe de
priphriques.

Vrifiez que les attributs du groupe de priphriques ont t modifis.


Examinez les informations sur le groupe de priphriques qui s'affichent suite l'excution de la
commande ci-dessous.
# cldevicegroup show -v devicegroup

Exemple 531

Modification des proprits de groupe de priphriques


L'exemple suivant illustre la commande cldevicegroup gnre par clsetup lors de la
dfinition des valeurs d'attribut d'un groupe de priphriques (dg-schost-1).
# cldevicegroup set -p preferenced=true -p failback=true -p numsecondaries=1 \
-p nodelist=phys-schost-1,phys-schost-2 dg-schost-1
# cldevicegroup show dg-schost-1
=== Device Groups ===
Device Group Name:
Type:
failback:
Node List:
preferenced:
numsecondaries:
diskset names:

dg-schost-1
SVM
yes
phys-schost-1, phys-schost-2
yes
1
dg-schost-1

Dfinition du nombre souhait de nuds secondaires


pour un groupe de priphriques
La proprit numsecondaries spcifie le nombre de nuds au sein d'un groupe de
priphriques qui peuvent administrer ce groupe en cas de panne du nud principal. Par
dfaut, les services de priphriques comptent un seul nud secondaire. Vous pouvez dfinir la
valeur sur un nombre entier compris entre 1 et le nombre de nuds de fournisseur non
principaux oprationnels, prsents dans le groupe de priphriques.

160

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Ce paramtre permet de concilier l'quilibre entre la disponibilit et les performances du


cluster. Par exemple, si vous augmentez le nombre souhait de nuds secondaires, le groupe de
priphriques a davantage de chances de surmonter plusieurs pannes se produisant
simultanment au sein du cluster. En revanche, un nombre de nuds secondaires lev rduit
les performances dans les conditions normales de fonctionnement. Un nombre rduit de
nuds secondaires produit de meilleures performances, mais limite la disponibilit. Toutefois,
un nombre plus lev de nuds secondaires n'a pas toujours pour rsultat une plus grande
disponibilit du systme de fichiers ou du groupe de priphriques en question. Pour plus
d'informations, reportez-vous au Chapitre 3, Key Concepts for System Administrators and
Application Developers du Oracle Solaris Cluster Concepts Guide.
Si vous modifiez la proprit numsecondaries, les nuds secondaires sont ajouts ou
supprims du groupe de priphriques en cas de discordance entre le nombre actuel de nuds
secondaires et le nombre souhait.
Dans cette procdure, l'utilitaire clsetup permet de dfinir la proprit numsecondaries de
tous les types de groupes de priphriques. Pour plus d'informations sur les options de
configuration de tous les types de groupes de priphriques, reportez-vous la page de manuel
cldevicegroup(1CL).
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.read et solaris.cluster.modify sur un nud du
cluster.

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


3

Pour travailler avec des groupes de priphriques, choisissez l'option de menu Volumes et
groupes de priphriques.
Le menu Groupes de priphriques s'affiche.

Pour modifier la proprit principale d'un groupe de priphriques, slectionnez l'option


Modifier les proprits principales d'un groupe de priphriques.
Le menu Change Key Properties (Modifier les proprits principales) s'affiche.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

161

Administration de groupes de priphriques

Pour modifier le nombre souhait de nuds secondaires selon vos besoins, tapez le numro
correspondant l'option de modification de la proprit numsecondaries.
Suivez les instructions et tapez le nombre souhait de nuds secondaires configurer pour le
groupe de priphriques. La commande cldevicegroup est excute, un journal est imprim et
le menu prcdent de l'utilitaire s'affiche nouveau.

Validez la configuration du groupe de priphriques.


# cldevicegroup show dg-schost-1
=== Device Groups ===
Device Group Name:
Type:
failback:
Node List:
preferenced:
numsecondaries:
diskgroup names:

dg-schost-1
VxVm
This might also be SDS or Local_Disk.
yes
phys-schost-1, phys-schost-2 phys-schost-3
yes
1
dg-schost-1

Remarque Si vous modifiez des informations de configuration concernant un volume ou un


groupe de disques VxVM enregistr avec le cluster, vous devez renregistrer le groupe de
priphriques l'aide de la commande clsetup. Les modifications de la configuration incluent
l'ajout ou la suppression de volumes, mais aussi la modification du groupe, du propritaire ou
des permissions de volumes existants. Pour garantir que l'tat de l'espace de noms global est
correct, renregistrez la configuration aprs toute modification. Reportez-vous la section
Mise jour de l'espace de noms des priphriques globaux la page 126.
7

Vrifiez que l'attribut du groupe de priphriques a t modifi.


Examinez les informations sur le groupe de priphriques qui s'affichent suite l'excution de la
commande ci-dessous.
# cldevicegroup show -v devicegroup

Exemple 532

Modification du nombre souhait de nuds secondaires (Solaris Volume Manager)


L'exemple suivant illustre la commande cldevicegroup gnre par clsetup lors de la
configuration du nombre souhait de nuds secondaires pour un groupe de priphriques
donn (dg-schost-1). Il part du principe que le volume et le groupe de disques sont dj crs.
# cldevicegroup set -p numsecondaries=1 dg-schost-1
# cldevicegroup show -v dg-schost-1
=== Device Groups ===
Device Group Name:
Type:
failback:

162

dg-schost-1
SVM
yes

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Node List:
preferenced:
numsecondaries:
diskset names:
Exemple 533

phys-schost-1, phys-schost-2
yes
1
dg-schost-1

Dfinition du nombre souhait de nuds secondaires (Veritas Volume Manager)


L'exemple suivant illustre la commande cldevicegroup gnre par clsetup lors de la
dfinition de deux nuds secondaires pour un groupe de priphriques donn (dg-schost-1).
Pour plus d'informations sur la modification du nombre souhait de nuds secondaires aprs
la cration d'un groupe de priphriques, reportez-vous la section Dfinition du nombre
souhait de nuds secondaires pour un groupe de priphriques la page 160.
# cldevicegroup set -p numsecondaries=2 dg-schost-1
# cldevicegroup show dg-schost-1
=== Device Groups ===
Device Group Name:
Type:
failback:
Node List:
preferenced:
numsecondaries:
diskgroup names:

Exemple 534

dg-schost-1
VxVM
yes
phys-schost-1, phys-schost-2
yes
1
dg-schost-1

Dfinition du nombre souhait de nuds secondaires sur la valeur par dfaut


L'exemple suivant illustre l'utilisation d'une valeur de chane nulle pour configurer le nombre de
nuds secondaires par dfaut. De par sa configuration, le groupe de priphriques utilisera la
valeur par dfaut, mme si elle change.
# cldevicegroup set -p numsecondaries= dg-schost-1
# cldevicegroup show -v dg-schost-1
=== Device Groups ===
Device Group Name:
Type:
failback:
Node List:
preferenced:
numsecondaries:
diskset names:

dg-schost-1
SVM
yes
phys-schost-1, phys-schost-2 phys-schost-3
yes
1
dg-schost-1

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

163

Administration de groupes de priphriques

Affichage sous forme de liste de la configuration d'un


groupe de priphriques
Il n'est pas ncessaire de se connecter en tant que superutilisateur pour dresser la liste de la
configuration. Vous avez nanmoins besoin de l'autorisation solaris.cluster.read.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Utilisez l'une des mthodes rpertories.


Interface graphique Oracle Solaris Cluster Manager
Pour plus d'informations, consultez l'aide en ligne de Oracle Solaris Cluster Manager.
cldevicegroup show
Utilisez la commande cldevicegroup show pour dresser la liste de la configuration de tous
les groupes de priphriques du cluster.
cldevicegroup show devicegroup
Utilisez la commande cldevicegroup show devicegroup pour dresser la liste de la
configuration d'un seul groupe de priphriques.
cldevicegroup status devicegroup
Utilisez la commande cldevicegroup show devicegroup pour dterminer l'tat d'un seul
groupe de priphriques.
cldevicegroup status +
Utilisez la commande cldevicegroup status + pour dterminer l'tat de tous les groupes
de priphriques du cluster.
Utilisez l'option -v avec n'importe laquelle de ces commandes pour obtenir des informations
plus dtailles.

Exemple 535

Affichage sous forme de liste de l'tat de tous les groupes de priphriques


# cldevicegroup status +
=== Cluster Device Groups ===
--- Device Group Status --Device Group Name
----------------dg-schost-1
dg-schost-2
dg-schost-3

164

Primary
------phys-schost-2
phys-schost-1
phys-schost-3

Secondary
--------phys-schost-1
-phy-shost-2

Status
-----Online
Offline
Online

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Exemple 536

Affichage sous forme de liste de la configuration d'un groupe de priphriques


spcifique
# cldevicegroup show dg-schost-1
=== Device Groups ===
Device Group Name:
Type:
failback:
Node List:
preferenced:
numsecondaries:
diskset names:

dg-schost-1
SVM
yes
phys-schost-2, phys-schost-3
yes
1
dg-schost-1

Changement du nud principal d'un groupe de


priphriques
Cette procdure permet galement de dmarrer (mettre en ligne) un groupe de priphriques
inactif.
Vous pouvez galement mettre en ligne un groupe de priphriques inactif ou changer le nud
principal d'un groupe de priphriques l'aide de l'interface utilisateur Oracle Solaris Cluster
Manager. Pour plus d'informations, consultez l'aide en ligne de Oracle Solaris Cluster Manager.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Changez le nud principal du groupe de priphriques l'aide de la commande


cldevicegroup switch.
# cldevicegroup switch -n nodename devicegroup

-n nodename

Spcifie le nom du nud de remplacement. Ce nud devient le nud


principal.

devicegroup

Spcifie le groupe des priphriques commuter.

Vrifiez que le groupe de priphriques a commut sur le nouveau nud principal.


Si le groupe de priphriques est enregistr correctement, des informations le concernant
s'affichent lorsque vous utilisez la commande suivante.
# cldevice status devicegroup
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

165

Administration de groupes de priphriques

Exemple 537

Changement du nud principal d'un groupe de priphriques


L'exemple suivant illustre le changement du nud principal d'un groupe de priphriques et la
vrification du changement.
# cldevicegroup switch -n phys-schost-1 dg-schost-1
# cldevicegroup status dg-schost-1
=== Cluster Device Groups ===
--- Device Group Status --Device Group Name
----------------dg-schost-1

Primary
Secondary
Status
-------------------phys-schost-1 phys-schost-2 Online

Mise en tat de maintenance du groupe de


priphriques
La mise en tat de maintenance d'un groupe de priphriques empche qu'il soit
automatiquement mis en ligne lors de l'accs l'un de ses priphriques. Vous devez mettre un
groupe de priphriques en tat de maintenance au terme des procdures de rparation durant
toute la dure desquelles les activits d'E/S doivent imprativement tre approuves. Mettre un
groupe de priphriques en tat de maintenance permet d'empcher la perte de donnes. En
effet, le groupe de priphriques n'est pas mis en ligne sur un nud pendant que l'ensemble de
disques ou le groupe de disques est rpar sur un autre nud.
Pour obtenir des instructions sur la manire de restaurer un ensemble de disques corrompu,
reportez-vous Restauration d'un ensemble de disques altr la page 299.
Remarque Avant de placer un groupe de priphriques en tat de maintenance, vous devez

arrter tout accs ses priphriques et dmonter tous les systmes de fichiers dpendants.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

166

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration de groupes de priphriques

Placez le groupe de priphriques en tat de maintenance.


a. Si le groupe de priphriques est activ, dsactivez-le.
# cldevicegroup disable devicegroup

b. Mettez le groupe de priphriques hors ligne.


# cldevicegroup offline devicegroup
2

Si la rparation effectue requiert la proprit d'un ensemble de disques ou d'un groupe de


disques, importez manuellement cet ensemble ou ce groupe de disques.
Pour Solaris Volume Manager :
# metaset -C take -f -s diskset
Attention Si vous devenez propritaire d'un ensemble de disques Solaris Volume Manager,
vous devez utiliser la commande metaset-C take lorsque le groupe de priphriques se trouve
en tat de maintenance. L'utilisation de la commande metaset -t met le groupe de
priphriques en ligne lorsque vous devenez propritaire. Au cours de l'importation d'un
groupe de disques VxVM, vous devez utiliser l'indicateur -t. -Ainsi, le groupe de disques n'est
pas automatiquement import si ce nud est rinitialis.

Pour Veritas Volume Manager :


# vxdg -t import disk-group-name
3

Terminez la procdure de rparation que vous devez effectuer.

Cdez la proprit de l'ensemble de disques ou du groupe de disques.


Attention Avant de retirer le groupe de priphriques de l'tat de maintenance, vous devez
cder la proprit de l'ensemble de disques ou du groupe de disques. Si vous n'y parvenez pas,
vous risquez de perdre certaines donnes.

Pour Solaris Volume Manager :

Pour Veritas Volume Manager :

# metaset -C release -s diskset

# vxdg deport diskgroupname


5

Mettez le groupe de priphriques en ligne.


# cldevicegroup online devicegroup
# cldevicegroup enable devicegroup

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

167

Administration des paramtres du protocole SCSI pour les priphriques de stockage

Exemple 538

Mise en tat de maintenance du groupe de priphriques


Cet exemple illustre la mise en tat de maintenance et la suppression de l'tat de maintenance
du groupe de priphriques dg-schost-1.
[Place the device group in maintenance state.]
# cldevicegroup disable dg-schost-1
# cldevicegroup offline dg-schost-1
[If needed, manually import the disk set or disk group.]
For Solaris Volume Manager:
# metaset -C take -f -s dg-schost-1
For Veritas Volume Manager:
# vxdg -t import dg1
[Complete all necessary repair procedures.]
[Release ownership.]
For Solaris Volume Manager:
# metaset -C release -s dg-schost-1
For Veritas Volume Manager:
# vxdg deport dg1
[Bring the device group online.]
# cldevicegroup online dg-schost-1
# cldevicegroup enable dg-schost-1

Administration des paramtres du protocole SCSI pour les


priphriques de stockage
Lors de l'installation du logiciel Oracle Solaris Cluster, des rservations SCSI sont
automatiquement assignes tous les priphriques de stockage. Procdez comme suit pour
vrifier les paramtres des priphriques et, si ncessaire, ignorer le paramtre d'un
priphrique.

Affichage des paramtres du protocole SCSI global par dfaut pour tous les priphriques de
stockage la page 168
Affichage du protocole SCSI d'un seul priphrique de stockage la page 169
Modification des paramtres du protocole de sparation globaux par dfaut pour tous les
priphriques de stockage la page 170
Modification du protocole de sparation d'un seul priphrique de stockage la page 172

Affichage des paramtres du protocole SCSI global par


dfaut pour tous les priphriques de stockage
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.

168

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des paramtres du protocole SCSI pour les priphriques de stockage

Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.read.

partir d'un nud, affichez les paramtres du protocole SCSI global par dfaut actuel.
# cluster show -t global

Pour plus d'informations, reportez-vous la page de manuel cluster(1CL).


Exemple 539

Affichage des paramtres du protocole SCSI globaux par dfaut pour tous les
priphriques de stockage
Dans l'exemple suivant, les paramtres du protocole SCSI sont affichs pour tous les
priphriques de stockage rsidant sur le cluster.
# cluster show -t global
=== Cluster ===
Cluster Name:
installmode:
heartbeat_timeout:
heartbeat_quantum:
private_netaddr:
private_netmask:
max_nodes:
max_privatenets:
global_fencing:
Node List:

racerxx
disabled
10000
1000
172.16.0.0
255.255.248.0
64
10
pathcount
phys-racerxx-1, phys-racerxx-2

Affichage du protocole SCSI d'un seul priphrique de


stockage
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.read.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

169

Administration des paramtres du protocole SCSI pour les priphriques de stockage

partir d'un nud, affichez les paramtres du protocole SCSI du priphrique de stockage.
# cldevice show device

device

Nom du chemin d'accs au priphrique ou nom du priphrique.

Pour plus d'informations, reportez-vous la page de manuel cldevice(1CL).


Exemple 540

Affichage du protocole SCSI d'un seul priphrique


Dans l'exemple suivant, le protocole SCSI du priphrique /dev/rdsk/c4t8d0 est affich.
# cldevice show /dev/rdsk/c4t8d0
=== DID Device Instances ===
DID Device Name:
Full Device Path:
Full Device Path:
Replication:
default_fencing:

/dev/did/rdsk/d3
phappy1:/dev/rdsk/c4t8d0
phappy2:/dev/rdsk/c4t8d0
none
global

Modification des paramtres du protocole de


sparation globaux par dfaut pour tous les
priphriques de stockage
Vous pouvez activer ou dsactiver la sparation pour l'ensemble des priphriques de stockage
connects au cluster. Le paramtre de sparation par dfaut d'un seul priphrique de stockage
ignore le paramtre global lorsque la sparation par dfaut du priphrique est dfinie sur
pathcount, prefer3 ou nofencing. Si le paramtre de sparation par dfaut d'un priphrique
de stockage est dfini sur global, ce dernier utilise le paramtre global. Par exemple, le
paramtre par dfaut pathcount d'un priphrique de stockage ne change pas si vous utilisez
cette procdure pour remplacer les paramtres de protocole SCSI globaux par prefer3. Pour
modifier le paramtre par dfaut d'un seul priphrique, vous devez utiliser la procdure
Modification du protocole de sparation d'un seul priphrique de stockage la page 172.
Attention Si vous activez la sparation dans des circonstances inadquates, vos donnes
risquent d'tre corrompues au cours du basculement de l'application. Prenez srieusement en
compte cette ventualit lorsque vous envisagez de dsactiver la sparation. Vous pouvez
dsactiver la sparation si le priphrique de stockage partag ne prend pas en charge le
protocole SCSI ou si vous souhaitez autoriser l'accs au stockage du cluster partir d'htes
extrieurs celui-ci.

170

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des paramtres du protocole SCSI pour les priphriques de stockage

Pour modifier le paramtre de sparation par dfaut pour un priphrique de quorum, vous
devez annuler la configuration du priphrique, modifier le paramtre de sparation et
reconfigurer le priphrique de quorum. Si vous avez dans l'ide de dsactiver la sparation puis
de la ractiver rgulirement pour des priphriques comprenant des priphriques de quorum,
envisagez de faire appel un service de serveur de quorum pour configurer le quorum. Vous
liminerez ainsi les interruptions de l'opration de quorum.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify.

Dfinissez le protocole de sparation pour tous les priphriques de stockage qui ne sont pas
des priphriques de quorum.
cluster set -p global_fencing={pathcount | prefer3 | nofencing | nofencing-noscrub}

-p global_fencing

Dfinit l'algorithme de sparation par dfaut global pour tous


les priphriques partags.

prefer3

Utilise le protocole SCSI-3 pour les priphriques dots de


plus de deux chemins.

pathcount

Dtermine le protocole de sparation d'aprs le nombre de


chemins DID connects au priphrique partag. Le
paramtre pathcount est utilis pour les priphriques de
quorum.

nofencing

Dsactive la sparation en configurant l'tat de sparation


pour tous les priphriques de stockage.

nofencing-noscrub

Le nettoyage du priphrique garantit que toutes les


informations de rservation SCSI permanentes sont effaces et
que l'accs au stockage est autoris aux systmes rsidant en
dehors du cluster. Servez-vous de l'option
nofencing-noscrub uniquement pour les priphriques de
stockage rencontrant de graves problmes de rservations
SCSI.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

171

Administration des paramtres du protocole SCSI pour les priphriques de stockage

Exemple 541

Dfinition des paramtres du protocole de sparation globaux par dfaut pour tous
les priphriques de stockage
Dans l'exemple suivant, le protocole de sparation pour tous les priphriques de stockage
rsidant sur le cluster est dfini sur SCSI-3.
# cluster set -p global_fencing=prefer3

Modification du protocole de sparation d'un seul


priphrique de stockage
Vous pouvez galement dfinir le protocole de sparation pour un seul priphrique de
stockage.
Remarque Pour modifier le paramtre de sparation par dfaut pour un priphrique de
quorum, vous devez annuler la configuration du priphrique, modifier le paramtre de
sparation et reconfigurer le priphrique de quorum. Si vous avez dans l'ide de dsactiver la
sparation puis de la ractiver rgulirement pour des priphriques comprenant des
priphriques de quorum, envisagez de faire appel un service de serveur de quorum pour
configurer le quorum. Vous liminerez ainsi les interruptions de l'opration de quorum.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Attention Si vous activez la sparation dans des circonstances inadquates, vos donnes
risquent d'tre corrompues au cours du basculement de l'application. Prenez srieusement en
compte cette ventualit lorsque vous envisagez de dsactiver la sparation. Vous pouvez
dsactiver la sparation si le priphrique de stockage partag ne prend pas en charge le
protocole SCSI ou si vous souhaitez autoriser l'accs au stockage du cluster partir d'htes
extrieurs celui-ci.
1

172

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des systmes de fichiers du cluster

Dfinissez le protocole de sparation du priphrique de stockage.


cldevice set -p default_fencing ={pathcount | \
scsi3 | global | nofencing | nofencing-noscrub} device

-p default_fencing

Modifie la proprit default_fencing du priphrique.

pathcount

Dtermine le protocole de sparation d'aprs le nombre de chemins


DID connects au priphrique partag.

scsi3

Utilise le protocole SCSI-3.

global

Utilise le paramtre de sparation global par dfaut. Le paramtre


global est utilis pour les priphriques qui ne sont pas de quorum.
Dsactive la sparation en configurant l'tat de sparation pour
l'instance DID spcifie.

nofencing-noscrub

Le nettoyage du priphrique garantit que toutes les informations de


rservation SCSI permanentes sont effaces et que l'accs au
priphrique de stockage est autoris aux systmes rsidant en dehors
du cluster. Servez-vous de l'option nofencing-noscrub uniquement
pour les priphriques de stockage rencontrant de graves problmes
de rservations SCSI.

device

Spcifie le nom du chemin d'accs au priphrique ou le nom du


priphrique.

Pour plus d'informations, reportez-vous la page de manuel cluster(1CL).


Exemple 542

Configuration du protocole de sparation pour un seul priphrique


Dans l'exemple suivant, le priphrique d5 (spcifi par le numro de priphrique) est dfini
sur le protocole SCSI-3.
# cldevice set -p default_fencing=prefer3 d5

Dans l'exemple suivant, la sparation par dfaut est dsactive pour le priphrique d11.
#cldevice set -p default_fencing=nofencing d11

Administration des systmes de fichiers du cluster


Le systme de fichiers du cluster est un systme de fichiers disponible globalement, accessible et
lu de n'importe quel nud du cluster.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

173

Administration des systmes de fichiers du cluster

TABLEAU 55

Liste des tches : administration de systmes de fichiers du cluster

Tche

Instructions

Affichez des systmes de fichiers du cluster Ajout d'un systme de fichiers du cluster la page 174
aprs l'installation initiale de Oracle Solaris
Cluster.
Supprimez un systme de fichiers du
cluster.

Suppression d'un systme de fichiers du cluster la page 178

Vrifiez les points de montage globaux


Vrification des montages globaux dans un cluster
dans un cluster dans un souci de cohrence la page 180
au niveau de l'ensemble des nuds.

Ajout d'un systme de fichiers du cluster


Effectuez cette tche pour chaque systme de fichiers du cluster que vous crez aprs
l'installation Oracle Solaris Cluster initiale.
Attention Assurez-vous que le nom de priphrique de disque que vous spcifiez est correct.
Lorsque vous crez un systme de fichiers du cluster, toutes les donnes sur le disque sont
perdues. Si vous spcifiez un nom de priphrique incorrect, vous supprimez des donnes que
vous souhaitez peut-tre conserver.

Avant d'ajouter un systme de fichiers de cluster supplmentaire, assurez-vous que les prrequis
suivants ont t satisfaits :

Le privilge de superutilisateur est tabli sur un nud du cluster ;

Le gestionnaire de volumes est install et configur sur le cluster ;

Il existe un groupe de priphriques (Solaris Volume Manager ou VxVM) ou une tranche de


disque en mode bloc sur lequel ou laquelle crer le systme de fichiers du cluster.

Si vous avez install des services de donnes l'aide de Oracle Solaris Cluster Manager, un ou
plusieurs systmes de fichiers du cluster existent dans le cas de figure o les disques partags sur
lesquels crer les systmes de fichiers du cluster taient suffisants.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
174

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des systmes de fichiers du cluster

Devenez superutilisateur sur un nud quelconque du cluster.


Effectuez cette procdure partir de la zone globale si des zones non globales sont configures
dans le cluster.
Astuce Pour acclrer la cration de systme de fichiers, devenez superutilisateur sur le nud

principal actuel du priphrique global pour lequel vous crez un systme de fichiers.
2

Crez un systme de fichiers.


Caution Lors de la cration d'un systme de fichiers, toutes les donnes prsentes sur les disques

sont dtruites. Assurez-vous que le nom de priphrique de disque que vous spcifiez est
correct. S'il ne l'est pas, vous pourriez supprimer des donnes que vous souhaitiez conserver.

Dans le cas d'un systme de fichiers UFS, utilisez la commande newfs(1M).


phys-schost# newfs raw-disk-device

Le tableau suivant contient des exemples de noms pour l'argument raw-disk-device. Notez
que la convention de nommage diffre pour chaque gestionnaire de volumes.
Volume Manager

Exemple de nom de priphrique de disque

Description

Solaris Volume Manager

/dev/md/nfs/rdsk/d1

Priphrique de disque brut d1 de


l'ensemble de disques nfs

Veritas Volume Manager

/dev/vx/rdsk/oradg/vol01

Priphrique de disque brut vol01 de


l'ensemble de disques oradg

Aucun

/dev/global/rdsk/d1s3

Priphrique de disque brut d1s3

Pour un systme de fichiers Veritas File System (VxFS), suivez les procdures fournies dans
votre documentation VxFS.

Pour chaque nud du cluster, crez un rpertoire de point de montage pour le systme de
fichiers du cluster.
Un point de montage est requis pour chaque nud, mme si vous n'accdez pas au systme de
fichiers du cluster partir de ce nud.
Astuce Pour faciliter l'administration, crez le point de montage dans le rpertoire

/global/device-group/. Cet emplacement vous permet de facilement distinguer les systmes de


fichiers du cluster, qui sont disponibles de faon globale, des systmes de fichiers locaux.
phys-schost# mkdir -p /global/device-group/mountpoint/
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

175

Administration des systmes de fichiers du cluster

device-group

Nom du rpertoire correspondant au nom du groupe de priphriques qui


contient le priphrique.

mountpoint

Nom du rpertoire sur lequel monter le systme de fichiers du cluster.

Pour chaque nud du cluster, ajoutez une entre au fichier /etc/vfstab pour le point de
montage.
Pour des informations dtailles, reportez-vous la page de manuel vfstab(4).
Remarque Si des zones non globales sont configures dans le cluster, assurez-vous de monter

les systmes de fichiers du cluster dans la zone globale, sur un chemin du rpertoire racine de la
zone globale.
a. Pour chaque entre, spcifiez les options de montage pour le type de systme de fichiers
que vous utilisez.
b. Pour monter automatiquement le systme de fichiers du cluster, dfinissez le champ mount
at boot sur yes.
c. Assurez-vous que pour chaque systme de fichiers du cluster, les informations contenues
dans l'entre /etc/vfstab sont identiques dans chaque nud.
d. Assurez-vous que les entres du fichier /etc/vfstab de chaque nud rpertorient les
priphriques dans le mme ordre.
e. Vrifiez les dpendances de l'ordre d'initialisation des systmes de fichiers.
Par exemple, admettons que phys-schost-1 monte le priphrique de disques d0 sur
/global/oracle/, et phys-schost-2 monte le priphrique de disques d1 sur
/global/oracle/logs/. Avec cette configuration, phys-schost-2 peut initialiser et monter
/global/oracle/logs/ uniquement aprs que phys-schost-1 a initialis et mont
/global/oracle/.
5

Excutez l'utilitaire de vrification de la configuration sur un nud du cluster.


phys-schost# cluster check -k vfstab

L'utilitaire de vrification de la configuration vrifie que le point de montage existe. L'utilitaire


vrifie galement que les entres du fichier /etc/vfstab sont correctes sur tous les nuds du
cluster. Si aucune erreur ne se produit, aucun lment n'est renvoy.
Pour plus d'informations, reportez-vous la page de manuel cluster(1CL).

176

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des systmes de fichiers du cluster

Montez le systme de fichiers du cluster.


phys-schost# mount /global/device-group/mountpoint/

Pour UFS, montez le systme de fichiers du cluster partir d'un autre nud du cluster.

Pour VxFS, montez le systme de fichiers du cluster partir du nud matre actuel du
device-group afin de vous assurer de la russite du montage du systme de fichiers.
De plus, dmontez un systme de fichiers VxFS du nud matre actuel du device-group afin
de vous assurer de la russite du dmontage du systme de fichiers.
Remarque Pour grer un systme de fichiers du cluster VxFS dans un environnement
Oracle Solaris Cluster, excutez les commandes administratives uniquement partir du
nud principal sur lequel le systme de fichiers du cluster VxFS est mont.

Sur chaque nud du cluster, vrifiez que le systme de fichiers du cluster est mont.
Vous pouvez utiliser soit la commande df, soit la commande mount pour rpertorier les
systmes de fichiers monts. Pour plus d'informations, reportez-vous aux pages de manuel
df(1M) ou mount(1M).
Les systmes de fichiers du cluster sont accessibles depuis les zones globale et non globale.

Exemple 543

Cration d'un systme de fichiers du cluster UFS


L'exemple suivant cre un systme de fichiers du cluster UFS sur le volume Solaris Volume
Manager /dev/md/oracle/rdsk/d1. Une entre est ajoute au fichier vfstab de chaque nud
pour le systme de fichiers du cluster. La commande cluster check est ensuite excute
partir d'un nud. Une fois le processus de vrification de la configuration termin, le systme
de fichiers du cluster est mont sur un nud et vrifi sur tous les nuds.
phys-schost# newfs /dev/md/oracle/rdsk/d1
...
phys-schost# mkdir -p /global/oracle/d1
phys-schost# vi /etc/vfstab
#device
device
mount FS
fsck
mount mount
#to mount
to fsck
point type
pass
at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
...
phys-schost# cluster check -k vfstab
phys-schost# mount /global/oracle/d1
phys-schost# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2005

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

177

Administration des systmes de fichiers du cluster

Suppression d'un systme de fichiers du cluster


Pour supprimer un systme de fichiers du cluster, il suffit de le dmonter. Pour supprimer
galement les donnes, supprimez le priphrique de disque (ou mtapriphrique ou volume)
sous-jacent du systme.
Remarque Les systmes de fichiers du cluster sont automatiquement dmonts dans le cadre de

la fermeture du systme qui intervient lorsque vous excutez la commande cluster shutdown
pour arrter le cluster dans son intgralit. Ils ne le sont pas en revanche lorsque vous excutez
la commande shutdown pour arrter un seul nud. Toutefois, si le nud en cours de fermeture
n'est pas le seul tre connect au disque, toute tentative d'accs au systme de fichiers du
cluster sur ce disque gnre une erreur.
Avant de dmonter des systmes de fichiers de cluster, assurez-vous que les prrequis suivants
ont t satisfaits :

1
2

Le privilge de superutilisateur est tabli sur un nud du cluster ;

Le systme de fichiers est disponible. Un systme de fichiers est indisponible si un utilisateur


utilise un rpertoire du systme de fichiers ou qu'un fichier de programme est ouvert dans le
systme de fichiers. L'utilisateur ou le programme pourrait tre en cours d'excution sur un
nud du cluster.

Devenez superutilisateur sur un nud quelconque du cluster.


Dterminez quels systmes de fichiers du cluster sont monts.
# mount -v

Sur chaque nud, rpertoriez tous les processus qui exploitent le systme de fichiers afin
d'identifier ceux que vous allez arrter.
# fuser -c [ -u ] mountpoint

178

-c

Signale les fichiers qui constituent des points de montage pour les systmes
de fichiers ainsi que tous les fichiers figurant dans ces systmes de fichiers
monts.

-u

(Facultatif) Affiche le nom de connexion de l'utilisateur pour chaque


identificateur de processus.

mountpoint

Spcifie le nom du systme de fichiers du cluster pour lequel vous


souhaitez arrter les processus.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des systmes de fichiers du cluster

Sur chaque nud, arrtez tous les processus pour le systme de fichiers du cluster.
Arrtez les processus selon votre mthode prfre. Si ncessaire, faites appel la commande
suivante pour mener leur terme les processus associs au systme de fichiers du cluster.
# fuser -c -k mountpoint

Une commande SIGKILL est envoye chaque processus utilisant le systme de fichiers du
cluster.
5

Sur chaque nud, vrifiez qu'aucun processus n'utilise le systme de fichiers.


# fuser -c mountpoint

partir d'un seul nud, dmontez le systme de fichiers.


# umount mountpoint

mountpoint

Spcifie le nom du systme de fichiers du cluster dmonter. Il peut s'agir


du nom du rpertoire sur lequel le systme de fichiers du cluster est mont
ou le chemin de nom de priphrique du systme de fichiers.

(Facultatif) Modifiez le fichier /etc/vfstab pour supprimer l'entre du systme de fichiers du


cluster en cours de suppression.
Effectuez cette tape sur chaque nud du cluster dont le fichier /etc/vfstab contient une
entre pour ce systme de fichiers du cluster.

(Facultatif) Supprimez le priphrique de disque group/metadevice/volume/plex.


Pour plus d'informations, reportez-vous la documentation du gestionnaire de volume.

Exemple 544

Suppression d'un systme de fichiers du cluster


Dans l'exemple suivant, le systme de fichiers du cluster UFS mont sur le volume ou
mtapriphrique Solaris Volume Manager /dev/md/oracle/rdsk/d1 est supprim.
# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
(On each node, remove the highlighted entry:)
# vi /etc/vfstab
#device
device
mount FS
fsck
mount mount
#to mount
to fsck
point type
pass
at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

179

Administration du contrle de chemin de disque

[Save and exit.]

Pour supprimer les donnes prsentes sur le systme de fichiers du cluster, supprimez le
priphrique sous-jacent. Pour plus d'informations, reportez-vous la documentation du
gestionnaire de volume.

Vrification des montages globaux dans un cluster


L'utilitaire cluster(1CL) vrifie la syntaxe des entres pour les systmes de fichiers du cluster
dans le fichier /etc/vfstab. Si aucune erreur ne se produit, aucun lment n'est renvoy.
Remarque Excutez la commande cluster check aprs toute modification de la configuration
du cluster (suppression d'un systme de fichiers du cluster, par exemple) ayant des
rpercussions sur des priphriques ou des composants de gestion de volume.

Devenez superutilisateur sur un nud quelconque du cluster.

Vrifiez les montages globaux du cluster.


# cluster check -k vfstab

Administration du contrle de chemin de disque


L'administration DPM (Disk Path Monitoring, contrle du chemin de disque) permet de
recevoir des notifications de panne de chemin de disque secondaire. Suivez les procdures
dcrites dans cette section pour raliser les tches d'administration associes au contrle de
chemin de disque. Le Chapitre 3, Key Concepts for System Administrators and Application
Developers du Oracle Solaris Cluster Concepts Guide contient des informations conceptuelles
sur le dmon du contrle de chemin de disque. La page de manuel cldevice(1CL) dcrit les
options de commande et les commandes associes. Pour plus d'informations sur le rglage du
dmon scdpmd, reportez-vous la page de manuel scdpmd.conf(4). Consultez galement la
page de manuel syslogd(1M) pour obtenir les erreurs consignes par le dmon.
Remarque Lorsque vous ajoutez des priphriques d'E/S un nud l'aide de la commande
cddevice, des chemins de disques sont automatiquement ajouts la liste de contrle. Le
contrle de chemin de disque est automatiquement dsactiv lorsque des priphriques sont
supprims du nud l'aide des commandes Oracle Solaris Cluster.

180

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration du contrle de chemin de disque

TABLEAU 56

Liste des tches : administration du contrle de chemin de disque

Tche

Instructions

Contrlez un chemin de disque.

Contrle d'un chemin de disque la page 181

Dsactivez le contrle d'un chemin de


disque.

Dsactivation du contrle d'un chemin de disque la page 183

Imprimez l'tat de chemins de disques


dfectueux pour un nud.

Impression des chemins de disques dfectueux la page 184

Contrlez les chemins de disques partir


d'un fichier.

Contrle des chemins de disques partir d'un fichier


la page 185

Activez ou dsactivez la rinitialisation


automatique d'un nud en cas d'chec de
tous les chemins de disques contrls.

Activation de la rinitialisation automatique d'un nud en cas


d'chec de tous les chemins contrls de disques partags
la page 187
Dsactivation de la rinitialisation automatique d'un nud en
cas d'chec de tous les chemins contrls de disques partags
la page 188

Corrigez l'tat d'un chemin de disque


Correction d'une erreur d'tat du chemin de disque
incorrect. L'tat d'un chemin de disque
la page 184
incorrect peut tre signal lorsque le
priphrique DID contrl est indisponible
pendant l'initialisation et l'instance DID
n'est pas tlcharge dans le pilote DID.

Les procdures, dcrites dans la section suivante, qui excutent la commande cldevice
incluent l'argument de chemin de disque. L'argument de chemin de disque se compose d'un
nom de nud et d'un nom de disque. Le nom de nud n'est pas ncessaire et sa valeur est
dfinie par dfaut sur all sans spcification de votre part.

Contrle d'un chemin de disque


Procdez comme suit pour contrler des chemins de disques dans votre cluster.
Attention Le contrle DPM n'est pas pris en charge sur les nuds qui excutent des versions du
logiciel Sun Cluster antrieures la version 3.1 10/03. N'utilisez pas les commandes DPM
lorsqu'une mise niveau progressive est en cours. Une fois tous les nuds mis niveau, vous
devez les mettre en ligne avant d'utiliser les commandes DPM.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

181

Administration du contrle de chemin de disque

Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Contrlez un chemin de disque.


# cldevice monitor -n node disk

Vrifiez que le chemin de disque est contrl.


# cldevice status device

Exemple 545

Contrle d'un chemin de disque sur un seul nud


Dans l'exemple suivant, le chemin de disque schost-1:/dev/did/rdsk/d1 est contrl partir
d'un seul nud. Seul le dmon DPM situ sur le nud schost-1 contrle le chemin d'accs au
disque /dev/did/dsk/d1.
# cldevice monitor -n schost-1 /dev/did/dsk/d1
# cldevice status d1
Device Instance Node
Status
--------------- ---- -----/dev/did/rdsk/d1 phys-schost-1 Ok

Exemple 546

Contrle d'un chemin de disque sur tous les nuds


Dans l'exemple suivant, le chemin de disque schost-1:/dev/did/dsk/d1 est contrl partir
de tous les nuds. Le contrle DPM dmarre sur tous les nuds pour lesquels
/dev/did/dsk/d1 est un chemin valide.
# cldevice monitor /dev/did/dsk/d1
# cldevice status /dev/did/dsk/d1
Device Instance Node
Status
--------------- ---- -----/dev/did/rdsk/d1 phys-schost-1 Ok

Exemple 547

Relecture de la configuration de disque partir du CCR


Dans l'exemple suivant, le dmon est contraint relire la configuration de disque partir du
CCR et les chemins de disques contrls sont imprims avec leur tat.
# cldevice monitor +
# cldevice status
Device Instance

182

Node

Status

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration du contrle de chemin de disque

--------------/dev/did/rdsk/d1
/dev/did/rdsk/d2
/dev/did/rdsk/d3
/dev/did/rdsk/d4
/dev/did/rdsk/d5
/dev/did/rdsk/d6
/dev/did/rdsk/d7
/dev/did/rdsk/d8

---schost-1
schost-1
schost-1
schost-2
schost-1
schost-2
schost-1
schost-2
schost-1
schost-2
schost-2
schost-2

-----Ok
Ok
Ok
Ok
Ok
Ok
Ok
Ok
Ok
Ok
Ok
Ok

Dsactivation du contrle d'un chemin de disque


Procdez comme suit pour dsactiver le contrle d'un chemin de disque.
Attention Le contrle DPM n'est pas pris en charge sur les nuds qui excutent des versions du
logiciel Sun Cluster antrieures la version 3.1 10/03. N'utilisez pas les commandes DPM
lorsqu'une mise niveau progressive est en cours. Une fois tous les nuds mis niveau, vous
devez les mettre en ligne avant d'utiliser les commandes DPM.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Dterminez l'tat du chemin de disque dont vous souhaitez dsactiver le contrle.


# cldevice status device

Sur chaque nud, dsactivez le contrle des chemins de disques appropris.


# cldevice unmonitor -n node disk

Exemple 548

Dsactivation du contrle d'un chemin de disque


Dans l'exemple suivant, le contrle du chemin de disque schost-2:/dev/did/rdsk/d1 est
dsactiv et les chemins de disques sont imprims avec leur tat pour l'ensemble du cluster.
# cldevice unmonitor -n schost2 /dev/did/rdsk/d1
# cldevice status -n schost2 /dev/did/rdsk/d1

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

183

Administration du contrle de chemin de disque

Device Instance
--------------/dev/did/rdsk/d1

Node
---schost-2

Status
-----Unmonitored

Impression des chemins de disques dfectueux


Procdez comme suit pour imprimer les chemins de disques dfectueux d'un cluster.
Attention Le contrle DPM n'est pas pris en charge sur les nuds qui excutent des versions du
logiciel Sun Cluster antrieures la version 3.1 10/03. N'utilisez pas les commandes DPM
lorsqu'une mise niveau progressive est en cours. Une fois tous les nuds mis niveau, vous
devez les mettre en ligne avant d'utiliser les commandes DPM.

Devenez superutilisateur sur un nud quelconque du cluster.

Imprimez les chemins de disques dfectueux l'chelle du cluster.


# cldevice status -s fail

Exemple 549

Impression des chemins de disques dfectueux


Dans l'exemple suivant, les chemins de disques dfectueux sont imprims pour l'ensemble du
cluster.
# cldevice status -s fail
Device Instance
--------------dev/did/dsk/d4

Node
---phys-schost-1

Status
-----fail

Correction d'une erreur d'tat du chemin de disque


Si les vnements suivants se produisent, le contrle DPM risque de ne pas mettre jour l'tat
d'un chemin dfectueux lors de son retour en ligne :

L'chec d'un chemin contrl provoque la rinitialisation du nud ;

La reconnexion du priphrique sous le chemin DID contrl est tributaire de celle du


nud rinitialis.

L'tat d'un chemin de disque incorrect est signal parce que le priphrique DID contrl est
indisponible pendant l'initialisation et, par consquent, l'instance DID n'est pas tlcharge
dans le pilote DID. Dans ce cas, mettez manuellement jour les informations DID.
1

partir d'un nud, mettez jour l'espace de noms des priphriques globaux.
# cldevice populate

184

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration du contrle de chemin de disque

Sur chaque nud, vrifiez que le traitement de la commande est arriv terme avant de passer
l'tape suivante.
La commande s'applique distance sur tous les nuds, mme si elle est excute partir d'un
seul nud. Pour savoir si la commande a termin le traitement, excutez la commande suivante
sur chaque nud du cluster.
# ps -ef | grep cldevice populate

Dans le dlai d'interrogation DPM, vrifiez que l'tat du chemin de disque dfectueux est
prsent OK.
# cldevice status disk-device
Device Instance
--------------dev/did/dsk/dN

Node
---phys-schost-1

Status
-----Ok

Contrle des chemins de disques partir d'un fichier


Procdez comme suit pour activer ou dsactiver le contrle des chemins de disques partir d'un
fichier.
Pour modifier la configuration du cluster l'aide d'un fichier, vous devez d'abord l'exporter.
L'exportation gnre un fichier XML que vous pouvez alors modifier afin de dfinir les
composants de la configuration que vous changez. L'intgralit de ce processus est dcrite dans
la procdure suivante.
Attention Le contrle DPM n'est pas pris en charge sur les nuds qui excutent des versions du
logiciel Sun Cluster antrieures la version 3.1 10/03. N'utilisez pas les commandes DPM
lorsqu'une mise niveau progressive est en cours. Une fois tous les nuds mis niveau, vous
devez les mettre en ligne avant d'utiliser les commandes DPM.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Exportez la configuration de priphrique dans un fichier XML.


# cldevice export -o configurationfile

-o configurationfile

Prcisez le nom de votre fichier XML.

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

185

Administration du contrle de chemin de disque

Modifiez le fichier de configuration en vue de contrler les chemins de priphriques.


Recherchez les chemins de priphriques contrler et dfinissez l'attribut monitored sur true.

Contrlez les chemins de priphriques.


# cldevice monitor -i configurationfile

-i configurationfile
5

Prcisez le nom du fichier XML modifi.

Vrifiez que le chemin de priphrique est prsent contrl.


# cldevice status

Exemple 550

Contrle des chemins de disques partir d'un fichier


Dans l'exemple suivant, le chemin de priphrique entre le nud phys-schost-2 et le
priphrique d3 est contrl l'aide d'un fichier XML.
La premire tape consiste exporter la configuration de cluster actuelle.
# cldevice export -o deviceconfig

Le fichier XML deviceconfig indique que le chemin entre phys-schost-2 et d3 n'est pas
contrl.
<?xml version="1.0"?>
<!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd">
<cluster name="brave_clus">
.
.
.
<deviceList readonly="true">
<device name="d3" ctd="c1t8d0">
<devicePath nodeRef="phys-schost-1" monitored="true"/>
<devicePath nodeRef="phys-schost-2" monitored="false"/>
</device>
</deviceList>
</cluster>

Pour le contrler, dfinissez l'attribut monitored sur true, comme suit.


<?xml version="1.0"?>
<!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd">
<cluster name="brave_clus">
.
.
.
<deviceList readonly="true">
<device name="d3" ctd="c1t8d0">
<devicePath nodeRef="phys-schost-1" monitored="true"/>
<devicePath nodeRef="phys-schost-2" monitored="true"/>
</device>

186

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration du contrle de chemin de disque

</deviceList>
</cluster>

Utilisez la commande cldevice pour lire le fichier et activer le contrle.


# cldevice monitor -i deviceconfig

Utilisez la commande cldevice pour vrifier que le priphrique est maintenant contrl.
# cldevice status
Voir aussi

Pour plus d'informations sur l'exportation de la configuration du cluster et sa dfinition l'aide


du fichier XML obtenu, reportez-vous aux pages de manuel cluster(1CL) et
clconfiguration(5CL).

Activation de la rinitialisation automatique d'un


nud en cas d'chec de tous les chemins contrls de
disques partags
L'activation de cette fonctionnalit entrane la rinitialisation automatique d'un nud lorsque
les conditions suivantes sont vrifies :

Tous les chemins contrls de disques partags sur le nud chouent.


Au moins l'un des disques est accessible depuis un autre nud du cluster.

La rinitialisation du nud entrane le redmarrage de tous les groupes de ressources et


groupes de priphriques de ce nud sur un autre nud.
Si tous les chemins contrls des disques partags sur le nud restent inaccessibles aprs la
rinitialisation automatique du nud, le nud n'est pas nouveau automatiquement
rinitialis. Toutefois, si un chemin de disque devient disponible aprs la rinitialisation du
nud, puis choue nouveau, le nud est automatiquement rinitialis.
Lorsque vous activez la proprit reboot_on_path_failure, l'tat des chemins de disques
locaux n'est pas pris en compte pour dterminer si un nud doit tre rinitialis. Seuls les
disques partags contrls sont concerns.
1

Sur un nud du cluster, connectez-vous en tant que superutilisateur ou en tant qu'utilisateur


disposant d'une autorisation RBAC solaris.cluster.modify.

Pour tous les nuds du cluster, activez la rinitialisation automatique d'un nud en cas d'chec
de tous les chemins contrls de disques partags qui permettent d'y accder.
# clnode set -p reboot_on_path_failure=enabled +

Chapitre 5 Administration des priphriques globaux, du contrle de chemin de disque et des systmes de
fichiers du cluster

187

Administration du contrle de chemin de disque

Dsactivation de la rinitialisation automatique d'un


nud en cas d'chec de tous les chemins contrls de
disques partags
Si vous dsactivez cette fonctionnalit et que tous les chemins contrls de disques partags sur
un nud chouent, le nud n'est pas rinitialis automatiquement.

Sur un nud du cluster, connectez-vous en tant que superutilisateur ou en tant qu'utilisateur


disposant d'une autorisation RBAC solaris.cluster.modify.

Pour tous les nuds du cluster, dsactivez la rinitialisation automatique d'un nud en cas
d'chec de tous les chemins contrls de disques partags qui permettent d'y accder.
# clnode set -p reboot_on_path_failure=disabled +

188

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

C H A P I T R E

Gestion de Quorum

Ce chapitre dtaille les procdures de gestion des priphriques de quorum au sein de Oracle
Solaris Cluster et des serveurs de quorum Oracle Solaris Cluster. Pour plus d'informations
propos des concepts de quorum, reportez-vous la section Quorum and Quorum Devices du
Oracle Solaris Cluster Concepts Guide.

Gestion des priphriques de quorum la page 189


Gestion des serveurs de quorum Oracle Solaris Cluster la page 215

Gestion des priphriques de quorum


Un priphrique de quorum correspond un priphrique de stockage partag ou un serveur
de quorum partag par deux nuds ou plus et qui contribue aux votes servant tablir un
quorum. Cette section fournit les procdures de gestion des priphriques de quorum.
Vous pouvez utiliser la commande clquorum(1CL) pour effectuer toutes les procdures
administratives des priphriques de quorum. De plus, vous pouvez effectuer certaines
procdures l'aide de l'utilitaire interactif clsetup(1CL) ou de l'interface graphique de Oracle
Solaris Cluster Manager. Lorsque cela est possible, les procdures de quorum sont dcrites dans
cette section l'aide de l'utilitaireclsetup. L'aide en ligne de Oracle Solaris Cluster Manager
dcrit comment effectuer les procdures de quorum l'aide de l'interface graphique. Lorsque
vous travaillez avec des priphriques de quorum, gardez les instructions suivantes l'esprit :

Toutes les commandes de quorum doivent tre excutes sur le nud votant du cluster
global.

Si la commande clquorum est interrompue ou choue, les informations de configuration de


quorum peuvent devenir incohrentes dans la base de donnes de configuration du cluster.
Si cette incohrence se produit, excutez nouveau la commande ou excutez la commande
clquorum reset pour rinitialiser la configuration de quorum.
189

Gestion des priphriques de quorum

Afin d'obtenir la plus grande disponibilit du cluster, assurez-vous que le nombre total de
votes auxquels ont particip les priphriques de quorum est infrieur au nombre total de
votes auxquels ont particip les nuds. Sinon, les nuds ne peuvent pas former un cluster si
tous les priphriques de quorum sont indisponibles, mme si tous les nuds fonctionnent.

N'ajoutez pas de disque actuellement configur en tant que priphrique de quorum un


pool de stockage Solaris ZFS. Si un priphrique de quorum configur est ajout un pool
de stockage Solaris ZFS, le disque est rtiquet comme disque EFI, les informations de
configuration de quorum sont perdues et le disque ne fournit plus de vote de quorum au
cluster. Une fois qu'un disque se trouve dans un pool de stockage, ce disque peut tre
configur en tant que priphrique de quorum. Vous pouvez galement annuler la
configuration du disque, l'ajouter au pool de stockage, puis le reconfigurer en tant que
priphrique de quorum.

Remarque La commande clsetup correspond une interface interactive des autres

commandes de Oracle Solaris Cluster. Lorsque clsetup s'excute, la commande gnre les
commandes spcifiques appropries, dans ce cas les commandes clquorum. Ces commandes
gnres sont illustres dans les exemples que vous trouverez la fin des procdures.
Pour afficher la configuration de quorum, utilisez clquorum show. La commande clquorum
list affiche les noms des priphriques de quorum dans le cluster. La commande clquorum
status fournit les informations du statut et du nombre de votes.
La plupart des exemples fournit dans cette section proviennent d'un cluster trois nuds.
TABLEAU 61

190

Liste des tches : gestion de Quorum

Tche

Instructions

Ajoutez un priphrique de quorum un


cluster l'aide de clsetup(1CL)

Ajout d'un priphrique de quorum la page 192

Supprimez un priphrique de quorum


d'un cluster l'aide de clsetup (pour
gnrer clquorum)

Suppression d'un priphrique de quorum la page 204

Supprimez le dernier priphrique de


quorum d'un cluster l'aide de clsetup
(pour gnrer clquorum)

Suppression du dernier priphrique de quorum d'un cluster


la page 205

Remplacez un priphrique de quorum


dans un cluster l'aide des procdures
d'ajout et de suppression

Remplacement d'un priphrique de quorum la page 206

Modifiez une liste du priphrique de


quorum l'aide des procdures d'ajout et
de suppression

Modification d'une liste de nuds de priphrique de quorum


la page 207

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

TABLEAU 61

Liste des tches : gestion de Quorum

(Suite)

Tche

Instructions

Mettez un priphrique de quorum en


mode de maintenance l'aide de clsetup
(pour gnrer clquorum)

Mise d'un priphrique de quorum en mode de maintenance


la page 210

(En mode de maintenance, le priphrique


de quorum ne participe pas au vote pour
l'tablissement du quorum.)
Rinitialisez la configuration du quorum
par dfaut l'aide de clsetup (pour
gnrer clquorum)

Sortie du mode de maintenance d'un priphrique de quorum


la page 211

Rpertoriez les priphriques de quorum et Rpertorier la configuration de quorum la page 213


les nombres de vote l'aide de la
commande clquorum(1CL)

Reconfiguration dynamique avec les priphriques de


quorum
Vous devez prendre quelques questions en considration lors de la ralisation des oprations de
reconfiguration dynamique (DR) sur les priphriques de quorum dans un cluster.

Toutes les conditions requises, les procdures et les restrictions documentes pour la
fonction de reconfiguration dynamique d'Oracle Solaris s'appliquent galement au support
de reconfiguration dynamique d'Oracle Solaris Cluster ( l'exception des oprations de
quiescence du systme d'exploitation). Par consquent, reportez-vous la documentation
de la fonction de reconfiguration dynamique d'Oracle Solaris avant d'utiliser cette fonction
avec Oracle Solaris Cluster. Vous devez vous concentrer tout particulirement sur les
problmes affectant les priphriques d'E/S se trouvant en dehors du rseau, lors de la phase
de sparation de la reconfiguration dynamique.

Oracle Solaris Cluster rejette les oprations de suppression de carte de reconfiguration


dynamique effectues lorsqu'une interface configure pour un priphrique de quorum est
prsente.

Si l'opration de reconfiguration graphique appartient un priphrique actif, Oracle


Solaris Cluster rejette et identifie les priphriques affects par l'opration.

Pour supprimer un priphrique de quorum, vous devez suivre les tapes suivantes dans l'ordre
indiqu.

Chapitre 6 Gestion de Quorum

191

Gestion des priphriques de quorum

TABLEAU 62

Liste des tches : reconfiguration dynamique avec les priphriques de quorum

Tche

Instructions

1. Activez un nouveau priphrique de


Ajout d'un priphrique de quorum la page 192
quorum pour remplacer celui supprimer.
2. Dsactivez le priphrique de quorum
supprimer.

Suppression d'un priphrique de quorum la page 204

3. Excutez l'opration de suppression DR


sur le priphrique en cours de
suppression.

Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual


(de la collection Solaris 10 on Sun Hardware)

Ajout d'un priphrique de quorum


Cette section fournit les procdures d'ajout d'un priphrique de quorum. Assurez-vous que
tous les nuds dans le cluster sont en ligne avant l'ajout d'un nouveau priphrique de quorum.
Pour plus d'informations propos de la dtermination du nombre de votes de quorum
ncessaires pour votre cluster, des configurations de quorum recommandes et de la sparation
en cas d'chec, reportez-vous la section Quorum and Quorum Devices du Oracle Solaris
Cluster Concepts Guide.
Attention N'ajoutez pas de disque actuellement configur en tant que priphrique de quorum

un pool de stockage Solaris ZFS. Si un priphrique de quorum configur est ajout un pool
de stockage Solaris ZFS, le disque est rtiquet comme disque EFI, les informations de
configuration de quorum sont perdues et le disque ne fournit plus de vote de quorum au cluster.
Une fois qu'un disque se trouve dans un pool de stockage, ce disque peut tre configur en tant
que priphrique de quorum. Vous pouvez galement annuler la configuration du disque,
l'ajouter au pool de stockage, puis le reconfigurer en tant que priphrique de quorum.
Le logiciel Oracle Solaris Cluster prend en charge les types de priphriques de quorum
suivants :

Disque-partag attach directement pour les priphriques SCSI ou SATA (Serial Attached
Technology Attachment)

Sun NAS

Oracle's Sun Storage 7000 Unified Storage Systems

Network Appliance (NetApp) NAS

Oracle Solaris Cluster Quorum Server

Les procdures d'ajout de ces priphriques sont fournies dans les sections suivantes :

192

Ajout d'un priphrique de quorum de disque partag la page 194

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

Ajout d'un priphrique de quorum NAS (Network-Attached Storage) pour solution


rseau la page 197
Ajout d'un priphrique de quorum de serveur de quorum la page 200

Remarque Vous ne pouvez pas configurer de disques rpliqus comme priphriques de

quorum. Si vous ajoutez un disque rpliqu en tant que priphrique de quorum, vous recevrez
le message d'erreur suivant et la commande quitte avec un code d'erreur.
Disk-name is a replicated device. Replicated devices cannot be configured as
quorum devices.

Un priphrique de quorum de disques partags correspond tout priphrique de stockage


pris en charge par le logiciel Oracle Solaris Cluster. Le disque partag est connect deux
nuds ou plus de votre cluster. Si vous activez la sparation, un disque double accs peut tre
configur comme priphrique de quorum utilisant SCSI-2 ou SCSI-3 (SCSI-2 par dfaut). Si la
sparation est active et que votre priphrique partag est connect plus de deux nuds, vous
pouvez configurer votre disque partag comme un priphrique de quorum utilisant le
protocole SCSI-3 (le protocole par dfaut pour plus de deux nuds). Vous pouvez utiliser
l'indicateur de remplacement SCSI pour que le logiciel Oracle Solaris Cluster utilise le protocole
SCSI-3 pour les disques partags double accs.
Si vous dsactivez la sparation pour un disque partag, vous pouvez configurer le disque
comme un priphrique de quorum utilisant le protocole de quorum de logiciel. Cela s'avre
vrai que le disque prenne en charge le protocole SCSI-2 ou le protocole SCSI-3. Le quorum du
logiciel est un protocole d'Oracle qui mule une forme de rservations de groupe persistant
(PGR) SCSI.
Attention Si vous utilisez des disques qui ne prennent pas SCSI en charge (comme les disques
SATA), dsactivez la sparation SCSI.

Pour les priphriques de quorum, vous pouvez utiliser un disque qui contient des donnes
utilisateur ou qui est membre d'un groupe de priphriques. Affichez le protocole utilis par le
sous-systme de quorum avec un disque partag en regardant la valeur mode daccs pour le
disque partag dans la sortie de la commande cluster show.
Vous pouvez galement effectuer ces procdures l'aide de l'interface graphique de Oracle
Solaris Cluster Manager. Pour plus d'informations, reportez-vous l'aide en ligne de Oracle
Solaris Cluster Manager.
Reportez-vous aux pages de manuel concernant clsetup(1CL) et clquorum(1CL) pour plus
d'informations propos des commandes utilises dans les procdures suivantes.
Chapitre 6 Gestion de Quorum

193

Gestion des priphriques de quorum

Ajout d'un priphrique de quorum de disque partag


Le logiciel Oracle Solaris Cluster prend en charge les priphriques de disque partag (SCSI et
SATA) en tant que priphriques de quorum. Un priphrique SATA ne prend pas en charge la
rservation SCSI. Vous devez dsactiver l'indicateur de sparation de la rservation SCSI et
utiliser le protocole de quorum de logiciel pour configurer ces disques en tant que priphriques
de quorum.
Pour terminer cette procdure, identifiez une unit de disque par son ID de priphrique (DID)
qui est partag par les nuds. Utilisez la commande cldevice show pour voir la liste des noms
d'ID de priphrique. Reportez-vous la page de manuel concernant cldevice(1CL) pour des
informations supplmentaires. Assurez-vous que tous les nuds dans le cluster sont en ligne
avant l'ajout d'un nouveau priphrique de quorum.
Utilisez cette procdure pour configurer des priphriques SCSI ou SATA.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits


d'autorisation RBCA solaris.cluster.modify sur tous les nuds du cluster.

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal clsetup s'affiche.


3

Saisissez le nombre correspondant l'option pour Quorum.


Le menu Quorum s'affiche.

Saisissez le nombre correspondant l'option pour l'ajout d'un priphrique de quorum, puis
saisissez yes lorsque l'utilitaire clsetup vous demande de confirmer le priphrique de quorum
que vous ajoutez.
L'utilitaire clsetup vous demande le type de priphrique de quorum que vous souhaitez
ajouter.

Saisissez le nombre correspondant l'option pour un priphrique de quorum de disque


partag.
L'utilitaire clsetup vous demande le priphrique global que vous souhaitez utiliser.

194

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

Saisissez le priphrique global que vous utilisez.


L'utilitaire clsetup vous demande de confirmer l'ajout du nouveau priphrique de quorum au
priphrique global que vous avez spcifiez.

Saisissez yes pour poursuivre l'ajout du nouveau priphrique de quorum.


Si le nouveau priphrique de quorum est ajout avec succs, l'utilitaire clsetup affiche un
message cet effet.

Vrifiez que le priphrique de quorum a t ajout.


# clquorum list -v

Exemple 61

Ajout d'un priphrique de quorum de disque partag


L'exemple suivant montre la commande clquorum gnre par clsetup lorsqu'il ajoute un
priphrique de quorum de disque partag et une tape de vrification.

Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on any
cluster node.
[Start the clsetup utility:]
# clsetup
[Select Quorum>Add a quorum device]
[Answer the questions when prompted.]
[You will need the following information.]
[Information:
Example:]
[Directly attached shared disk
shared_disk]
[Global device
d20]
[Verify that the clquorum command was completed successfully:]
clquorum add d20
Command completed successfully.
[Quit the clsetup Quorum Menu and Main Menu.]
[Verify that the quorum device is added:]
# clquorum list -v
Quorum
------d20
scphyshost-1
scphyshost-2

Type
---shared_disk
node
node

Ajout d'un priphrique de quorum Sun NAS ou d'un priphrique de

quorum Sun Storage 7000 Unified Storage Systems NAS


Assurez-vous que tous les nuds dans le cluster sont en ligne avant l'ajout d'un nouveau
priphrique de quorum.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Chapitre 6 Gestion de Quorum

195

Gestion des priphriques de quorum

Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Utilisez l'interface graphique de Sun NAS ou celle de Sun Unified Storage pour paramtrer un
priphrique iSCSI sur le gestionnaire de fichiers Sun NAS.
Si vous disposez d'un priphrique Sun Unified Storage, utilisez l'interface utilisateur du
navigateur pour effectuer les tapes ci-dessous. Si vous disposez d'un priphrique Sun NAS,
utilisez les commandes suivantes :
a. Crez un volume de fichier d'approximativement 50 Mga-octets.
b. Pour chaque nud, crez une liste d'accs iSCSI.
i. Utilisez le nom du cluster en tant que nom de la liste d'accs iSCSI.
ii. Ajoutez le nom du nud initiateur de chaque nud du cluster dans la liste d'accs. CHAP
et IQN ne sont pas ncessaires.
c. Configurez le LUN iSCSI.
Vous pouvez utiliser le nom du volume du fichier de sauvegarde comme nom du LUN.
Ajoutez la liste d'accs pour chaque nud au LUN.

Sur chaque nud du cluster, dtectez le LUN iSCSI et dfinissez la liste d'accs iSCSI pour la
configuration statique.
# iscsiadm modify discovery -s enable
# iscsiadm list discovery
Discovery:
Static: enabled
Send Targets: disabled
iSNS: disabled
# iscsiadm add static-config iqn.LUNName,IPAddress_of_NASDevice
# devfsadm -i iscsi
# cldevice refresh

partir d'un nud du cluster, configurez les ID de priphrique pour le LUN iSCSI.
# /usr/cluster/bin/cldevice populate

196

Identifiez le priphrique DID reprsentant le LUN du priphrique NAS qui vient d'tre
configur dans le cluster avec l'iSCSI. Utilisez la commande cldevice show pour voir la liste des
noms d'ID de priphrique. Reportez-vous la page de manuel concernant cldevice(1CL) pour
des informations supplmentaires.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.
Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

Utilisez la commande clquorum pour ajouter le priphrique NAS en tant que priphrique de
quorum en utilisant le priphrique DID identifi l'tape 4.
# clquorum add d20

Le cluster possde des rgles par dfaut pour choisir entre les protocoles de quorum scsi-2,
scsi-3 ou logiciel. Pour plus d'informations, reportez-vous la page de manuel clquorum(1CL).
Exemple 62

Ajout d'un priphrique de quorum Sun NAS ou d'un priphrique de quorum Sun
Storage 7000 Unified Storage Systems NAS
L'exemple suivant montre la commande clquorum gnre par clsetup lorsqu'il ajoute un
priphrique de quorum Sun NAS et une tape de vrification.

Add an iSCSI device on the Sun NAS filer.


Use the Sun NAS GUI to create a file volume that is approximately 50mb in size.
File Volume Operations -> Create File Volume
For each node, create an iSCSI access list.
iSCSI Configuration -> Configure Access List
Add the initiator node name of each cluster node to the access list.
*** Need GUI or command syntax for this step. ***
Configure the iSCSI LUN
iSCSI Configuration -> Configure iSCSI LUN
On each of the cluster nodes, discover the iSCSI LUN and set the iSCSI access list to static configuration.
iscsiadm modify discovery -s enable
iscsiadm list discovery
Discovery:
Static: enabled
Send Targets: enabled
iSNS: disabled
iscsiadm add static-config
iqn.1986-03.com.sun0-1:000e0c66efe8.4604DE16.thinquorum,10.11.160.20
devsadm -i iscsi
From one cluster node, configure the DID devices for the iSCSI LUN.
/usr/cluster/bin/scldevice populate
/usr/cluster/bin/scldevice populate
Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on any
cluster node.
[Add the NAS device as a quorum device
using the DID device:]
clquorum add d20
Command completed successfully.

Ajout d'un priphrique de quorum NAS (Network-Attached Storage)

pour solution rseau


Lorsque vous utilisez un priphrique NAS (stockage connect au rseau) pour solution rseau
(NetApp) comme un priphrique de quorum, les actions suivantes sont requises :

Vous devez installer la licence iSCSI de NetApp.

Vous devez configurer le LUN iSCSI sur le gestionnaire de fichiers clusteris pour l'utiliser
en tant que priphrique de quorum.

Chapitre 6 Gestion de Quorum

197

Gestion des priphriques de quorum

Vous devez configurer l'unit NAS pour NetApp pour utiliser NTP pour la synchronisation
de l'heure.

Au moins un des serveurs NTP slectionns pour le gestionnaire de fichiers clusteris doit
tre un serveur NTP pour les nuds de Oracle Solaris Cluster.

Lors de l'initialisation du cluster, initialisez toujours le priphrique NAS avant les nuds
du cluster.
Si vous initialisez les priphriques dans un ordre incorrect, vos nuds ne peuvent pas
trouver le priphrique de quorum. Si un nud devait chouer dans cette situation, votre
cluster pourrait ne pas tre capable de rester en service. Si une interruption de service se
produit, vous devez soit rinitialiser la totalit du cluster, soit supprimer le priphrique de
quorum NAS pour NetApp et l'ajouter nouveau.

Un cluster peut utiliser un priphrique NAS uniquement pour un priphrique de quorum


unique.
Vous pouvez configurer d'autres stockages partags si vous avez besoin de priphriques de
quorum supplmentaires. Les clusters supplmentaires utilisant le mme priphrique NAS
peuvent utiliser des LUN spars sur ce priphrique en tant que leurs priphriques de
quorum.

Reportez-vous la documentation suivante d'Oracle Solaris Cluster pour plus d'informations


propos de l'installation d'un priphrique de stockage NAS pour NetApp dans un
environnement Oracle Solaris Cluster : Oracle Solaris Cluster 3.3 With Network-Attached
Storage Devices Manual.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Assurez-vous que tous les nuds de Oracle Solaris Cluster sont en ligne et peuvent
communiquer avec le gestionnaire de fichiers clusteris de NetApp.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits


d'autorisation RBCA solaris.cluster.modify sur tous les nuds du cluster.

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal clsetup s'affiche.


4

198

Saisissez le nombre correspondant l'option pour Quorum.


Le menu Quorum s'affiche.
Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

Saisissez le nombre correspondant l'option pour l'ajout d'un priphrique de quorum.


Saisissez ensuite yes pour confirmer l'ajout d'un priphrique de quorum.
L'utilitaire clsetup vous demande le type de priphrique de quorum que vous souhaitez
ajouter.

Saisissez le nombre correspondant l'option pour un priphrique de quorum NAS de NetApp.


Saisissez ensuite yes pour confirmer l'ajout d'un priphrique de quorum NAS de NetApp.
L'utilitaire clsetup vous demande le nom du nouveau priphrique de quorum.

Saisissez le nom du priphrique de quorum que vous ajoutez.


Vous pouvez choisir n'importe quel nom pour le priphrique de quorum. Le nom sert
uniquement traiter les futures commandes d'administration.
L'utilitaire clsetup vous demande le nom du gestionnaire de fichiers pour le nouveau
priphrique de quorum.

Saisissez le nom du gestionnaire de fichiers du nouveau priphrique de quorum.


Ce nom correspond au nom ou l'adresse accessible par le rseau du gestionnaire de fichiers.
L'utilitaire clsetup vous demande l'ID du LUN pour le gestionnaire de fichiers.

Saisissez l'ID du LUN du priphrique de quorum sur le gestionnaire de fichiers.


L'utilitaire clsetup vous demande si le nouveau priphrique de quorum doit tre ajout au
gestionnaire de fichiers.

10

Saisissez yes pour poursuivre l'ajout du nouveau priphrique de quorum.


Si le nouveau priphrique de quorum est ajout avec succs, l'utilitaire clsetup affiche un
message cet effet.

11

Vrifiez que le priphrique de quorum a t ajout.


# clquorum list -v

Exemple 63

Ajout d'un priphrique de quorum NAS de NetApp


L'exemple suivant montre la commande clquorum gnre par clsetup lorsqu'il ajoute un
priphrique de quorum NAS de NetApp. L'exemple montre galement une tape de
vrification.

Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on any cluster node.
[Start the clsetup utility:]
# clsetup
[Select Quorum>Add a quorum device]
[Answer the questions when prompted.]
[You will need the following information.]
[Information:
Example:]
Chapitre 6 Gestion de Quorum

199

Gestion des priphriques de quorum

[Quorum Device
Netapp_nas quorum device]
[Name:
qd1]
[Filer:
nas1.sun.com]
[LUN ID:
0]
[Verify that the clquorum command was completed successfully:]
clquorum add -t netapp_nas -p filer=nas1.sun.com,-p lun_id=0 qd1
Command completed successfully.
[Quit the clsetup Quorum Menu and Main Menu.]
[Verify that the quorum device is added:]
# clquorum list -v
Quorum
Type
---------qd1
netapp_nas
scphyshost-1
node
scphyshost-2
node

Ajout d'un priphrique de quorum de serveur de quorum


Avant de
commencer

Avant de pouvoir ajouter un serveur de quorum Oracle Solaris Cluster en tant que priphrique
de quorum, le logiciel Oracle Solaris Cluster Quorum Server doit tre install sur la machine
hte et le serveur de quorum doit tre dmarr et en cours d'excution. Pour plus
d'informations propos de l'installation du serveur de quorum, reportez-vous la section
Installation et configuration du logiciel Serveur de quorum du Guide dinstallation du logiciel
Oracle Solaris Cluster.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une


autorisation RBAC solaris.cluster.modify sur un nud du cluster.

Assurez-vous que tous les nuds d'Oracle Solaris Cluster sont en ligne et peuvent
communiquer avec Oracle Solaris Cluster Quorum Server.
a. Assurez-vous que les commutateurs rseau directement connects aux nuds du cluster
remplissent un des critres suivants :

Le commutateur prend en charge le protocole RSTP (Rapid Spanning Tree Protocol).

Le mode de port rapide est activ sur le commutateur.

Une de ces fonctions est ncessaire pour assurer la communication immdiate entre les
nuds du cluster et le serveur de quorum. Si cette communication est significativement
retarde par le commutateur, le cluster interprte cette prvention de communication
comme une perte du serveur du priphrique de quorum.
200

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

b. Si le rseau public utilise un sous-rseau longueur variable, galement appel CIDR


(Classless Inter-Domain Routing), modifiez les fichiers suivants sur chaque nud.
Si vous utilisez des sous-rseaux avec classes, comme dfini dans RFC 791, vous n'avez pas
besoin d'effectuer ces tapes.
i. Dans le fichier /etc/inet/netmasks, ajoutez une entre pour chaque sous-rseau public
utilis par le cluster.
Voici un exemple d'entre contenant une adresse IP et un masque de rseau de rseau
public :
10.11.30.0

255.255.255.0

ii. Ajoutez netmask + broadcast + l'entre du nom d'hte dans chaque fichier
/etc/hostname.adaptater.
nodename netmask + broadcast +

c. Sur chaque nud du cluster, ajoutez le nom d'hte du serveur de quorum au fichier
/etc/inet/hosts ou au fichier /etc/inet/ipnodes.
Ajoutez au fichier un mappage du nom d'hte vers l'adresse, comme suit.
ipaddress qshost1

ipaddress

L'adresse IP de l'ordinateur o le serveur de quorum est excut.

qshost1

Le nom d'hte de l'ordinateur o le serveur de quorum est excut.

d. Si vous utilisez un service de nommage, ajoutez le mappage du nom d'hte vers l'adresse du
serveur de quorum la base de donnes de service de noms.
3

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal clsetup s'affiche.


4

Saisissez le nombre correspondant l'option pour Quorum.


Le menu Quorum s'affiche.

Saisissez le nombre correspondant l'option pour l'ajout d'un priphrique de quorum.


Saisissez ensuite yes pour confirmer l'ajout d'un priphrique de quorum.
L'utilitaire clsetup vous demande le type de priphrique de quorum que vous souhaitez
ajouter.

Saisissez le nombre correspondant l'option pour un priphrique de quorum de serveur de


quorum. Saisissez ensuite yes pour confirmer l'ajout d'un priphrique de quorum de serveur
de quorum.
L'utilitaire clsetup vous demande le nom du nouveau priphrique de quorum.
Chapitre 6 Gestion de Quorum

201

Gestion des priphriques de quorum

Saisissez le nom du priphrique de quorum que vous ajoutez.


Vous pouvez choisir n'importe quel nom pour le priphrique de quorum. Le nom sert
uniquement traiter les futures commandes d'administration.
L'utilitaire clsetup vous demande le nom du gestionnaire de fichiers pour le nouveau
priphrique de quorum.

Saisissez le nom de l'hte du serveur de quorum.


Ce nom indique l'adresse IP de la machine o le serveur de quorum est excut ou le nom d'hte
de la machine sur le rseau.
Selon la configuration IPv4 ou IPv6 de l'hte, l'adresse IP de la machine doit tre indique dans
le fichier /etc/hosts, le fichier /etc/inet/ipnodes ou les deux.
Remarque La machine que vous indiquez doit tre accessible par tous les nuds du cluster et
doit excuter le serveur de quorum.

L'utilitaire clsetup vous demande le numro de port du serveur de quorum.


9

Saisissez le numro de port utilis par le serveur de quorum pour communiquer avec les nuds
du cluster.
L'utilitaire clsetup vous demande de confirmer l'ajout du nouveau priphrique de quorum.

10

Saisissez yes pour poursuivre l'ajout du nouveau priphrique de quorum.


Si le nouveau priphrique de quorum est ajout avec succs, l'utilitaire clsetup affiche un
message cet effet.

11

Vrifiez que le priphrique de quorum a t ajout.


# clquorum list -v

Exemple 64

Ajout d'un priphrique de quorum sur un serveur de quorum


L'exemple suivant montre la commande clquorum gnre par clsetup lorsqu'il ajoute un
priphrique de quorum de serveur de quorum. L'exemple montre galement une tape de
vrification.

Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on any
cluster node.
[Start the clsetup utility:]
# clsetup
[Select Quorum > Add a quorum device]
[Answer the questions when prompted.]
[You will need the following information.]
[Information:
Example:]
[Quorum Device
quorum_server quorum device]
202

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

[Name:
[Host Machine Name:
[Port Number:

qd1]
10.11.124.84]
9001]

[Verify that the clquorum command was completed successfully:]


clquorum add -t quorum_server -p qshost=10.11.124.84,-p port=9001 qd1
Command completed successfully.
[Quit the clsetup Quorum Menu and Main Menu.]
[Verify that the quorum device is added:]
# clquorum list -v
Quorum
------qd1
scphyshost-1
scphyshost-2

Type
---quorum_server
node
node

# clquorum status
=== Cluster Quorum ===
-- Quorum Votes Summary -Needed
-----3

Present
------5

Possible
-------5

-- Quorum Votes by Node -Node Name


--------phys-schost-1
phys-schost-2

Present
------1
1

Possible Status
-------- -----1
Online
1
Online

-- Quorum Votes by Device -Device Name


----------qd1
d3s2
d4s2

Present
------1
1
1

Possible
-------1
1
1

Status
-----Online
Online
Online

Suppression ou remplacement d'un priphrique de


quorum
Cette section fournit les procdures suivantes pour la suppression ou le remplacement d'un
priphrique de quorum :

Suppression d'un priphrique de quorum la page 204


Suppression du dernier priphrique de quorum d'un cluster la page 205
Remplacement d'un priphrique de quorum la page 206

Chapitre 6 Gestion de Quorum

203

Gestion des priphriques de quorum

Suppression d'un priphrique de quorum


Vous pouvez galement effectuer cette procdure l'aide de l'interface graphique d'Oracle
Solaris Cluster Manager. Pour plus d'informations, consultez l'aide en ligne de &fmv426.
Lorsqu'un priphrique de quorum est supprim, il ne participe plus au vote pour
l'tablissement du quorum. Notez qu'au moins un priphrique de quorum doit tre configur
pour les clusters comportant deux nuds. S'il s'agit du dernier priphrique de quorum d'un
cluster, clquorum(1CL) ne pourra pas supprimer le priphrique de la configuration. Si vous
supprimez un nud, supprimez tous les priphriques de quorum connects au nud.
Remarque Si le priphrique que vous souhaitez supprimer est le dernier priphrique de
quorum du cluster, reportez-vous la procdure Suppression du dernier priphrique de
quorum d'un cluster la page 205.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits


d'autorisation RBCA solaris.cluster.modify sur tous les nuds du cluster.

Dterminez le priphrique de quorum supprimer.


# clquorum list -v

Excutez l'utilitaire clsetup(1CL).


# clsetup

Le menu principal s'affiche.


4

Saisissez le nombre correspondant l'option pour Quorum.

Saisissez le nombre correspondant l'option de suppression d'un priphrique de quorum.


Rpondez aux questions affiches durant le processus de suppression.

Quittez clsetup.

Vrifiez que le priphrique de quorum a t supprim.


# clquorum list -v

204

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

Exemple 65

Suppression d'un priphrique de quorum


Cet exemple montre la procdure de suppression d'un priphrique de quorum d'un cluster
avec deux priphriques de quorum configurs ou plus.

Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on any
cluster node.
[Determine the quorum device to be removed:]
# clquorum list -v
[Start the clsetup utility:]
# clsetup
[Select Quorum>Remove a quorum device]
[Answer the questions when prompted.]
Quit the clsetup Quorum Menu and Main Menu.]
[Verify that the quorum device is removed:]
# clquorum list -v
Quorum
------scphyshost-1
scphyshost-2
scphyshost-3

Type
---node
node
node

Erreurs
frquentes

Si vous perdez la communication entre le cluster et l'hte serveur du quorum lors de la


suppression d'un priphrique de quorum de serveur de quorum, vous devez nettoyer les
informations de configuration obsoltes concernant l'hte serveur du quorum. Pour les
instructions concernant ce nettoyage, reportez-vous Nettoyage des informations obsoltes
du cluster du serveur de quorum la page 219.

Suppression du dernier priphrique de quorum d'un cluster


Cette procdure permet de supprimer le dernier priphrique de quorum d'un cluster deux
nuds en utilisant l'option clquorum force -F. En gnral, vous devez d'abord supprimer le
priphrique dfectueux et ensuite ajouter le priphrique de quorum de remplacement. S'il ne
s'agit pas du dernier priphrique de quorum d'un cluster deux nuds, suivez les tapes
dcrites dans la section Suppression d'un priphrique de quorum la page 204.
L'ajout d'un priphrique de quorum implique une reconfiguration du nud qui entre en
contact avec le priphrique de quorum dfectueux et affole la machine. L'option de forage
vous permet de supprimer le priphrique de quorum dfectueux sans provoquer d'erreur
grave sur la machine. La commande clquorum(1CL) vous permet de supprimer le priphrique
de la configuration. Aprs avoir supprim le priphrique de quorum dfectueux, vous pouvez
ajouter un nouveau priphrique l'aide de la commande clquorum add. Reportez-vous
Ajout d'un priphrique de quorum la page 192.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.

Chapitre 6 Gestion de Quorum

205

Gestion des priphriques de quorum

Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits


d'autorisation RBCA solaris.cluster.modify sur tous les nuds du cluster.

Supprimez le priphrique de quorum l'aide de la commande clquorum. Si le priphrique de


quorum choue, utilisez l'option de forage -F pour supprimer le priphrique dfectueux.
# clquorum remove -F qd1
Remarque Vous pouvez galement placer le nud supprimer en mode de maintenance, puis

supprimer le priphrique de quorum l'aide de la commande clquorum remove quorum. Les


options du menu d'administration du cluster clsetup(1CL) ne sont pas disponibles lorsque le
cluster est en mode d'installation. Pour plus d'informations, reportez-vous la section Mise en
mode de maintenance d'un nud la page 275.
3

Vrifiez que le priphrique de quorum a t supprim.


# clquorum list -v

Exemple 66

Suppression du dernier priphrique de quorum


Cet exemple montre la procdure pour mettre le cluster en mode de maintenance et supprimer
le dernier priphrique de quorum restant dans une configuration en cluster.

[Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on any
cluster node.]
[Place the cluster in install mode:]
# cluster set -p installmode=enabled
[Remove the quorum device:]
# clquorum remove d3
[Verify that the quorum device has been removed:]
# clquorum list -v
Quorum
Type
---------scphyshost-1
node
scphyshost-2
node
scphyshost-3
node

Remplacement d'un priphrique de quorum


Utilisez cette procdure pour remplacer un priphrique de quorum existant pas un autre
priphrique de quorum. Vous pouvez remplacer un priphrique de quorum par un type de
priphrique similaire, par exemple remplacer un priphrique NAS par un autre priphrique
NAS, ou vous pouvez remplacer le priphrique par un priphrique diffrent, par exemple un
priphrique NAS par un disque partag.

206

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Configurez un nouveau priphrique de quorum.


Vous devez d'abord ajouter un nouveau priphrique de quorum la configuration pour
prendre la place de l'ancien priphrique. Pour ajouter un nouveau priphrique de quorum
un cluster, reportez-vous la section Ajout d'un priphrique de quorum la page 192.

Supprimez le priphrique que vous remplacez comme un priphrique de quorum.


Pour supprimer l'ancien priphrique de quorum de la configuration, reportez-vous la section
Suppression d'un priphrique de quorum la page 204.

Si le priphrique de quorum est un disque dfectueux, remplacez le disque.


Reportez-vous aux procdures matrielles pour la dlimitation de votre disque dans le Oracle
Solaris Cluster 3.3 Hardware Administration Manual.

Maintenance des priphriques de quorum


Cette section fournit les procdures suivantes de maintenance des priphriques de quorum.

Modification d'une liste de nuds de priphrique de quorum la page 207


Mise d'un priphrique de quorum en mode de maintenance la page 210
Sortie du mode de maintenance d'un priphrique de quorum la page 211
Rpertorier la configuration de quorum la page 213
Rparation d'un priphrique de quorum la page 214

Modification d'une liste de nuds de priphrique de quorum


Vous pouvez utiliser l'utilitaire clsetup(1CL) pour ajouter ou supprimer un nud dans la liste
de nuds d'un priphrique de quorum existant. Pour modifier la liste de nuds d'un
priphrique de quorum, vous devez supprimer le priphrique de quorum, modifier les
connexions physiques entre les nuds et le priphrique de quorum supprim, puis ajouter
nouveau le priphrique de quorum la configuration en cluster. Lorsqu'un priphrique de
quorum est ajout, clquorum(1CL) configure automatiquement le chemin disque vers nud
pour tous les nuds attachs au disque.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.

Chapitre 6 Gestion de Quorum

207

Gestion des priphriques de quorum

Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits


d'autorisation RBCA solaris.cluster.modify sur tous les nuds du cluster.

Dterminez le nom du priphrique de quorum que vous modifiez.


# clquorum list -v

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


4

Saisissez le nombre correspondant l'option de quorum.


Le menu Quorum s'affiche.

Saisissez le nombre correspondant l'option de suppression d'un priphrique de quorum.


Suivez les instructions. Le nom du disque supprimer vous sera demand.

Ajoutez ou supprimez les connexions de nud au priphrique de quorum.

Saisissez le nombre correspondant l'option d'ajout d'un priphrique de quorum.


Suivez les instructions. Le nom du disque utiliser en tant que priphrique de quorum vous
sera demand.

Vrifiez que le priphrique de quorum a t ajout.


# clquorum list -v

Exemple 67

Modification d'une liste de nuds de priphrique de quorum


L'exemple suivant montre la procdure d'utilisation de l'utilitaire clsetup pour ajouter ou
supprimer des nuds d'une liste de nuds d'un priphrique de quorum. Dans cet exemple, le
nom du priphrique de quorum est d2 et le rsultat final des procdures ajoute un autre nud
la liste des nuds du priphrique de quorum.

[Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on


any node in the cluster.]
[Determine the quorum device name:]
# clquorum list -v
Quorum
Type
----------d2
shared_disk

208

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

sc-phys-schost-1
sc-phys-schost-2
sc-phys-schost-3

node
node
node

[Start the clsetup utility:]


# clsetup
[Type the number that corresponds with the quorum option.]
.
[Type the number that corresponds with the option to remove a quorum device.]
.
[Answer the questions when prompted.]
[You will need the following information:]
Information:
Quorum Device Name:

Example:
d2

[Verify that the clquorum command completed successfully:]


clquorum remove d2
Command completed successfully.
[Verify that the quorum device was removed.]
# clquorum list -v
Quorum
Type
----------sc-phys-schost-1 node
sc-phys-schost-2 node
sc-phys-schost-3 node
[Type the number that corresponds with the Quorum option.]
.
[Type the number that corresponds with the option to add a quorum device.]
.
[Answer the questions when prompted.]
[You will need the following information:]
Information
quorum device name

Example:
d2

[Verify that the clquorum command was completed successfully:]


clquorum add d2
Command completed successfully.
Quit the clsetup utility.
[Verify that the correct nodes have paths to the quorum device.
In this example, note that phys-schost-3 has been added to the
enabled hosts list.]
# clquorum show d2 | grep Hosts
=== Quorum Devices ===
Quorum Device Name:
Hosts (enabled):

d2
phys-schost-1, phys-schost-2, phys-schost-3

[Verify that the modified quorum device is online.]


# clquorum status d2
=== Cluster Quorum ===

Chapitre 6 Gestion de Quorum

209

Gestion des priphriques de quorum

--- Quorum Votes by Device --Device Name


----------d2

Present
------1

Possible
-------1

Status
-----Online

Mise d'un priphrique de quorum en mode de maintenance


Utilisez la commande clquorum(1CL) pour mettre un priphrique de quorum en mode de
maintenance. L'utilitaire clsetup(1CL) ne possde actuellement pas cette capacit. Vous
pouvez galement suivre cette procdure l'aide de l'interface graphique de Oracle Solaris
Cluster Manager. Pour plus d'informations, reportez-vous l'aide en ligne de Oracle Solaris
Cluster Manager.
Mettez un priphrique de quorum en mode de maintenance lorsque vous mettez le
priphrique de quorum hors service pour une longue priode. De cette manire, le nombre de
votes de quorum du priphrique de quorum est dfini sur zro et le priphrique ne participe
pas au vote de quorum lorsqu'il est en cours de maintenance. En mode de maintenance, les
informations de configuration du priphrique de quorum sont prserves.
Remarque Tous les clusters deux nuds ncessitent au moins un priphrique de quorum

configur. S'il s'agit du dernier priphrique de quorum d'un cluster deux nuds, clquorum ne
pourra pas mettre le priphrique en mode de maintenance.
Pour mettre un nud du cluster en mode de maintenance, reportez-vous Mise en mode de
maintenance d'un nud la page 275.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits


d'autorisation RBCA solaris.cluster.modify sur tous les nuds du cluster.

Mettez le priphrique de quorum en mode de maintenance.


# clquorum disable device

priphrique

210

Spcifie le nom DID du priphrique de disque modifier, par exemple, d4.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

Vrifiez que le priphrique de quorum est maintenant en mode de maintenance.


La sortie pour le priphrique que vous avez mis en mode de maintenance doit donner zro
pour les votes du priphrique de quorum.
# clquorum status device

Exemple 68

Mise d'un priphrique de quorum en mode de maintenance


L'exemple suivant montre la procdure de mise en mode de maintenance d'un priphrique de
quorum et de vrification des rsultats.
# clquorum disable d20
# clquorum status d20
=== Cluster Quorum ===
--- Quorum Votes by Device --Device Name
----------d20

Voir aussi

Present
------1

Possible
-------1

Status
-----Offline

Pour ractiver le priphrique de quorum, reportez-vous la section Sortie du mode de


maintenance d'un priphrique de quorum la page 211.
Pour mettre un nud en mode de maintenance, reportez-vous la section Mise en mode de
maintenance d'un nud la page 275.

Sortie du mode de maintenance d'un priphrique de quorum


Excutez cette procdure chaque fois qu'un priphrique de quorum est en mode de
maintenance et que vous souhaitez l'en sortir et rinitialiser le nombre de votes du quorum par
dfaut.
Attention Si vous ne spcifiez pas les options globaldev ou node, les votes de quorum sont
rinitialiss pour tout le cluster.

Lorsque vous configurez un priphrique de quorum, le logiciel Oracle Solaris Cluster assigne
au priphrique de quorum un nombre de votes N-1 o N est le nombre de votes connects au
priphrique de quorum. Par exemple, un priphrique de quorum connect deux nuds
avec des nombres de votes diffrents de zro possde un vote de quorum de un (deux moins
un).

Pour sortir un nud du cluster et ses priphriques de quorum associs du mode de


maintenance, reportez-vous la section Arrt du mode de maintenance d'un nud
la page 276.

Chapitre 6 Gestion de Quorum

211

Gestion des priphriques de quorum

Pour en savoir plus sur les nombres de votes de quorum, reportez-vous la section About
Quorum Vote Counts du Oracle Solaris Cluster Concepts Guide.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits


d'autorisation RBCA solaris.cluster.modify sur tous les nuds du cluster.

Rinitialisez le nombre du quorum.


# clquorum enable device

priphrique

Spcifie le nom DID du priphrique de quorum rinitialiser, par exemple


d4.

Si vous rinitialisez le nombre de quorum parce que le nud tait en mode de maintenance,
redmarrez le nud.

Vrifiez le nombre de votes de quorum.


# clquorum show +

Exemple 69

Rinitialisation du nombre de votes de quorum (priphrique de quorum)


L'exemple suivant rinitialise le nombre de quorum pour un priphrique de quorum et vrifie
le rsultat.
# clquorum enable d20
# clquorum show +
=== Cluster Nodes ===
Node Name:
Node ID:
Quorum Vote Count:
Reservation Key:

phys-schost-2
1
1
0x43BAC41300000001

Node Name:
Node ID:
Quorum Vote Count:
Reservation Key:

phys-schost-3
2
1
0x43BAC41300000002

=== Quorum Devices ===


Quorum Device Name:

212

d3

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des priphriques de quorum

Enabled:
Votes:
Global Name:
Type:
Access Mode:
Hosts (enabled):

yes
1
/dev/did/rdsk/d20s2
shared_disk
scsi2
phys-schost-2, phys-schost-3

Rpertorier la configuration de quorum


Vous pouvez galement effectuer cette procdure l'aide de l'interface graphique de Oracle
Solaris Cluster Manager. Pour plus d'informations, reportez-vous l'aide en ligne de Oracle
Solaris Cluster Manager.
Vous n'avez pas besoin d'tre un superutilisateur pour rpertorier la configuration de quorum.
Il vous suffit de disposer des droits d'autorisation RBAC solaris.cluster.read.
Remarque Lorsque vous augmentez ou diminuez le nombre de nuds joints un priphrique

de quorum, le nombre de votes de quorum est automatiquement recalcul. Vous pouvez


rtablir le bon vote de quorum si vous supprimez tous les priphriques de quorum et les
ajoutez nouveau la configuration. Pour un cluster deux nuds, ajoutez temporairement un
nouveau priphrique de quorum avant la suppression et l'ajout du priphrique de quorum
d'origine. Supprimez ensuite le priphrique de quorum temporaire.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Utilisez clquorum(1CL) pour rpertoriez la configuration de quorum.


% clquorum show +

Exemple 610

Inscription de la configuration de quorum


% clquorum show +
=== Cluster Nodes ===
Node Name:
Node ID:
Quorum Vote Count:
Reservation Key:

phys-schost-2
1
1
0x43BAC41300000001

Node Name:
Node ID:
Quorum Vote Count:

phys-schost-3
2
1

Chapitre 6 Gestion de Quorum

213

Gestion des priphriques de quorum

Reservation Key:

0x43BAC41300000002

=== Quorum Devices ===


Quorum Device Name:
Enabled:
Votes:
Global Name:
Type:
Access Mode:
Hosts (enabled):

d3
yes
1
/dev/did/rdsk/d20s2
shared_disk
scsi2
phys-schost-2, phys-schost-3

Rparation d'un priphrique de quorum


Utilisez cette procdure pour remplacer un priphrique de quorum dfaillant.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Supprimez le priphrique de disque que vous remplacez comme un priphrique de quorum.


Remarque Si le priphrique que vous souhaitez supprimer est le dernier priphrique de
quorum, vous devez pralablement ajouter un autre disque en tant que nouveau priphrique
de quorum. Cette tape garantit un priphrique de quorum valide en cas de panne lors de la
procdure de remplacement. Pour ajouter un nouveau priphrique de quorum, reportez-vous
la section Ajout d'un priphrique de quorum la page 192.

Pour supprimer un priphrique de disque comme un priphrique de quorum, reportez-vous


Suppression d'un priphrique de quorum la page 204.

214

Remplacez le priphrique de disque.


Pour remplacer le priphrique de disque, reportez-vous aux procdures matrielles pour la
dlimitation du disque dcrites dans le Oracle Solaris Cluster 3.3 Hardware Administration
Manual.

Ajoutez le disque remplac comme un nouveau priphrique de quorum.


Pour ajouter un disque comme un nouveau priphrique de quorum, reportez-vous la section
Ajout d'un priphrique de quorum la page 192.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des serveurs de quorum Oracle Solaris Cluster

Remarque Si vous avez ajout un priphrique de quorum supplmentaire dans l'tape 1, vous
pouvez maintenant le supprimer en toute scurit. Pour supprimer le priphrique de quorum,
reportez-vous la section Suppression d'un priphrique de quorum la page 204.

Gestion des serveurs de quorum Oracle Solaris Cluster


Le serveur de quorum Oracle Solaris Cluster n'est pas un priphrique de stockage partag.
Cette section fournit la procdure de gestion des serveurs de quorum de Oracle Solaris Cluster,
y compris :

Prsentation du fichier de configuration du serveur de quorum la page 215


Dmarrage et arrt du logiciel Oracle Solaris Cluster Quorum Server la page 216
Dmarrage d'un serveur de quorum la page 216
Arrt d'un serveur de quorum la page 217
Affichage des informations concernant le serveur de quorum la page 218
Nettoyage des informations obsoltes du cluster du serveur de quorum la page 219

Pour plus d'informations propos de l'installation et de la configuration des serveurs de


quorum Oracle Solaris Cluster, reportez-vous la section Installation et configuration du
logiciel Serveur de quorum du Guide dinstallation du logiciel Oracle Solaris Cluster.

Prsentation du fichier de configuration du serveur de


quorum
Lorsque vous installez le logiciel Oracle Solaris Cluster, un fichier de configuration par dfaut,
/etc/scqsd/scqsd.conf, contenant des informations sur un serveur de quorum par dfaut
unique est cr. Chaque ligne du fichier /etc/scqsd/scqsd.conf possde le format suivant :
/usr/cluster/lib/sc/scqsd [-d quorumdirectory] [-i instancename] -p port

/usr/cluster/lib/sc/scqsd

Chemin d'installation complet du logiciel Oracle Solaris


Cluster. Cette valeur doit tre
/usr/cluster/lib/sc/scqsd.

-d quorumdirectory

Chemin du rpertoire dans lequel le serveur de quorum peut


enregistrer les donnes de quorum.
Le processus de serveur de quorum cre un fichier par
cluster dans ce rpertoire afin de stocker les informations de
quorum spcifique aux clusters. Par dfaut, cette option est

Chapitre 6 Gestion de Quorum

215

Gestion des serveurs de quorum Oracle Solaris Cluster

dfinie sur la valeur /var/scqsd. Ce rpertoire doit tre


unique pour chaque serveur de quorum configur.
-i instancename

Nom unique choisi pour l'instance de serveur de quorum.

-p port

Numro de port sur lequel le serveur de quorum recherche


les requtes du cluster. Le port par dfaut est 9000.

Les noms d'instances sont facultatifs. Si vous spcifiez un nom pour le serveur de quorum, il ne
doit tre utilis par aucun des autres serveurs de quorum de votre systme. Si vous n'indiquez
pas de nom d'instance, vous devez faire rfrence au serveur de quorum en utilisant le port sur
lequel il effectue la recherche.

Dmarrage et arrt du logiciel Oracle Solaris Cluster


Quorum Server
Ces procdures dcrivent le dmarrage et l'arrt du logiciel Oracle Solaris Cluster.
Par dfaut, ces procdures dmarrent et arrtent un serveur de quorum unique par dfaut, sauf
si vous avez personnalis le contenu du fichier de configuration du serveur de quorum,
/etc/scqsd/scqsd.conf. Le serveur de quorum par dfaut est li au port 9000 et utilise le
rpertoire /var/scqsd pour les informations du quorum.
Pour plus d'informations concernant la personnalisation du fichier de configuration du serveur
de quorum, reportez-vous la section Prsentation du fichier de configuration du serveur de
quorum la page 215. Pour plus d'informations propos de l'installation du logiciel Oracle
Solaris Cluster Quorum Server, reportez-vous la section Installation et configuration du
logiciel Serveur de quorum du Guide dinstallation du logiciel Oracle Solaris Cluster.

Dmarrage d'un serveur de quorum

Connectez-vous en tant que superutilisateur sur l'hte o vous souhaitez dmarrer le logiciel
Oracle Solaris Cluster.

Utilisez la commande clquorumserver start pour dmarrer le logiciel.


# /usr/cluster/bin/clquorumserver start quorumserver

quorumserver

216

Permet d'identifier le serveur de quorum. Vous pouvez utiliser le numro de


port sur lequel le serveur de quorum coute. Si vous fournissez un nom
d'instance dans le fichier de configuration, vous pouvez utiliser le nom la
place.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des serveurs de quorum Oracle Solaris Cluster

Pour dmarrer un serveur de quorum unique, fournissez le nom d'instance


ou le numro de port. Pour dmarrer tous les serveurs de quorum, lorsque
plusieurs serveurs de quorum sont configurs, utilisez l'oprande +.
Exemple 611

Dmarrage de tous les serveurs de quorum configurs.


L'exemple suivant dmarre tous les serveurs de quorum configurs.
# /usr/cluster/bin/clquorumserver start +

Exemple 612

Dmarrage d'un serveur de quorum spcifique


L'exemple suivant dmarre le serveur de quorum qui coute le numro de port 2000.
# /usr/cluster/bin/clquorumserver start 2000

Arrt d'un serveur de quorum

Connectez-vous en tant que superutilisateur sur l'hte o vous souhaitez dmarrer le logiciel
Oracle Solaris Cluster.

Utilisez la commande clquorumserver stop pour arrter le logiciel.


# /usr/cluster/bin/clquorumserver stop [-d] quorumserver

-d

Contrle si le serveur de quorum dmarre la prochaine fois que vous


initialisez la machine. Si vous spcifiez l'option -d, le serveur de quorum ne
dmarrera pas la prochaine fois que la machine dmarre.

quorumserver

Permet d'identifier le serveur de quorum. Vous pouvez utiliser le numro de


port sur lequel le serveur de quorum coute. Si vous fournissez un nom
d'instance dans le fichier de configuration, vous pouvez utiliser ce nom la
place.
Pour arrter un serveur de quorum unique, fournissez le nom d'instance ou le
numro de port. Pour arrter tous les serveurs de quorum, lorsque plusieurs
serveurs de quorum sont configurs, utilisez l'oprande +.

Exemple 613

Arrt de tous les serveurs de quorum configurs.


L'exemple suivant arrte tous les serveurs de quorum configurs.
# /usr/cluster/bin/clquorumserver stop +

Chapitre 6 Gestion de Quorum

217

Gestion des serveurs de quorum Oracle Solaris Cluster

Exemple 614

Arrt d'un serveur de quorum spcifique


L'exemple suivant arrte le serveur de quorum qui coute le numro de port 2000.
# /usr/cluster/bin/clquorumserver stop 2000

Affichage des informations concernant le serveur de


quorum
Vous pouvez afficher les informations de configuration concernant le serveur de quorum. Pour
chaque cluster ayant configur le serveur de quorum en tant que priphrique de quorum, cette
commande affiche le nom du cluster, l'ID du cluster, la liste des cls de rservation et la liste des
cls d'enregistrement correspondants.

Affichage des informations concernant le serveur de quorum


1

Connectez-vous en tant que superutilisateur l'hte sur lequel vous souhaitez afficher les
informations du serveur de quorum.
Les autres utilisateurs doivent disposer des droits d'autorisation RBAC (contrle d'accs bas
sur les rles) solaris.cluster.read. Pour plus d'informations propos des profils de droits
RBAC, reportez-vous la page de manuel rbac(5).

Affichez les informations de configuration du serveur de quorum en utilisant la commande


clquorumserver.
# /usr/cluster/bin/clquorumserver show quorumserver

quorumserver

Exemple 615

Permet d'identifier un ou plusieurs serveurs de quorum. Vous pouvez


spcifier le serveur de quorum l'aide du nom d'instance ou du numro de
port. Pour afficher les informations de configuration pour tous les serveurs
de quorum, utilisez l'oprande +.

Affichage de la configuration d'un serveur de quorum


L'exemple suivant affiche les informations de configuration pour le serveur de quorum utilisant
le port 9000. La commande affiche les informations pour chaque cluster dont le serveur de
quorum est configur en tant que priphrique de quorum. Ces informations comprennent le
nom et l'ID du cluster et les listes des cls de rservation et des cls d'enregistrement sur le
priphrique.
Dans l'exemple suivant, les nuds avec les ID 1, 2, 3 et 4 du cluster bastille ont enregistr
leurs cls sur le serveur de quorum. De plus, le nud 4 possdant la rservation du priphrique
de quorum, sa cl est affiche dans la liste de rservation.

218

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des serveurs de quorum Oracle Solaris Cluster

# /usr/cluster/bin/clquorumserver show 9000


=== Quorum Server on port 9000 ===
--- Cluster bastille (id 0x439A2EFB) Reservation --Node ID:
Reservation key:

4
0x439a2efb00000004

--- Cluster bastille (id 0x439A2EFB) Registrations ---

Exemple 616

Node ID:
Registration key:

1
0x439a2efb00000001

Node ID:
Registration key:

2
0x439a2efb00000002

Node ID:
Registration key:

3
0x439a2efb00000003

Node ID:
Registration key:

4
0x439a2efb00000004

Affichage de la configuration de plusieurs serveurs de quorum


L'exemple suivant affiche les informations de configuration pour trois serveurs de quorum, qs1,
qs2 et qs3.
# /usr/cluster/bin/clquorumserver show qs1 qs2 qs3

Exemple 617

Affichage de la configuration de tous les serveurs de quorum en cours d'excution


L'exemple suivant affiche les informations de configuration pour tous les serveurs de quorum
en cours d'excution :
# /usr/cluster/bin/clquorumserver show +

Nettoyage des informations obsoltes du cluster du


serveur de quorum
Pour supprimer un priphrique de quorum de type quorumserver, utilisez la commande
clquorum remove comme dcrit dans Suppression d'un priphrique de quorum
la page 204. En opration normale, cette commande supprime galement les informations du
serveur de quorum concernant l'hte du serveur de quorum. Cependant, si le cluster perd les
communications avec l'hte du serveur de quorum, la suppression du priphrique de quorum
ne nettoie pas ces informations.

Chapitre 6 Gestion de Quorum

219

Gestion des serveurs de quorum Oracle Solaris Cluster

Les informations du cluster du serveur de quorum ne sont pas valides dans les cas suivants :

Lorsqu'un cluster est mis hors service sans avoir pralablement supprim le priphrique de
quorum du cluster l'aide de la commande clquorum remove

Lorsqu'un priphrique de quorum de type quorum__server est supprim d'un cluster alors
que l'hte du serveur de quorum est en panne.

Attention Si un priphrique de quorum de type quorumserver n'est pas encore supprim du


cluster, l'utilisation de cette procdure pour nettoyer un serveur de quorum valide peut
compromettre le quorum du cluster.

Nettoyage des informations de configuration du serveur de quorum


Avant de
commencer

Supprimez du cluster le priphrique de quorum du serveur de quorum, comme dcrit dans


Suppression d'un priphrique de quorum la page 204.
Attention Si le cluster utilise toujours le serveur de quorum, cette procdure compromettra le
quorum du cluster.

Connectez-vous l'hte du serveur de quorum en tant que superutilisateur.

Utilisez la commande clquorumserver clear pour nettoyer le fichier de configuration.


# clquorumserver clear -c clustername -I clusterID quorumserver [-y]

-cclustername

Le nom du cluster qui utilisait le serveur de quorum en tant que


priphrique de quorum.
Vous pouvez obtenir le nom du cluster en excutant la commande cluster
show sur un nud du cluster.

-clusterID

L'ID du cluster.
L'ID du cluster correspond un nombre hexadcimal 8 chiffres. Vous
pouvez obtenir l'ID du cluster en excutant la commande cluster show sur
un nud du cluster.

quorumserver

Un identificateur pour un serveur de quorum ou plus.


Le serveur de quorum peut tre identifi l'aide d'un numro de port ou un
nom d'instance. Le numro de port est utilis par les nuds du cluster pour
communiquer avec le serveur de quorum. Le nom d'instance est spcifi
dans le fichier de configuration du serveur de quorum,
/etc/scqsd/scqsd.conf.

220

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Gestion des serveurs de quorum Oracle Solaris Cluster

-y

Forcez la commande clquorumserver clear nettoyer les informations du


cluster partir du fichier de configuration sans demande de confirmation
pralable.
Utilisez cette option si vous tes sr de vouloir que les informations
primes du cluster soient supprimes du serveur de quorum.

Exemple 618

(Facultatif) Si aucun autre priphrique de quorum n'est configur sur cette instance de serveur,
arrtez le serveur de quorum.

Nettoyage des informations dpasses du cluster partir de la configuration du


serveur de quorum
Cet exemple supprime les informations propos du cluster nomm sc-cluster partir du
serveur de quorum utilisant le port 9000.
# clquorumserver clear -c sc-cluster -I 0x4308D2CF 9000
The quorum server to be unconfigured must have been removed from the cluster.
Unconfiguring a valid quorum server could compromise the cluster quorum. Do you
want to continue? (yes or no) y

Chapitre 6 Gestion de Quorum

221

222

C H A P I T R E

Administration des interconnexions de cluster


et des rseaux publics

Ce chapitre contient les procdures logicielles d'administration des interconnexions de cluster


et des rseaux publics de Oracle Solaris Cluster.
L'administration des interconnexions de cluster et des rseaux publics comporte la fois des
procdures logicielles et matrielles. En rgle gnrale, vous configurez les interconnexions de
cluster et les rseaux publics, comprenant les protocoles Internet (IP) et les groupes
multiacheminement sur rseau IP (IPMP), lors de la premire installation et configuration du
cluster. Le multiacheminement est automatiquement install avec le SE Oracle Solaris 10. Vous
devez l'activer pour l'utiliser. Si vous devez modifier par la suite une configuration rseau
d'interconnexion de cluster, vous pouvez suivre les procdures logicielles contenues dans ce
chapitre. Pour plus d'informations concernant les groupes multiacheminement sur rseau IP
(IPMP) d'un cluster, reportez-vous la section Administration du rseau public la page 239.
Ce chapitre contient les informations et les procdures des rubriques suivantes :

Administration des interconnexions de cluster la page 223


Administration du rseau public la page 239

Pour une description gnrale des procdures associes ce chapitre, reportez-vous au


Tableau 71 et au Tableau 73.
Pour obtenir des informations gnrales et une prsentation des interconnexions de cluster et
des rseaux publics, reportez-vous au Oracle Solaris Cluster Concepts Guide.

Administration des interconnexions de cluster


Cette section contient les procdures de reconfiguration des interconnexions de cluster, tels que
les adaptateurs de transport intracluster et les cbles de transport intracluster. Ces procdures
requirent l'installation du logiciel Oracle Solaris Cluster.
223

Administration des interconnexions de cluster

En rgle gnrale, vous pouvez utiliser la commande clsetup pour administrer le transport
intracluster des interconnexions de cluster. Pour plus d'informations, reportez-vous la page de
manuel clsetup(1CL). Toutes les commandes d'interconnexion de cluster doivent tre
excutes sur le nud votant du cluster global.
Pour les procdures d'installation logicielle du cluster, reportez-vous au Guide dinstallation du
logiciel Oracle Solaris Cluster. Pour les procdures de maintenance des composants matriels du
cluster, reportez-vous au Oracle Solaris Cluster 3.3 Hardware Administration Manual.
Remarque Vous pouvez gnralement choisir d'utiliser le nom du port par dfaut, le cas

chant, pendant les procdures d'interconnexion de cluster. Le nom du port par dfaut est gal
au numro d'ID du nud hbergeant les extrmits de l'adaptateur du cble.
TABLEAU 71

Liste des tches : administration d'une interconnexion de cluster

Tche

Instructions

Administrez le transport intracluster


l'aide de l'utilitaire clsetup(1CL).

Accs aux utilitaires de configuration du cluster la page 28

Vrifiez l'tat de l'interconnexion de cluster Vrification de l'tat de l'interconnexion de cluster


l'aide de la commande.clinterconnect
la page 225
status.

224

Ajoutez un cble, un adaptateur ou un


commutateur de transport intracluster
l'aide de l'utilitaire clsetup.

Ajout de cbles, d'adaptateurs ou de commutateurs de transport


intracluster la page 226

Supprimez un cble, un adaptateur ou un


commutateur de transport intracluster
l'aide de l'utilitaire clsetup.

Suppression de cbles, adaptateurs ou commutateurs de


transport intracluster la page 229

Activez un cble de transport intracluster


l'aide de l'utilitaire clsetup.

Activation d'un Cble de transport de cluster la page 232

Dsactivez un cble de transport


intracluster l'aide de l'utilitaire clsetup.

Dsactivation d'un Cble de transport de cluster la page 233

Dterminez le nombre d'instances d'un


adaptateur de transport.

Dtermination du numro d'instance d'un adaptateur de


transport la page 235

Modifiez l'adresse IP ou la plage d'adresses


d'un cluster existant.

Modification de l'adresse du rseau priv ou de la plage


d'adresses d'un cluster existant la page 236

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des interconnexions de cluster

Reconfiguration dynamique avec des interconnexions


de cluster
Certains points sont prendre en considration, lorsque vous effectuez des oprations de
reconfiguration dynamique sur les interconnexions de cluster.

Toutes les conditions requises, les procdures et les restrictions documentes pour la
fonction de reconfiguration dynamique d'Oracle Solaris s'appliquent galement au support
de reconfiguration dynamique d'Oracle Solaris Cluster ( l'exception des oprations de
quiescence du systme d'exploitation). Par consquent, reportez-vous la documentation
de la fonction de reconfiguration dynamique d'Oracle Solaris avant d'utiliser cette fonction
avec Oracle Solaris Cluster. Vous devez vous concentrer tout particulirement sur les
problmes affectant les priphriques d'E/S se trouvant en dehors du rseau, lors de la phase
de sparation de la reconfiguration dynamique.

Oracle Solaris Cluster rejette les oprations de suppression de carte de la reconfiguration


dynamique effectues sur les interfaces d'une interconnexion prive et active.

Vous devez supprimer l'ensemble d'un adaptateur actif du cluster pour pouvoir effectuer
une opration de reconfiguration dynamique ou une opration d'interconnexion active du
cluster. Pour ce faire, utilisez le menu clsetup ou les commandes appropries.

Attention Dans Oracle Solaris Cluster, chaque nud du cluster doit disposer au moins d'un
chemin d'accs fonctionnel pointant vers chacun des nuds du cluster. Vous ne devez pas
dsactiver l'interface de l'interconnexion prive prenant en charge le dernier chemin d'accs
existant pointant vers chacun des nuds du cluster.

Terminez les procdures suivantes selon l'ordre indiqu, lorsque vous effectuez des oprations
de reconfiguration dynamique sur des interfaces de rseau public.
TABLEAU 72

Liste des tches : reconfiguration dynamique avec des interfaces de rseau public

Tche

Instructions

1. Dsactivez et supprimez l'interface de


l'interconnexion active.

Reconfiguration dynamique avec des interfaces de rseau


public la page 240

2. Effectuez l'opration de reconfiguration


dynamique sur l'interface de rseau public.

Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual


(de la collection Solaris 10 on Sun Hardware)

Vrification de l'tat de l'interconnexion de cluster


Vous pouvez galement suivre cette procdure l'aide de l'interface graphique de Oracle Solaris
Cluster Manager. Pour plus d'informations, reportez-vous l'aide en ligne de Oracle Solaris
Cluster Manager.
Chapitre 7 Administration des interconnexions de cluster et des rseaux publics

225

Administration des interconnexions de cluster

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
Il n'est pas ncessaire de vous connecter en tant que superutilisateur pour suivre cette
procdure.
1

Vrifiez l'tat de l'interconnexion de cluster.


% clinterconnect status

Exemple 71

Reportez-vous au tableau ci-dessous pour les messages d'tat les plus frquents.
Message d'tat

Description et action possible

Path online

Le chemin d'accs fonctionne correctement. Aucune action n'est ncessaire.

Path waiting

Le chemin d'accs est en cours d'initialisation. Aucune action n'est ncessaire.

Faulted

Le chemin d'accs ne fonctionne pas. Il peut s'agir d'un tat temporaire, comme lorsque
les chemins d'accs sont en attente et passent ensuite en ligne. Si le message persiste,
lorsque vous excutez nouveau la commande clinterconnect status, vous devez
effectuer une action corrective.

Vrification de l'tat de l'interconnexion de cluster


L'exemple suivant met en vidence l'tat d'une interconnexion fonctionnelle du cluster.
% clinterconnect status
-- Cluster Transport Paths -Endpoint
-------Transport path: phys-schost-1:qfe1
Transport path: phys-schost-1:qfe0
Transport path: phys-schost-1:qfe1
Transport path: phys-schost-1:qfe0
Transport path: phys-schost-2:qfe1
Transport path: phys-schost-2:qfe0

Endpoint
-------phys-schost-2:qfe1
phys-schost-2:qfe0
phys-schost-3:qfe1
phys-schost-3:qfe0
phys-schost-3:qfe1
phys-schost-3:qfe0

Status
-----Path online
Path online
Path online
Path online
Path online
Path online

Ajout de cbles, d'adaptateurs ou de commutateurs


de transport intracluster
Pour plus d'informations concernant les conditions requises par le transport priv intracluster,
reportez-vous la section Interconnect Requirements and Restrictions du Oracle Solaris
Cluster 3.3 Hardware Administration Manual.

226

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des interconnexions de cluster

Vous pouvez galement suivre cette procdure l'aide de l'interface graphique de Oracle Solaris
Cluster Manager. Pour plus d'informations, reportez-vous l'aide en ligne de Oracle Solaris
Cluster Manager.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Assurez-vous que les cbles de transport intracluster physiques sont installs.


Pour la procdure d'installation d'un cble de transport de cluster, reportez-vous au Oracle
Solaris Cluster 3.3 Hardware Administration Manual.

Devenez superutilisateur sur un nud quelconque du cluster.

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


4

Saisissez le numro correspondant l'option d'affichage du menu de l'interconnexion de


cluster.

Saisissez le numro qui correspond l'option ajoutant un cble de transport.


Suivez les instructions et saisissez les informations demandes.

Saisissez le numro qui correspond l'option ajoutant l'adaptateur de transport un nud.


Suivez les instructions et saisissez les informations demandes.
Si vous envisagez d'utiliser l'un des adaptateurs suivants pour l'interconnexion de cluster,
ajoutez l'entre de ces derniers au fichier /etc/system sur chaque nud du cluster. Cette
dernire entre en vigueur lors du prochain redmarrage du systme.

Adaptateur

Entre

ce

set ce:ce_taskq_disable=1

ipge

set ipge:ipge_taskq_disable=1

ixge

set ixge:ixge_taskq_disable=1

Saisissez le numro qui correspond l'option ajoutant le commutateur de transport.


Suivez les instructions et saisissez les informations demandes.
Chapitre 7 Administration des interconnexions de cluster et des rseaux publics

227

Administration des interconnexions de cluster

Assurez-vous que le cble, l'adaptateur ou le commutateur de transport intracluster est ajout.


# clinterconnect show node:adapter,adapternode
# clinterconnect show node:adapter
# clinterconnect show node:switch

Exemple 72

Ajout d'un cble, adaptateur ou commutateur de transport intracluster


L'exemple suivant montre comment ajouter un cble, adaptateur ou commutateur de transport
intracluster un nud l'aide de l'utilitaire clsetup.
[Ensure that the physical cable is installed.]
[Start the clsetup utility:]
# clsetup
[Select Cluster interconnect]
[Select either Add a transport cable,
Add a transport adapter to a node,
or Add a transport switch.}
[Answer the questions when prompted.]
[You Will Need: ]
[Information:
Example:[
node names
phys-schost-1
adapter names
qfe2
switch names
hub2
transport type
dlpi
[Verify that the clinterconnect
command completed successfully:]Command completed successfully.
Quit the clsetup Cluster Interconnect Menu and Main Menu.
[Verify that the cable, adapter, and switch are added:]
# clinterconnect show phys-schost-1:qfe2,hub2
===Transport Cables ===
Transport Cable:
phys-schost-1:qfe2@0,hub2
Endpoint1:
phys-schost-2:qfe0@0
Endpoint2:
ethernet-1@2 ???? Should this be hub2?
State:
Enabled
# clinterconnect show phys-schost-1:qfe2
=== Transport Adepters for qfe2
Transport Adapter:
Adapter State:
Adapter Transport Type:
Adapter Property (device_name):
Adapter Property (device_instance):
Adapter Property (lazy_free):
Adapter Property (dlpi_heartbeat_timeout):
Adpater Property (dlpi_heartbeat_quantum):
Adapter Property (nw_bandwidth):
Adapter Property (bandwidth):
Adapter Property (ip_address):
Adapter Property (netmask):
Adapter Port Names:
Adapter Port STate (0):

qfe2
Enabled
dlpi
ce
0
1
10000
1000
80
70
172.16.0.129
255.255.255.128
0
Enabled

# clinterconnect show phys-schost-1:hub2


=== Transport Switches ===
228

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des interconnexions de cluster

Transport Switch:
Switch State:
Switch Type:
Switch Port Names:
Switch Port State(1):
Switch Port State(2):
tapes suivantes

hub2
Enabled
switch
1 2
Enabled
Enabled

Pour vrifier l'tat de l'interconnexion de votre cble de transport intracluster, reportez-vous


la section Vrification de l'tat de l'interconnexion de cluster la page 225.

Suppression de cbles, adaptateurs ou commutateurs


de transport intracluster
Vous pouvez galement suivre cette procdure l'aide de l'interface graphique de Oracle Solaris
Cluster Manager. Pour plus d'informations, reportez-vous l'aide en ligne de Oracle Solaris
Cluster Manager.
Suivez cette procdure pour supprimer des cbles, adaptateurs ou commutateurs de transport
intracluster d'un nud de configuration. Lorsqu'un cble est dconnect, les deux extrmits
du cble restent configures. Vous ne pouvez pas supprimez un adaptateur, si ce dernier est
encore utilis en tant qu'extrmit d'un cble de transport.
Attention Chaque nud du cluster doit comporter au moins un chemin d'accs de transport
fonctionnel pointant vers tous les autres nuds du cluster. Le cluster ne peut pas contenir deux
nuds isols l'un de l'autre. Vous devez toujours vrifier l'interconnexion de cluster d'un nud
avant de dconnecter un cble. Vous ne pouvez dsactiver la connexion d'un cble que lorsque
vous avez vrifi que ce dernier est redondant. En d'autres termes, vous devez vous assurer de
l'existence d'une autre connexion. Si vous dsactivez le dernier cble fonctionnel d'un nud, ce
dernier ne fait plus partie du cluster.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur sur un nud quelconque du cluster.

Vrifiez l'tat du chemin d'accs de transport intercluster restant.


# clinterconnect status
Chapitre 7 Administration des interconnexions de cluster et des rseaux publics

229

Administration des interconnexions de cluster

Attention Si vous recevez un message d'erreur tel que path faulted , lorsque vous tentez de
supprimer un nud se trouvant sur un cluster deux nuds, vous devez rsoudre ce problme
avant de poursuivre cette procdure. Il se peut que le nud ne soit pas disponible. Si vous
supprimez le dernier chemin d'accs fonctionnel, le nud ne fait plus partie du cluster et cela
peut entraner une reconfiguration de ce dernier.
3

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


4

Saisissez le numro qui correspond l'option permettant d'accder au menu de


l'interconnexion de cluster.

Saisissez le numro qui correspond l'option permettant de dsactiver le cble de transport.


Suivez les instructions et saisissez les informations demandes. Pour ce faire, vous devez
connatre les noms des nuds, des adaptateurs et des commutateurs en question.

Saisissez le numro qui correspond l'option permettant de supprimer le cble de transport.


Suivez les instructions et saisissez les informations demandes. Pour ce faire, vous devez
connatre les noms des nuds, des adaptateurs et des commutateurs en question.
Remarque Si vous supprimez un cble physique, dconnectez le cble entre le port et le
priphrique de destination.

Saisissez le numro qui correspond l'option permettant de supprimer l'adaptateur de


transport du nud.
Suivez les instructions et saisissez les informations demandes. Pour ce faire, vous devez
connatre les noms des nuds, des adaptateurs et des commutateurs en question.
Remarque Si vous supprimez un adaptateur physique du nud, reportez-vous au Oracle Solaris
Cluster 3.3 Hardware Administration Manual pour connatre les procdures de maintenance
matrielle.

Saisissez le numro qui correspond l'option permettant de supprimer un commutateur de


transport.
Suivez les instructions et saisissez les informations demandes. Pour ce faire, vous devez
connatre les noms des nuds, des adaptateurs et des commutateurs en question.

230

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des interconnexions de cluster

Remarque Vous ne pouvez pas supprimer un commutateur, si les ports de ce dernier sont
encore utiliss en tant qu'extrmits d'un cble de transport quelconque.
9

Assurez-vous que le cble, l'adaptateur ou le commutateur a t supprim.


# clinterconnect show node:adapter,adapternode
# clinterconnect show node:adapter
# clinterconnect show node:switch

Le cble ou l'adaptateur de transport supprim du nud ne doit pas tre affich dans le rsultat
de cette commande.
Exemple 73

Suppression d'un cble, adaptateur ou commutateur de transport


L'exemple suivant montre comment supprimer un cble, adaptateur ou commutateur de
transport l'aide de la commande clsetup.
[Become superuser on any node in the cluster.]
[Start the utility:]
# clsetup
[Select Cluster interconnect.[
[Select either Remove a transport cable,
Remove a transport adapter to a node,
or Remove a transport switch.[
[Answer the questions when prompted.[
You Will Need:
Information
Example:
node names
phys-schost-1
adapter names
qfe1
switch names
hub1
[Verify that the clinterconnect
command was completed successfully:]
Command completed successfully.
[Quit the clsetup utility Cluster Interconnect Menu and Main Menu.]
[Verify that the cable, adapter, or switch is removed:]
# clinterconnect show phys-schost-1:qfe2,hub2
===Transport Cables ===
Transport Cable:
phys-schost-2:qfe2@0,hub2
Cable Endpoint1:
phys-schost-2:qfe0@0
Cable Endpoint2:
ethernet-1@2 ??? Should this be hub2???
Cable State:
Enabled
# clinterconnect show phys-schost-1:qfe2
=== Transport Adepters for qfe2
Transport Adapter:
Adapter State:
Adapter Transport Type:
Adapter Property (device_name):
Adapter Property (device_instance):
Adapter Property (lazy_free):
Adapter Property (dlpi_heartbeat_timeout):
Adpater Property (dlpi_heartbeat_quantum):
Adapter Property (nw_bandwidth):
Adapter Property (bandwidth):

qfe2
Enabled
dlpi
ce
0
1
10000
1000
80
70

Chapitre 7 Administration des interconnexions de cluster et des rseaux publics

231

Administration des interconnexions de cluster

Adapter
Adapter
Adapter
Adapter

Property (ip_address):
Property (netmask):
Port Names:
Port STate (0):

# clinterconnect show phys-schost-1:hub2


=== Transport Switches ===
Transport Switch:
Switch State:
Switch Type:
Switch Port Names:
Switch Port State(1):
Switch Port State(2):

172.16.0.129
255.255.255.128
0
Enabled

hub2
Enabled
switch
1 2
Enabled
Enabled

Activation d'un Cble de transport de cluster


Vous pouvez galement suivre cette procdure l'aide de l'interface graphique de Oracle Solaris
Cluster Manager. Pour plus d'informations, reportez-vous l'aide en ligne de Oracle Solaris
Cluster Manager.
Cette option permet d'activer un cble de transport de cluster prexistant.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur sur un nud quelconque du cluster.

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


3

Saisissez le numro qui correspond l'option permettant d'accder au menu de


l'interconnexion de cluster et appuyez sur la touche Entre.

Saisissez le numro qui correspond l'option d'activation du cble de transport et appuyez sur
la touche Entre.
Suivez les instructions de l'invite. Vous devez spcifier les noms de l'adaptateur et du nud de
l'une des extrmits du cble que vous tentez d'identifier.

Assurez-vous que le cble est activ.


# clinterconnect show node:adapter,adapternode

232

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des interconnexions de cluster

Exemple 74

Activation d'un cble de transport intercluster


L'exemple suivant montre comment activer un cble de transport intercluster sur un adaptateur
qfe-1 se trouvant sur le nud phys-schost-2.
[Become superuser on any node.]
[Start the clsetup utility:]
# clsetup
[Select Cluster interconnect>Enable a transport cable.[
[Answer the questions when prompted.[
[You will need the following information.[
You Will Need:
Information:
Example:
node names
phys-schost-2
adapter names
qfe1
switch names
hub1
[Verify that the scinterconnect
command was completed successfully:]
clinterconnect enable phys-schost-2:qfe1
Command completed successfully.
[Quit the clsetup Cluster Interconnect Menu and Main Menu.]
[Verify that the cable is enabled:]
# clinterconnect show phys-schost-1:qfe2,hub2
Transport cable: phys-schost-2:qfe1@0 ethernet-1@2
Enabled
Transport cable: phys-schost-3:qfe0@1 ethernet-1@3
Enabled
Transport cable: phys-schost-1:qfe0@0 ethernet-1@1
Enabled

Dsactivation d'un Cble de transport de cluster


Vous pouvez galement suivre cette procdure l'aide de l'interface graphique de Oracle Solaris
Cluster Manager. Pour plus d'informations, reportez-vous l'aide en ligne de Oracle Solaris
Cluster Manager.
Pour arrter temporairement un chemin d'accs de l'interconnexion de cluster, vous pouvez
tre amen dsactiver un cble de transport intercluster. Cet arrt temporaire permet de
dpanner une interconnexion de cluster ou de remplacer son matriel.
Lorsqu'un cble est dconnect, les deux extrmits du cble restent configures. Vous ne
pouvez pas supprimez un adaptateur, si ce dernier est encore utilis en tant qu'extrmit d'un
cble de transport.

Chapitre 7 Administration des interconnexions de cluster et des rseaux publics

233

Administration des interconnexions de cluster

Attention Chaque nud du cluster doit comporter au moins un chemin d'accs de transport
fonctionnel pointant vers tous les autres nuds du cluster. Le cluster ne peut pas contenir deux
nuds isols l'un de l'autre. Vous devez toujours vrifier l'interconnexion de cluster d'un nud
avant de dconnecter un cble. Vous ne pouvez dsactiver la connexion d'un cble que lorsque
vous avez vrifi que ce dernier est redondant. En d'autres termes, vous devez vous assurer de
l'existence d'une autre connexion. Si vous dsactivez le dernier cble fonctionnel d'un nud, ce
dernier ne fait plus partie du cluster.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur sur un nud quelconque du cluster.

Vrifiez l'tat de l'interconnexion de cluster avant de dsactiver un cble.


# clinterconnect status
Attention Si vous recevez un message d'erreur tel que path faulted , lorsque vous tentez de
supprimer un nud se trouvant sur un cluster deux nuds, vous devez rsoudre ce problme
avant de poursuivre cette procdure. Il se peut que le nud ne soit pas disponible. Si vous
supprimez le dernier chemin d'accs fonctionnel, le nud ne fait plus partie du cluster et cela
peut entraner une reconfiguration de ce dernier.

Dmarrez l'utilitaire clsetup.


# clsetup

Le menu principal s'affiche.


4

Saisissez le numro qui correspond l'option permettant d'accder au menu de


l'interconnexion de cluster et appuyez sur la touche Entre.

Saisissez le numro qui correspond l'option de dsactivation du cble de transport et appuyez


sur la touche Entre.
Suivez les instructions et fournissez les informations demandes. Tous les composants se
trouvant sur l'interconnexion de ce cluster seront dsactivs. Vous devez spcifier les noms de
l'adaptateur et du nud de l'une des extrmits du cble que vous tentez d'identifier.

Assurez-vous que le cble est dsactiv.


# clinterconnect show node:adapter,adapternode

234

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des interconnexions de cluster

Exemple 75

Dsactivation d'un cble de transport intercluster


L'exemple suivant montre comment dsactiver un cble de transport intercluster sur un
adaptateur qfe-1 se trouvant sur le nud phys-schost-2.
[Become superuser on any node.]
[Start the clsetup utility:]
# clsetup
[Select Cluster interconnect>Disable a transport cable.]
[Answer the questions when prompted.]
[You will need the following information.]
[ You Will Need:]
Information:
Example:
node names
phys-schost-2
adapter names
qfe1
switch names
hub1
[Verify that the clinterconnect
command was completed successfully:]
Command completed successfully.
[Quit the clsetup Cluster Interconnect Menu and Main Menu.]
[Verify that the cable is disabled:]
# clinterconnect show -p phys-schost-1:qfe2,hub2
Transport cable: phys-schost-2:qfe1@0 ethernet-1@2
Disabled
Transport cable: phys-schost-3:qfe0@1 ethernet-1@3
Enabled
Transport cable: phys-schost-1:qfe0@0 ethernet-1@1
Enabled

Dtermination du numro d'instance d'un adaptateur


de transport
Vous devez dterminer le numro d'instance d'un adaptateur de transport, afin de vous assurer
que vous avez ajout et supprim le bon adaptateur de transport l'aide de la commande
clsetup . Le nom de l'adaptateur est constitu d'une combinaison du type et du numro
d'instance de ce dernier.

Recherchez le nom de l'adaptateur partir de son numro d'emplacement.


L'cran suivant est affich titre d'exemple et peut ne pas reflter votre configuration matrielle.
# prtdiag
...
========================= IO Cards =========================
Bus Max
IO Port Bus
Freq Bus Dev,
Type
ID Side Slot MHz Freq Func State Name Model
---- ---- ---- ---- ---- ---- ---- ----- -------------------------------XYZ 8
B
2
33 33 2,0 ok
xyz11c8,0-xyz11c8,d665.11c8.0.0
XYZ 8
B
3
33 33 3,0 ok
xyz11c8,0-xyz11c8,d665.11c8.0.0
...

Chapitre 7 Administration des interconnexions de cluster et des rseaux publics

235

Administration des interconnexions de cluster

Recherchez le numro d'instance de l'adaptateur partir de son chemin d'accs.


L'cran suivant est affich titre d'exemple et peut ne pas reflter votre configuration matrielle.
# grep sci /etc/path_to_inst
"/xyz@1f,400/pci11c8,o@2" 0 "ttt"
"/xyz@1f,4000.pci11c8,0@4 "ttt"

Recherchez le numro d'instance de l'adaptateur partir de son nom et de son numro


d'emplacement.
L'cran suivant est affich titre d'exemple et peut ne pas reflter votre configuration matrielle.
# prtconf
...
xyz, instance #0
xyz11c8,0, instance #0
xyz11c8,0, instance #1
...

Modification de l'adresse du rseau priv ou de la


plage d'adresses d'un cluster existant
Suivez cette procdure pour modifier une adresse de rseau priv, la plage d'adresses rseau ou
les deux.

Avant de
commencer
1

Assurez-vous que le superutilisateur a accs au shell distant (rsh(1M)) ou au shell scuris


(ssh(1)) de tous les nuds du cluster.
Rinitialisez tous les nuds du cluster en mode non cluster en effectuant les sous-tapes
suivantes sur chaque nud du cluster :
a. Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation
reposant sur un contrle d'accs base de rles de type solaris.cluster.admin sur le
nud du cluster dmarrer en mode non cluster.
b. Arrtez le nud l'aide des commandes clnode evacuate et cluster shutdown.
La commande clnode evacuate bascule tous les groupes de priphriques du nud
spcifi vers le nud de prdilection suivant. La commande bascule galement tous les
groupes de ressources des nuds votants et non votants du nud spcifi vers le nud de
prdilection votant ou non votant suivant.
# clnode evacuate node
# cluster shutdown -g0 -y

236

partir d'un nud, dmarrez l'utilitaire clsetup.


Si vous excutez l'utilitaire clsetup en mode non-cluster, il affiche le menu principal relatif aux
oprations correspondant ce mode.
Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration des interconnexions de cluster

Tapez le numro correspondant l'option Change IP Address Range (Modifier la plage


d'adresses IP) et appuyez sur la touche Entre.
L'utilitaire clsetup affiche la configuration de rseau priv en cours, puis vous demande si vous
souhaitez la modifier.

Pour modifier l'adresse IP de rseau priv ou la plage d'adresses IP, saisissez yes (oui) et appuyez
sur la touche Entre.
L'utilitaire clsetup affiche l'adresse IP de rseau priv par dfaut, 172.16.0.0, et vous demande
si vous l'acceptez.

Modifiez ou acceptez l'adresse IP de rseau priv.

Pour l'accepter et passer la modification de la plage d'adresses IP, saisissez yes, puis
appuyez sur la touche Entre.
L'utilitaire clsetup vous demande si vous acceptez le masque de rseau par dfaut. Passez
l'tape suivante pour saisir votre rponse.

Pour modifier l'adresse IP de rseau priv par dfaut, effectuez les sous-tapes suivantes.
a. Saisissez no (non) lorsque l'utilitaire clsetup vous demande si vous acceptez l'adresse
par dfaut, puis appuyez sur la touche Entre.
L'utilitaire clsetup vous invite saisir la nouvelle adresse IP de rseau priv.
b. Tapez la nouvelle adresse IP, puis appuyez sur la touche Entre.
L'utilitaire clsetup affiche le masque de rseau par dfaut, puis vous demande si vous
l'acceptez.

Modifiez ou acceptez la plage d'adresses IP de rseau priv par dfaut.


Le masque de rseau par dfaut est 255.255.240.0. Cette plage d'adresses IP par dfaut prend
en charge jusqu' 64 nuds, 12 clusters de zones et 10 rseaux privs dans le cluster.

Pour accepter la plage d'adresses IP par dfaut, saisissez yes, puis appuyez sur la touche
Entre.
Passez ensuite l'tape suivante.

Pour modifier la plage d'adresses IP, effectuez les sous-tapes suivantes.


a. Saisissez no lorsque l'utilitaire clsetup vous demande si vous acceptez la plage
d'adresses par dfaut, puis appuyez sur la touche Entre.
Si vous refusez le masque de rseau par dfaut, l'utilitaire clsetup vous invite indiquer
le nombre de nuds, de rseaux privs et de clusters de zones que vous prvoyez de
configurer dans le cluster.

Chapitre 7 Administration des interconnexions de cluster et des rseaux publics

237

Administration des interconnexions de cluster

b. Entrez le nombre de nuds, de rseaux privs et de clusters de zones que vous prvoyez
de configurer dans le cluster.
En fonction des nombres saisis, l'utilitaire clsetup propose deux masques de rseau :

Le premier masque de rseau est celui qui est au minimum ncessaire la prise en
charge du nombre de nuds, de rseaux privs et de clusters de zones que vous avez
spcifi.

Le second masque de rseau prend en charge deux fois plus de nuds, rseaux privs
et clusters de zones par rapport au nombre que vous avez spcifi, et ce en prvision
d'une ventuelle augmentation.

c. Spcifiez l'un des masques de rseau calculs ou un autre masque de rseau prenant en
charge le nombre prvu de nuds, de rseaux privs et de clusters de zones.
7

Tapez yes lorsque l'utilitaire clsetup vous demande si vous souhaitez poursuivre la mise jour.

Lorsque vous avez termin, fermez l'utilitaire clsetup.

Rinitialisez chaque nud du cluster en mode cluster en effectuant les sous-tapes suivantes
sur chaque nud :
a. Initialisez le nud.

Sur les systmes SPARC, excutez la commande suivante :

Sur les systmes x86, excutez les commandes suivantes :

ok boot

Lorsque le menu GRUB s'affiche, slectionnez l'entre Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
10

Assurez-vous que le nud a t initialis sans erreurs et qu'il se trouve en ligne.


# cluster status -t node

238

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration du rseau public

Administration du rseau public


Le logiciel Oracle Solaris Cluster prend en charge l'implmentation de la fonction IPMP
(Internet Protocol network Multipathing, multiacheminement sur rseau IP) du logiciel Oracle
Solaris sur les rseaux publics. L'administration de la fonction IPMP de base est la mme pour
les environnements de type cluster et non cluster. Le multiacheminement est automatiquement
install avec le SE Oracle Solaris 10. Vous devez l'activer pour l'utiliser. Pour plus
d'informations sur l'administration du multiacheminement, reportez-vous la documentation
associe du SE Oracle Solaris. Toutefois, consultez les instructions suivantes avant
d'administrer la fonction IPMP dans un environnement Oracle Solaris Cluster.

Administration des groupes de multiacheminement


sur rseau IP dans un cluster
Avant d'appliquer les procdures IPMP un cluster, veuillez prendre en considration les
directives suivantes :

Chaque adaptateur de rseau public doit appartenir un groupe IPMP.

La variable local-mac-address? doit renvoyer la valeur true pour les adaptateurs


Ethernet.

Vous pouvez utiliser des groupes IPMP bass sur une sonde ou un lien dans un cluster. Un
groupe IPMP bas sur une sonde teste l'adresse IP cible et fournit la meilleure protection en
reconnaissant plus de conditions qui risque de compromettre la disponibilit.

Vous devez configurer une adresse IP de test pour chaque adaptateur dans les groupes de
groupe de multiacheminement suivants :

Tous les groupes de multiacheminement plusieurs adaptateurs ncessitent des adresses


IP de test. Les groupes de multiacheminement adaptateur unique ne requirent pas
d'adresses IP de test.

Les adresses IP de test de tous les adaptateurs du mme groupe de multiacheminement


doivent appartenir un sous-rseau IP unique.

Les adresses IP de test ne doivent pas tre utilises par des applications normales car elles ne
sont pas hautement disponibles.

Il n'existe aucune restriction portant sur les noms des groupes de multiacheminement.
Cependant, lorsque vous configurez un groupe de ressources, selon la convention de
nommage netiflist, le nom de ce dernier est constitu d'un nom de groupe de
multiacheminement quelconque, suivi du numro d'ID et du nom du nud. Prenons, par
exemple, le groupe de multiacheminement sc_ipmp0. La convention de nommage
netiflist peut tre soit sc_ipmp0@1, soit sc_ipmp0@phys-schost-1, o l'adaptateur se
trouve sur le nud phys-schost-1, dont l'ID est gal 1.

Chapitre 7 Administration des interconnexions de cluster et des rseaux publics

239

Administration du rseau public

Evitez d'annuler la configuration ou d'arrter l'adaptateur d'un multiacheminement sur


rseau IP sans basculer au pralable les adresses IP de l'adaptateur supprimer vers un autre
adaptateur du groupe. Pour ce faire, utilisez la commande if_mpadm(1M).

vitez de rebrancher les adaptateurs sur d'autres sous-rseaux sans les supprimer
auparavant de leurs groupes de multiacheminement respectifs.

Vous pouvez effectuer des oprations logiques sur un adaptateur, mme si ce dernier
contrle le groupe de multiacheminement.

Vous devez conserver au moins une connexion au rseau public pour chaque nud du
cluster. Sans connexion au rseau public, vous n'avez pas accs au cluster.

Pour afficher l'tat des groupes de multiacheminement sur rseau IP d'un cluster, utilisez la
commande clinterconnect status.

Pour plus d'informations concernant le multiacheminement sur rseau IP, reportez-vous au


manuel de la documentation portant sur l'administration du systme d'exploitation Oracle
Solaris.
TABLEAU 73

Liste des tches : administration du rseau public

Version du SE Oracle Solaris

Instructions

SE Oracle Solaris 10

Rubriques concernant le multiacheminement sur


rseau IP dans le Guide dadministration systme :
services IP

Pour les procdures d'installation logicielle du cluster, reportez-vous au Guide dinstallation du


logiciel Oracle Solaris Cluster. Pour les procdures de maintenance des composants matriels
pour les rseaux publics, reportez-vous au Oracle Solaris Cluster 3.3 Hardware Administration
Manual.

Reconfiguration dynamique avec des interfaces de


rseau public
Certains points sont prendre en considration, lorsque vous effectuez des oprations de
reconfiguration dynamique sur les interfaces de rseau public d'un cluster.

240

Toutes les conditions requises, les procdures et les restrictions documentes pour la
fonction de reconfiguration dynamique d'Oracle Solaris s'appliquent galement au support
de reconfiguration dynamique d'Oracle Solaris Cluster ( l'exception des oprations de
quiescence du systme d'exploitation). Par consquent, reportez-vous la documentation
de la fonction de reconfiguration dynamique d'Oracle Solaris avant d'utiliser cette fonction
avec Oracle Solaris Cluster. Vous devez vous concentrer tout particulirement sur les
problmes affectant les priphriques d'E/S se trouvant en dehors du rseau, lors de la phase
de sparation de la reconfiguration dynamique.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Administration du rseau public

Les oprations de suppression de carte ne peuvent aboutir que lorsque les interfaces de
rseau public ne sont pas actives. Avant de supprimer une interface de rseau public active,
basculez les adresses IP de l'adaptateur supprimer vers un autre adaptateur du groupe de
multiacheminement. Pour ce faire, utilisez la commande if_mpadm(1M).

Si vous tentez de supprimer une carte d'interface rseau public sans l'avoir correctement
dsactive, Oracle Solaris Cluster rejette l'opration et identifie l'interface pouvant tre
affecte par l'opration.

Attention Pour les groupes de multiacheminement comptant deux adaptateurs, si l'adaptateur


rseau restant se trouve en chec, lorsque vous effectuez des oprations de suppression de
reconfiguration dynamique, la disponibilit des ressources peut en tre affecte. Vous ne
pouvez pas basculer l'adaptateur restant pendant l'opration de reconfiguration dynamique.

Terminez les procdures suivantes selon l'ordre indiqu, lorsque vous effectuez des oprations
de reconfiguration dynamique sur des interfaces de rseau public.
TABLEAU 74

Liste des tches : reconfiguration dynamique avec des interfaces de rseau public

Tche

Instructions

1. Basculez les adresses IP


de l'adaptateur
supprimer vers un autre
adaptateur du groupe
d'acheminement, l'aide
de la commande
if_mpadm.

Page de manuel if_mpadm(1M).

2. Supprimez l'adaptateur
du groupe de
multiacheminement
l'aide de la commande
ifconfig .

Page de manuel ifconfig(1M)

3. Effectuez l'opration de
reconfiguration
dynamique sur l'interface
de rseau public.

Partie VI, IPMP du Guide dadministration systme : services IP

Partie VI, IPMP du Guide dadministration systme : services IP

Le Sun Enterprise 10000 DR Configuration Guide et le Sun Enterprise 10000


Dynamic Reconfiguration Reference Manual (de la collection Solaris 10 on Sun
Hardware)

Chapitre 7 Administration des interconnexions de cluster et des rseaux publics

241

242

C H A P I T R E

Ajout et suppression d'un nud

Ce chapitre contient des instructions expliquant comment ajouter un nud un cluster et le


supprimer.

Ajout d'un nud un cluster la page 243


Suppression d'un nud dans un cluster la page 249

Pour plus d'informations sur les tches de maintenance du cluster, reportez-vous la section
Chapitre 9, Administration du cluster.

Ajout d'un nud un cluster


Cette section explique comment ajouter un nud un cluster global ou un cluster de zones.
Vous pouvez crer un nouveau nud de cluster de zones sur un nud du cluster global
hbergeant le cluster de zones, du moment que le nud du cluster global n'hberge pas dj un
nud pour ce cluster de zones. Vous ne pouvez pas convertir un nud de cluster global non
votant existant en un nud de cluster de zones.
Dans ce chapitre, phys-schost# fait rfrence une invite du cluster global. L'lment
clzc:schost> reprsente l'invite de shell interactive de la commande clzonecluster.
Le tableau ci-dessous rpertorie les tches effectuer pour ajouter un nud un cluster
existant. Effectuez ces tches selon leur ordre d'apparition.
TABLEAU 81
Tche

Liste des tches : ajout d'un nud un cluster de zones ou un cluster global existant
Instructions

Installez l'adaptateur hte sur le nud et assurez-vous Oracle Solaris Cluster 3.3 Hardware Administration
que les interconnexions de cluster existant prennent
Manual
en charge ce nouveau nud.

243

Ajout d'un nud un cluster

TABLEAU 81

Liste des tches : ajout d'un nud un cluster de zones ou un cluster global existant

(Suite)

Tche

Instructions

Ajoutez un emplacement de stockage partag.

Oracle Solaris Cluster 3.3 Hardware Administration


Manual

Ajoutez le nud la liste des nuds autoriss l'aide


de l'utilitaire clsetup.

Ajout d'un nud la liste des nuds autoriss


la page 244

Installez et configurez le logiciel sur le nouveau nud


du cluster.

Chapitre 2, Installation de logiciels sur des nuds de


cluster global du Guide dinstallation du logiciel
Oracle Solaris Cluster

Ajoutez un nouveau nud un cluster existant.

Ajout d'un nud un cluster la page 243

Si le cluster est configur dans un partenariat Oracle


Solaris Cluster Geographic Edition, configurez le
nouveau nud en tant que participant actif de la
configuration.

How to Add a New Node to a Cluster in a


Partnership du Oracle Solaris Cluster Geographic
Edition System Administration Guide

Ajout d'un nud la liste des nuds autoriss


Avant d'ajouter un hte Oracle Solaris ou une machine virtuelle un cluster global ou un
cluster de zones existant, assurez-vous que le matriel ncessaire est install et configur sur le
nud, y compris la connexion physique oprationnelle l'interconnexion de cluster prive.
Pour plus d'informations concernant l'installation du matriel, reportez-vous au Oracle Solaris
Cluster 3.3 Hardware Administration Manual ou la documentation fournie avec votre serveur.
Cette procdure permet une machine de s'auto-installer dans un cluster en ajoutant le nom de
son nud la liste des nuds autoriss par ce cluster.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

244

Connectez-vous en tant que superutilisateur sur le membre de cluster global actif. Effectuez ces
tapes depuis un nud du cluster global.

Assurez-vous que les conditions requises par l'installation du matriel ont t remplies et que
les tches de configuration rpertories dans la liste de tche du Tableau 81 ont t effectues.
Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Ajout d'un nud un cluster

Dmarrez l'utilitaire clsetup.


phys-schost# clsetup

Le menu principal s'affiche.


Remarque Pour ajouter un nud un cluster de zones, utilisez l'utilitaire clzonecluster. Pour

savoir comment ajouter manuellement une zone un cluster de zones, reportez-vous


l'tape 9.
4

Saisissez le numro qui correspond l'option affichant le menu des nouveaux nuds et
appuyez sur la touche Entre.

Saisissez le numro qui correspond l'option modifiant la liste autorise et appuyez sur la
touche Entre. Spcifiez le nom d'une machine pouvant s'auto-ajouter.
Suivez les invites pour ajouter le nom du nud au cluster. Vous tes invit saisir le nom du
nud ajouter.

Assurez-vous que la tche a t effectue.


L'utilitaire clsetup affiche un message indiquant que l'excution de la commande est termine,
si la tche n'a renvoy aucune erreur.

Pour empcher l'ajout d'une nouvelle machine au cluster, saisissez le numro qui correspond
l'option ordonnant au cluster d'ignorer les demandes d'ajout de nouvelles machines. Appuyez
sur la touche Retour.
Suivez les invites de l'utilitaire clsetup. Cette option ordonne au cluster d'ignorer toutes les
demandes des nouvelles machines provenant du rseau public et tentant de s'auto-ajouter au
cluster.

Quittez l'utilitaire clsetup.

Pour ajouter manuellement un nud un cluster de zones, vous devez spcifier le nom de
l'hte Oracle Solaris et du nud virtuel. Vous devez galement spcifier une ressource de
rseau utiliser pour la communication avec le rseau public sur chaque nud. Dans l'exemple
suivant, la zone se nomme sczone et l'adaptateur de rseau public se nomme bge0 sur les deux
machines.
clzc:sczone>add node
clzc:sczone:node>set physical-host=phys-cluster-1
clzc:sczone:node>set hostname=hostname1
clzc:sczone:node>add net
clzc:sczone:node:net>set address=hostname1
clzc:sczone:node:net>set physical=bge0
clzc:sczone:node:net>end
clzc:sczone:node>end
clzc:sczone>add node
clzc:sczone:node>set physical-host=phys-cluster-2
Chapitre 8 Ajout et suppression d'un nud

245

Ajout d'un nud un cluster

clzc:sczone:node>set hostname=hostname2
clzc:sczone:node>add net
clzc:sczone:node:net>set address=hostname2
clzc:sczone:node:net>set physical=bge0
clzc:sczone:node:net>end
clzc:sczone:node>end

Pour savoir comment configurer le nud, reportez-vous la section Configuration dun


cluster de zones du Guide dinstallation du logiciel Oracle Solaris Cluster.
10

Exemple 81

Installez et configurez le logiciel sur le nouveau nud du cluster.


Utilisez la commande cluster create ou le logiciel JumpStart pour effectuer l'installation et la
configuration du nouveau nud, comme expliqu dans le Guide dinstallation du logiciel Oracle
Solaris Cluster.

Ajout d'un nud du cluster global la liste des nuds autoriss


L'exemple suivant montre comment ajouter un nud se nommant phys-schost-3 la liste des
nuds autoriss d'un cluster existant.
[Become superuser and execute the clsetup utility.]
phys-schost# clsetup
[Select New nodes>Specify the name of a machine which may add itself.]
[Answer the questions when prompted.]
[Verify that the command completed successfully.]
claccess allow -h phys-schost-3
Command completed successfully.
[Select Prevent any new machines from being added to the cluster.]
[Quit the clsetup New Nodes Menu and Main Menu.]
[Install the cluster software.]

Voir aussi

clsetup(1CL)
Pour obtenir une liste complte des tches permettant d'ajouter un nud au cluster,
reportez-vous au Tableau 81Listedestches :ajoutd'unnud un cluster.
Pour ajouter un nud un groupe de ressources existant, reportez-vous au Oracle Solaris
Cluster Data Services Planning and Administration Guide.

Cration d'un nud non votant (zone) dans un cluster


global
Cette section contient les informations et les procdures de cration d'un nud non votant, ou
plus simplement une zone, se trouvant sur un nud du cluster global.
246

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Ajout d'un nud un cluster

Cration d'un nud non votant dans un cluster global


1

Devenez superutilisateur sur le nud de cluster global sur lequel vous crez le nud non
votant.
Vous devez utiliser la zone globale.

Vrifiez au niveau de chaque nud que les services multiutilisateurs Service Management
Facility (SMF) sont en ligne.
Si les services ne sont pas encore en ligne pour un nud, attendez leur mise en ligne, puis passez
l'tape suivante.
phys-schost# svcs multi-user-server node
STATE
STIME
FMRI
online
17:52:55 svc:/milestone/multi-user-server:default

Configurez, installez et initialisez la nouvelle zone.


Remarque Vous devez dfinir la proprit autoboot sur true pour prendre en charge la

fonctionnalit de groupe de ressources dans le nud non votant du cluster global.


Suivez les procdures dcrites dans la documentation Solaris.
a. Suivez les procdures dcrites au Chapitre 18,Planification et configuration de zones non
globales (tches) du Guide dadministration systme : Gestion des ressources des conteneurs
et des zones Oracle Solaris.
b. Suivez les procdures dcrites dans la section Installation et initialisation de zonesdu
Guide dadministration systme : Gestion des ressources des conteneurs et des zones Oracle
Solaris.
c. Suivez les procdures dcrites dans la section Initialisation dune zonedu Guide
dadministration systme : Gestion des ressources des conteneurs et des zones Oracle Solaris.
4

Vrifiez que l'tat de la zone est ready.


phys-schost#
ID NAME
0 global
1 my-zone

zoneadm list -v
STATUS
PATH
running
/
ready
/zone-path

(Facultatif) Pour une zone IP partage, affectez une adresse IP et un nom d'hte privs la zone.
La commande suivante choisit et assigne une adresse IP disponible partir de la plage
d'adresses IP prives du cluster. La commande affecte galement le nom d'hte priv spcifique,
ou alias hte, la zone et le mappe l'adresse IP prive affecte.
phys-schost# clnode set -p zprivatehostname=hostalias node:zone

-p

Dfinit une proprit.

Chapitre 8 Ajout et suppression d'un nud

247

Ajout d'un nud un cluster

zprivatehostname=hostalias

Dfinit le nom d'hte priv de la zone, ou alias hte.

node

Nom du nud.

zone

Nom du nud non votant du cluster global.

Procdez la configuration initiale de la zone interne.


Suivez les procdures dcrites dans la section Configuration de la zone interne initiale du
Guide dadministration systme : Gestion des ressources des conteneurs et des zones Oracle
Solaris. Slectionnez l'une des mthodes suivantes :

Connectez-vous la zone.
Utilisez un fichier /etc/sysidcfg.

Dans le nud non votant, modifiez le fichier nsswitch.conf.


Ces modifications permettent la zone de rsoudre les recherches de noms d'htes et d'adresses
IP spcifiques des clusters.
a. Connectez-vous la zone.
phys-schost# zlogin -c zonename

b. Ouvrez le fichier /etc/nsswitch.conf afin de l'diter.


sczone# vi /etc/nsswitch.conf

c. Ajoutez le commutateur cluster au dbut des recherches pour les entres hosts et
netmasks, suivi du commutateur files.
Les entres modifies doivent se prsenter comme suit :
...
hosts:
...
netmasks:
...

cluster files nis [NOTFOUND=return]


cluster files nis [NOTFOUND=return]

d. Pour toutes les autres entres, assurez-vous que le commutateur files se trouve en
premire position dans l'entre.
e. Quittez la zone.
8

248

Si vous crez une zone IP exclusive, configurez les groupes IPMP dans chaque fichier
/etc/hostname.interface de la zone.
Vous devez configurer un groupe IPMP pour chaque adaptateur de rseau public utilis pour le
trafic de service de donnes de cette zone. Ces informations ne sont pas hrites d'une zone
globale. Reportez-vous la section Rseaux publics du Guide dinstallation du logiciel Oracle
Solaris Cluster pour obtenir plus d'informations sur la configuration des groupes IPMP dans un
cluster.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Suppression d'un nud dans un cluster

Dfinissez les mappages nom-adresse pour toutes les ressources de nom d'hte logique
utilises par la zone.
a. Ajoutez des mappages nom-adresse au fichier /etc/inet/hosts de la zone.
Ces informations ne sont pas hrites d'une zone globale.
b. Si vous utilisez un serveur de noms, ajoutez les mappages nom-adresse.

Suppression d'un nud dans un cluster


Cette section contient des instructions concernant la suppression d'un nud dans un cluster
global ou un cluster de zones. Vous pouvez galement supprimer un cluster de zones spcifique
d'un cluster global. Le tableau ci-dessous rpertorie les tches effectuer pour supprimer un
nud d'un cluster existant. Effectuez ces tches selon leur ordre d'apparition.
Attention Si vous supprimez un nud en appliquant uniquement cette procdure une

configuration RAC, cette suppression peut entraner une erreur grave au niveau du nud,
pendant la rinitialisation. Pour savoir comment supprimer un nud d'une configuration RAC,
reportez-vous la section Suppression de Prise en charge dOracle RAC des nuds
slectionns du Guide Service de donnes Oracle Solaris Cluster pour Oracle Real Application
Clusters. Aprs avoir termin ce processus, suivez les tapes indiques ci dessous.
TABLEAU 82

Liste des tches : suppression d'un nud

Tche

Instructions

Dplacez tous les groupes de ressources et


de priphriques du nud supprimer.

clnode evacuate node

Assurez-vous que le nud peut tre


supprim en vrifiant les htes autoriss.

claccess show node


claccess allow -h node-to-remove

Si le nud ne peut pas tre supprim,


donnez-lui accs la configuration du
cluster.
Supprimez le nud de tous les groupes de
priphriques.

Chapitre 8 Ajout et suppression d'un nud

Suppression d'un nud d'un groupe de priphriques (Solaris


Volume Manager) la page 139

249

Suppression d'un nud dans un cluster

TABLEAU 82

Liste des tches : suppression d'un nud

(Suite)

Tche

Instructions

Supprimez tous les priphriques de


quorum connects au nud supprimer.

Cette tape est facultative si vous supprimez un nud dans un


cluster deux nuds.
Suppression d'un priphrique de quorum la page 204
Mme si vous devez supprimer le priphrique de quorum avant
le priphrique de stockage dans l'tape suivante, vous pouvez
ajouter le priphrique de quorum nouveau tout de suite aprs.
Suppression du dernier priphrique de quorum d'un cluster
la page 205

Mettez le nud supprimer en mode non


cluster.

Mise en mode de maintenance d'un nud la page 275

Supprimez un nud d'un cluster de zones.

Suppression d'un nud d'un cluster de zones la page 250

Supprimez un nud de la configuration


logicielle du cluster.

Suppression d'un nud de la configuration logicielle du cluster


la page 251

Dsinstallez Oracle Solaris Cluster d'un


nud du cluster (facultatif).

Dsinstallation de Oracle Solaris Cluster d'un nud du cluster


la page 287

Supprimez l'intgralit d'un cluster de


zones.

Suppression d'un cluster de zones la page 282

Suppression d'un nud d'un cluster de zones


Vous pouvez supprimer un nud d'un cluster de zones en l'arrtant, en le dsinstallant ou en le
supprimant de la configuration. Si vous dcidez par la suite d'ajouter nouveau le nud dans le
cluster de zones, suivez les instructions du Tableau 81. La plupart de ces tapes sont effectues
depuis un nud du cluster global.

Connectez-vous en tant que superutilisateur sur un nud du cluster global.

Arrtez le nud du cluster de zones supprimer, en spcifiant ce dernier et le cluster de zones


associ.
phys-schost# clzonecluster halt -n node zoneclustername

Vous pouvez galement utiliser les commandes clnode evacuate et shutdown dans un cluster
de zones.
3

Dsinstallez le nud du cluster de zones.


phys-schost# clzonecluster uninstall -n node zoneclustername

250

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Suppression d'un nud dans un cluster

Supprimez de la configuration le nud du cluster de zones.


Pour ce faire, utilisez les commandes suivantes :
phys-schost# clzonecluster configure zoneclustername
clzc:sczone> remove node physical-host=zoneclusternodename

Assurez-vous que le nud a t supprim du cluster de zones.


phys-schost# clzonecluster status

Suppression d'un nud de la configuration logicielle


du cluster
Suivez cette procdure pour supprimer un nud du cluster global.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Assurez-vous d'avoir supprim le nud de tous les groupes de ressources, de priphriques et


des configurations de priphrique de quorum et mettez-le en mode de maintenance, avant de
continuer cette procdure.

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify sur le nud
supprimer. Effectuez toutes les tapes de cette procdure depuis un nud du cluster global.

Initialisez le nud du cluster global supprimer et mettez-le en mode non cluster. Pour un
nud de cluster de zones, vous devez suivre les instructions se trouvant dans la section
Suppression d'un nud d'un cluster de zones la page 250 avant d'effectuer cette tape.

Sur les systmes SPARC, excutez la commande suivante :


ok boot -x

Sur les systmes x86, excutez les commandes suivantes :

Chapitre 8 Ajout et suppression d'un nud

251

Suppression d'un nud dans un cluster

shutdown -g -y -i0
Press any key to continue

a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.

Pour plus d'informations concernant l'initialisation base sur la ressource GRUB,


reportez-vous la section Booting an x86 Based System by Using GRUB (Task Map) du
System Administration Guide: Basic Administration.
b. Dans l'cran des paramtres d'initialisation, utilisez les touches de direction pour
slectionner l'entre du noyau et saisissez l'option e pour diter cette dernire.
L'cran des paramtres d'initialisation GRUB s'affiche comme suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot
|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.

c. Ajoutez l'option -x la commande pour spcifier l'initialisation du systme en mode non


cluster.
[ Minimal BASH-like line editing is supported. For the first word, TAB
lists possible command completions. Anywhere else TAB lists the possible
completions of a device/filename. ESC at any time exits. ]
grub edit> kernel /platform/i86pc/multiboot -x

d. Appuyez sur la touche Entre pour accepter les modifications et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot -x
|
252

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Suppression d'un nud dans un cluster

| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.-

e. Saisissez l'option b pour initialiser le nud en mode non cluster.


Cette modification de la commande des paramtres d'initialisation du noyau ne sera pas
prise en compte, lors de la prochaine initialisation du systme. Lors de la prochaine
initialisation du nud, ce dernier sera initialis en mode cluster. Si vous souhaitez plutt
initialiser le nud en mode non cluster, effectuez de nouveau ces tapes pour ajouter
l'option -x la commande des paramtres d'initialisation du noyau.
Remarque Si le nud supprimer n'est plus disponible ou ne peut plus tre initialis,

excutez la commande suivante sur un nud actif quelconque du cluster : clnode clear -F
<node-to-be-removed> . Vrifiez la suppression du nud en excutant la commande clnode
status <nodename>.
4

Positionnez-vous sur le nud supprimer et supprimez-le du cluster.


phys-schost# clnode remove -F

Si la commande clnode remove n'aboutit pas ou que la rfrence au nud n'existe plus,
excutez la commande clnode clear -F nodename sur un nud actif.
Remarque Si vous supprimez le dernier nud du cluster, il doit tre en mode non cluster et le
cluster ne doit comporter aucun nud actif.
5

Positionnez-vous sur un autre nud du cluster et assurez-vous que le nud est supprim.
phys-schost# clnode status nodename

Terminez de supprimer le nud.

Si vous voulez dsinstaller Oracle Solaris Cluster du nud supprim, reportez-vous la


section Dsinstallation de Oracle Solaris Cluster d'un nud du cluster la page 287.

Si vous ne voulez pas dsinstaller Oracle Solaris Cluster du nud supprim, vous pouvez
supprimer physiquement le nud du cluster en supprimant les connexions matrielles
comme dcrit dans le Oracle Solaris Cluster 3.3 Hardware Administration Manual.

Chapitre 8 Ajout et suppression d'un nud

253

Suppression d'un nud dans un cluster

Exemple 82

Suppression d'un nud de la configuration logicielle du cluster


L'exemple suivant montre comment supprimer un nud (phys-schost-2) d'un cluster. La
commande clnode remove est excute en mode non cluster depuis le nud supprimer du
cluster (phys-schost-2)
[Remove the node from the cluster:]
phys-schost-2# clnode remove
phys-schost-1# clnode clear -F phys-schost-2
[Verify node removal:]
phys-schost-1# clnode status
-- Cluster Nodes -Node name
Status
-------------Cluster node:
phys-schost-1
Online

Voir aussi

Pour dsinstaller Oracle Solaris Cluster du nud supprim, reportez-vous la section


Dsinstallation de Oracle Solaris Cluster d'un nud du cluster la page 287.
Pour les procdures matrielles, reportez-vous au Oracle Solaris Cluster 3.3 Hardware
Administration Manual.
Pour une liste complte des tches permettant de supprimer un nud du cluster, reportez-vous
au Tableau 82.
Pour ajouter un nud un cluster existant, reportez-vous la section Ajout d'un nud la
liste des nuds autoriss la page 244.

Suppression d'un nud non votant (zone) d'un cluster


global

Connectez-vous en tant que superutilisateur sur le nud du cluster global dans lequel vous
crez un nud non votant.

Supprimez le nud non votant du systme.


Suivez les procdures dcrites dans la section Suppression dune zone non globale du systme
du Guide dadministration systme : Gestion des ressources des conteneurs et des zones Oracle
Solaris.

254

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Suppression d'un nud dans un cluster

Suppression de la connectivit entre une baie et un


nud unique dans un cluster comportant plus de
deux nuds
Suivez cette procdure pour sparer une baie de stockage d'un nud unique d'un cluster trois
ou quatre nuds.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Sauvegardez les tables des bases de donnes, les services de donnes et les volumes associs
la baie de stockage supprimer.

Dterminez les groupes de ressources et de priphriques excuts sur le nud dconnecter.


phys-schost# clresourcegroup status
phys-schost# cldevicegroup status

Dplacez tous les groupes de ressources et de priphriques du nud supprimer, le cas


chant.
Caution (SPARC only) Si le cluster est excut sur Oracle RAC, arrtez l'instance de la base de
donnes Oracle RAC excute sur le nud, avant de dplacer les groupes en dehors du nud.
Pour en savoir plus, reportez-vous au Oracle Database Administration Guide.

phys-schost# clnode evacuate node

La commande clnode evacuate bascule tous les groupes de priphriques du nud spcifi
vers le nud de prdilection suivant. La commande bascule galement tous les groupes de
ressources des nuds votants et non votants du nud spcifi vers le nud de prdilection
votant ou non votant suivant.
4

Mettez tous les groupes de priphriques en mode de maintenance.


Pour la procdure d'acceptation des activits d'E/S vers les groupes de disques partags Veritas,
reportez-vous la documentation VxVM.
Pour la procdure mettant un groupe de priphriques en mode de maintenance, reportez-vous
la section Mise en mode de maintenance d'un nud la page 275.

Chapitre 8 Ajout et suppression d'un nud

255

Suppression d'un nud dans un cluster

Supprimez le nud de tous les groupes de priphriques.


Si vous utilisez VxVM ou un disque brut, utilisez la commande cldevicegroup(1CL) pour
supprimer les groupes de priphriques.

Pour chaque groupe de ressources contenant une ressource HAStoragePlus, supprimez le


nud de la liste des nuds du groupe de ressources.
phys-schost# clresourcegroup remove-node -z zone -n node + | resourcegroup

node

Le nom du nud.

zone

Le nom du nud non votant pouvant contrler le groupe de ressources. Spcifiez la


zone uniquement si vous avez indiqu un nud non votant lors de la cration du
groupe de ressources.

Pour savoir comment modifier la liste des nuds d'un groupe de ressources, reportez-vous au
Oracle Solaris Cluster Data Services Planning and Administration Guide.
Remarque Les noms de la proprit, du groupe et du type de ressource sont sensibles la casse,
lorsque la commande clresourcegroup est excute.
7

Si la baie de stockage supprimer reprsente la dernire baie de stockage connecte au nud,


dconnectez le cble de fibre optique entre le nud et le hub ou la prise laquelle la baie de
stockage est connecte (dans le cas contraire, n'effectuez pas cette tape).

Si vous supprimez l'adaptateur hte du nud dconnecter et que vous dbranchez


l'alimentation lectrique du nud. Si vous supprimez l'adaptateur hte du nud
dconnecter, passez l'tape 11.

Supprimez l'adaptateur hte du nud.


Pour la procdure de suppression des adaptateurs htes, reportez-vous la documentation du
nud.

10

Branchez le nud sur l'alimentation lectrique, sans l'initialiser.

11

Si Oracle RAC a t install, supprimez le package logiciel correspondant du nud


dconnecter.
phys-schost# pkgrm SUNWscucm
Caution (SPARC only) Si vous ne supprimez pas Oracle RAC du nud dconnecter, une erreur
grave surviendra sur le nud, lorsque ce dernier sera rintroduit sur le cluster et vous pouvez
ventuellement ne plus avoir accs aux donnes.

12

256

Initialisez le nud en mode cluster.


Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Suppression d'un nud dans un cluster

Sur les systmes SPARC, excutez la commande suivante :


ok boot

Sur les systmes x86, excutez les commandes suivantes :


Lorsque le menu GRUB s'affiche, slectionnez l'entre Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.

13

Mettez jour l'espace de noms du priphrique du nud en mettant jour les entres
/devices et /dev.
phys-schost# devfsadm -C
cldevice refresh

14

Remettez ensuite les groupes de priphriques en ligne.


Pour les procdures de mise en ligne des groupes de disques partags Veritas, reportez-vous la
documentation Veritas Volume Manager.
Pour plus d'informations concernant la mise en ligne d'un groupe de priphriques,
reportez-vous la section Arrt du mode de maintenance d'un nud la page 276.

Correction des messages d'erreur


Pour corriger tout message d'erreur survenu lors de la suppression d'un nud du cluster, suivez
la procdure suivante :

Faites en sorte que le nud rejoigne le cluster global. Suivez cette procdure sur un cluster
global uniquement.
phys-schost# boot

tes-vous parvenu faire en sorte que le nud rejoigne le cluster global ?

Si non, passez l'tape b.

Chapitre 8 Ajout et suppression d'un nud

257

Suppression d'un nud dans un cluster

Si oui, effectuez les tapes suivantes pour supprimer le nud des groupes de priphriques.

a. Si le nud est parvenu rejoindre le cluster, supprimez-le des groupes de priphriques


restants.
Suivez la procdure de la section Suppression d'un nud de tous les groupes de
priphriques la page 138.
b. Aprs avoir supprim le nud de tous les groupes de priphriques, retournez la section
Dsinstallation de Oracle Solaris Cluster d'un nud du cluster la page 287 et rptez la
procdure.
3

Si le nud n'est pas parvenu rejoindre le cluster, attribuez un autre nom de votre choix au
fichier du nud /etc/cluster/ccr, comme par exemple : ccr.old.
# mv /etc/cluster/ccr /etc/cluster/ccr.old

258

Retournez la section Dsinstallation de Oracle Solaris Cluster d'un nud du cluster


la page 287 et rptez la procdure.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

C H A P I T R E

Administration du cluster

Ce chapitre contient les procdures d'administration affectant l'ensemble d'un cluster global ou
un cluster de zones :

Prsentation de l'administration du cluster la page 259


Tches d'administration d'un cluster de zones la page 281
Dpannage la page 297

Pour plus d'informations concernant l'ajout ou la suppression d'un nud du cluster,


reportez-vous au Chapitre 8, Ajout et suppression d'un nud.

Prsentation de l'administration du cluster


Cette section explique comment effectuer des tches d'administration sur l'ensemble d'un
cluster global ou sur un cluster de zones. Le tableau ci-dessous liste ces tches d'administration,
ainsi que les procdures qui leur sont associes. Les tches d'administration sont gnralement
effectues dans la zone globale. Pour administrer un cluster de zones, vous devez disposer au
minimum d'une machine hbergeant le cluster de zones, qui soit en ligne et en mode cluster.
Tous les nuds du cluster de zones ne doivent pas forcment tre en ligne et actifs. Oracle
Solaris Cluster relit les modifications apportes la configuration, lorsque le nud se trouvant
en dehors du cluster parvient rejoindre le cluster.
Remarque Par dfaut, la gestion de l'alimentation est dsactive pour ne pas interfrer avec le
cluster. Si vous activez la gestion de l'alimentation d'un cluster nud unique, le cluster est
toujours en cours d'excution mais il peut devenir indisponible pendant quelques secondes. La
fonction Gestion de l'alimentation tente de fermer le nud, sans succs.

Dans ce chapitre, phys-schost# fait rfrence une invite du cluster global. L'lment
clzc:schost> reprsente l'invite de shell interactive de la commande clzonecluster.
259

Prsentation de l'administration du cluster

TABLEAU 91

Liste des tches : administration du cluster

Tche

Instructions

Ajoutez ou supprimez un nud du cluster.

Chapitre 8, Ajout et suppression d'un nud

Modifiez le nom du cluster.

Modification du nom du cluster la page 260

Rpertoriez les ID des nuds et les noms


qui leur sont associs.

Mappage d'un ID sur le nom d'un nud la page 262

Autorisez ou refusez que les nuds


s'auto-ajoutent au cluster.

Authentification du nouveau nud du cluster la page 262

Modifiez l'heure d'un cluster l'aide du


protocole de temps du rseau (NTP,
Network Time Protocol).

Rinitialisation de l'heure et de la date d'un cluster la page 264

Arrtez un nud en confirmant l'invite


SPARC : Affichage d'OpenBoot PROM (OBP) sur un nud
OpenBoot PROM OK d'un systme SPARC la page 266
ou le message Press any key to continue
du menu GRUB d'un systme x86.
Ajoutez ou modifiez un nom d'hte priv.

Ajout d'un nom d'hte priv un nud non votant d'un cluster
global la page 270
Modification du nom d'hte priv d'un nud la page 267

Mettez un nud du cluster en mode de


maintenance.

Mise en mode de maintenance d'un nud la page 275

Modification du nom d'un nud

Modification du nom d'un nud la page 272

Arrtez le mode de maintenance d'un


nud du cluster.

Arrt du mode de maintenance d'un nud la page 276

Configuration des limites de charge pour


chaque nud

Configuration de limites de charge sur un nud la page 280

Dplacez un cluster de zones, prparez-le


en vue d'y excuter des applications ou
supprimez-le.

Tches d'administration d'un cluster de zones la page 281

Dsinstallez Oracle Solaris Cluster d'un


nud.

Dsinstallation de Oracle Solaris Cluster d'un nud du cluster


la page 287

Ajout et gestion d'une base MIB


d'vnements SNMP

Activation d'une base MIB d'vnements SNMP la page 292


Ajout d'un utilisateur SNMP un nud la page 296

Modification du nom du cluster


Vous pouvez modifier, si ncessaire, le nom du cluster, aprs l'installation initiale.

260

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration du cluster

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur sur un nud quelconque du cluster global.

Dmarrez l'utilitaire clsetup.


phys-schost# clsetup

Le menu principal s'affiche.


3

Pour modifier le nom du cluster, saisissez le numro correspondant l'option Other Cluster
Properties (Autres proprits du cluster).
Le menu Other Cluster Properties (Autres proprits du cluster) s'affiche.

Slectionnez l'lment dont vous avez besoin dans le menu et suivez les instructions affiches
sur l'cran.

Si vous souhaitez que la balise de service Oracle Solaris Cluster reflte le nouveau nom du
cluster, supprimez la balise Oracle Solaris Cluster existante et redmarrez le cluster. Pour
supprimer l'instance de la balise de service Oracle Solaris Cluster, terminez les sous-tapes
suivantes sur tous les nuds du cluster :
a. Rpertoriez toutes les balises de service.
phys-schost# stclient -x

b. Recherchez le numro de l'instance de la balise de service Oracle Solaris Cluster, puis


excutez la commande suivante :
phys-schost# stclient -d -i service_tag_instance_number

c. Rinitialisez tous les nuds dans le cluster.


phys-schost# reboot

Exemple 91

Modification du nom du cluster


L'exemple suivant met en vidence la commande cluster(1CL) gnre partir de l'utilitaire
clsetup(1CL) pour modifier le nouveau nom du cluster dromedary.
phys-schost# cluster -c dromedary

Chapitre 9 Administration du cluster

261

Prsentation de l'administration du cluster

Mappage d'un ID sur le nom d'un nud


Pendant l'installation de Oracle Solaris Cluster, un numro d'ID de nud unique est assign
chaque nud. Le numro de cet ID est assign aux nuds, selon l'ordre dans lequel ils
rejoignent le cluster pour la premire fois. Une fois que le numro de cet ID a t assign, il ne
peut plus tre modifi. Ce numro est utilis, le plus souvent, dans les messages d'erreur, afin
d'identifier le nud du cluster concern par le message. Suivez cette procdure pour dterminer
le mappage entre les ID et les noms des nuds.
Il n'est pas ncessaire de vous connecter en tant que superutilisateur pour rpertorier les
informations de configuration d'un cluster global ou d'un cluster de zones. L'une des deux
tapes de cette procdure doit tre effectue depuis un nud du cluster global. L'autre tape doit
tre effectue depuis un nud du cluster de zones.

Utilisez la commande clnode(1CL) pour rpertorier les informations de configuration du cluster


global.
phys-schost# clnode show | grep Node

Vous pouvez galement lister les ID des nuds d'un cluster de zones. Le nud du cluster de
zones possde le mme ID que celui du cluster global sur lequel il est excut.
phys-schost# zlogin sczone clnode -v | grep Node

Exemple 92

Mappage de l'ID sur le nom du nud


L'exemple suivant met en vidence les assignations d'ID des nuds d'un cluster global.
phys-schost# clnode show
=== Cluster Nodes ===
Node Name:
Node ID:
Node Name:
Node ID:
Node Name:
Node ID:

| grep Node
phys-schost1
1
phys-schost2
2
phys-schost3
3

Authentification du nouveau nud du cluster


Oracle Solaris Cluster permet de dterminer si les nouveaux nuds peuvent s'auto-ajouter au
cluster global, ainsi que le type d'authentification utiliser. Vous pouvez permettre ou interdire
tous les nuds de rejoindre le cluster sur le rseau public ou indiquer un nud spcifique
pouvant rejoindre le cluster. Les nouveaux nuds peuvent tre authentifis par le biais d'une
authentification UNIX standard ou d'une authentification Diffie-Hellman (DES,
Data Encryption Standard). Si vous slectionnez une authentification DES, vous devez
galement configurer les cls de chiffrement ncessaires, avant que le nud ne rejoigne le
cluster. Pour plus d'informations, reportez-vous aux pages de manuel keyserv(1M) et
publickey(4).

262

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration du cluster

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur sur un nud quelconque du cluster global.

Dmarrez l'utilitaire clsetup(1CL).


phys-schost# clsetup

Le menu principal s'affiche.


3

Pour mettre en place la mthode d'authentification sur le cluster, saisissez le numro


correspondant l'option des nouveaux nuds.
Le menu New Nodes (Nouveaux nuds) s'affiche.

Exemple 93

Slectionnez l'lment dont vous avez besoin dans le menu et suivez les instructions affiches
sur l'cran.

Interdire l'ajout de nouvelles machines au cluster global


L'utilitaire clsetup gnre la commande claccess. L'exemple suivant met en vidence la
commande claccess interdisant l'ajout de nouvelles machines au cluster.
phys-schost# claccess deny -h hostname

Exemple 94

Autoriser l'ajout de toutes les nouvelles machines au cluster global


L'utilitaire clsetup gnre la commande claccess. L'exemple suivant met en vidence la
commande claccess autorisant l'ajout de nouvelles machines au cluster.
phys-schost# claccess allow-all

Exemple 95

Spcification d'une nouvelle machine ajouter au cluster global


L'utilitaire clsetup gnre la commande claccess. L'exemple suivant met en vidence la
commande claccess autorisant l'ajout d'une nouvelle machine au cluster.
phys-schost# claccess allow -h hostname

Chapitre 9 Administration du cluster

263

Prsentation de l'administration du cluster

Exemple 96

Dfinition de l'authentification UNIX standard


L'utilitaire clsetup gnre la commande claccess. L'exemple suivant met en vidence la
commande claccess rinitialisant l'authentification des nouveaux nuds rejoignant le cluster
sur une authentification Unix standard.
phys-schost# claccess set -p protocol=sys

Exemple 97

Paramtrage du processus d'authentification DES


L'utilitaire clsetup gnre la commande claccess. L'exemple suivant met en vidence la
commande claccess utilise par le processus d'authentification DES pour les nouveaux nuds
rejoignant le cluster.
phys-schost# claccess set -p protocol=des

Lorsque vous utilisez une authentification DES, vous devez galement configurer toutes les cls
de chiffrement ncessaires, avant qu'un nud ne puisse rejoindre le cluster. Pour plus
d'informations, reportez-vous aux pages de manuel keyserv(1M) et publickey(4).

Rinitialisation de l'heure et de la date d'un cluster


Oracle Solaris Cluster utilise le protocole de temps du rseau (NTP, Network Time Protocol)
pour synchroniser l'heure. Les rglages se font de manire automatique, lorsque les nuds
synchronisent l'heure sur laquelle ils sont rgls avec celle du cluster global, lorsque cela s'avre
ncessaire. Pour plus d'informations, reportez-vous au Oracle Solaris Cluster Concepts Guide et
au Network Time Protocol User's Guide.
Attention Lorsque vous utilisez un protocole de transfert rseau, vous ne devez pas tenter de

rgler l'heure du cluster, lorsque ce dernier est excut. Vous ne devez pas rgler l'heure de
manire interactive l'aide de la commande date(1), rdate(1M), xntpd(1M) ou svcadm(1M)
ou dans un script cron(1M).
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur sur un nud quelconque du cluster global.

Arrtez le cluster global.


phys-schost# cluster shutdown -g0 -y -i 0

264

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration du cluster

Assurez-vous que le nud affiche l'invite OK si vous utilisez un systme SPARC et le message
Press any key to continue du menu GRUB, si vous utilisez un systme x86.

Initialisez le nud en mode non cluster.

Sur les systmes SPARC, excutez la commande suivante :

Sur les systmes x86, excutez les commandes suivantes :

ok boot -x

# shutdown -g -y -i0
Press any key to continue

a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.

Pour plus d'informations concernant l'initialisation base sur la ressource GRUB,


reportez-vous la section Booting an x86 Based System by Using GRUB (Task Map) du
System Administration Guide: Basic Administration.
b. Dans l'cran des paramtres d'initialisation, utilisez les touches de direction pour
slectionner l'entre du noyau et saisissez l'option e pour diter cette dernire.
L'cran des paramtres d'initialisation GRUB s'affiche comme suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot
|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.

c. Ajoutez l'option -x la commande pour spcifier l'initialisation du systme en mode non


cluster.
[ Minimal BASH-like line editing is supported. For the first word, TAB
lists possible command completions. Anywhere else TAB lists the possible
completions of a device/filename. ESC at any time exits. ]
Chapitre 9 Administration du cluster

265

Prsentation de l'administration du cluster

grub edit> kernel /platform/i86pc/multiboot -x

d. Appuyez sur la touche Entre pour accepter la modification et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot -x
|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.-

e. Saisissez l'option b pour initialiser le nud en mode non cluster.


Remarque Cette modification de la commande des paramtres d'initialisation du noyau ne
sera pas prise en compte, lors de la prochaine initialisation du systme. Lors de la prochaine
initialisation du nud, ce dernier sera initialis en mode cluster. Si vous souhaitez plutt
initialiser le nud en mode non cluster, effectuez de nouveau ces tapes pour ajouter
l'option -x la commande des paramtres d'initialisation du noyau.
5

Positionnez-vous sur un nud unique et rglez la date et l'heure l'aide de la commande date.
phys-schost# date HHMM.SS

Sur les autres machines, utilisez la commande rdate(1M) pour synchroniser l'heure sur celle du
nud unique.
phys-schost# rdate hostname

Initialisez chaque nud pour redmarrer le cluster.


phys-schost# reboot

Assurez-vous que la modification a t apporte tous les nuds du cluster.


Excutez la commande date sur chaque nud.
phys-schost# date

SPARC : Affichage d'OpenBoot PROM (OBP) sur un


nud
Suivez cette procdure si vous devez configurer ou modifier des paramtres
OpenBootTM PROM.

266

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration du cluster

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous la console du nud arrter.


# telnet tc_name tc_port_number

tc_name

Spcifie le nom du concentrateur de terminaux.

tc_port_number

Spcifie le numro de port du concentrateur de terminaux. Les numros


de port dpendent de la configuration. Les ports 2 et 3 (5002 et 5003) sont
gnralement utiliss par le premier cluster install sur un site.

Arrtez le nud du cluster de manire approprie l'aide de la commande clnode evacuate,


puis de la commande shutdown. La commande clnode evacuate permet de basculer tous les
groupes de priphriques du nud spcifi vers le nud de prdilection suivant. Elle bascule
galement tous les groupes de ressources du nud votant ou non votant du cluster global
spcifi vers le nud de prdilection votant ou non votant suivant.
phys-schost# clnode evacuate node
# shutdown -g0 -y
Attention Vous ne pouvez pas utiliser la commande send brk dans la console d'un cluster pour
arrter un nud.

Excutez les commandes OBP.

Modification du nom d'hte priv d'un nud


Suivez cette procdure pour modifier le nom d'hte priv d'un nud du cluster, aprs avoir
termin l'installation.
Les noms d'hte priv par dfaut sont assigns pendant l'installation initiale du cluster. Le
format des noms d'htes privs par dfaut est le suivant : clusternode< nodeid>-priv, tel que
clusternode3-priv, par exemple. Vous devez modifier un nom d'hte priv uniquement si ce
dernier est dj utilis dans le domaine.
Attention Ne tentez pas d'assigner des adresses IP aux nouveaux noms d'hte priv. Le logiciel

de gestion de clusters se charge de les assigner.

Chapitre 9 Administration du cluster

267

Prsentation de l'administration du cluster

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Dsactivez, sur tous les nuds du cluster, toute ressource de service de donnes ou toute
application pouvant mettre en cache des noms d'hte privs.
phys-schost# clresource disable resource[,...]

Veuillez inclure les lments suivants dans les applications dsactiver :

Les services DNS et NFS haute disponibilit, si configurs.

Toute application dont la configuration a t personnalise afin d'utiliser le nom d'hte


priv.

Toute application utilise par les clients dans l'interconnexion prive.

Pour plus d'informations concernant l'utilisation de la commande clresource, reportez-vous


la page de manuel clresource(1CL) et au Oracle Solaris Cluster Data Services Planning and
Administration Guide.
2

Si votre fichier de configuration NTP se rfre au nom d'hte priv modifier, dsactivez le
dmon NTP sur chaque nud du cluster.
Utilisez la commande svcadm pour arrter le dmon NTP (Network Time Protocol). Pour plus
d'informations concernant le dmon NTP, reportez-vous la page de manuel svcadm(1M).
phys-schost# svcadm disable ntp

Excutez l'utilitaire clsetup(1CL) pour modifier le nom d'hte priv du nud traiter.
Excutez l'utilitaire depuis l'un des nuds du cluster.
Remarque Lorsque vous slectionnez un nouveau nom d'hte priv, assurez-vous que ce
dernier ne fait pas doublon sur le nud du cluster.

Saisissez le numro qui correspond l'option du nom d'hte priv.

Saisissez le numro qui correspond l'option permettant de modifier un nom d'hte priv.
Rpondez aux questions, lorsque vous y tes invit. Vous tes invit saisir le nom du nud
dont vous modifiez le nom d'hte priv (clusternode< nodeid> -priv), ainsi que le nouveau
nom d'hte priv.

268

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration du cluster

Videz le cache du service de noms.


Effectuez cette tape sur chaque nud du cluster. Lorsque vous videz le cache du service de
noms, cela empche les applications et les services de donnes du cluster d'accder l'ancien
nom d'hte priv.
phys-schost# nscd -i hosts

Si vous avez modifi un nom d'hte priv dans votre fichier de configuration NTP, veuillez
mettre jour ce dernier (ntp.conf ou ntp.conf.cluster ) sur chaque nud.
a. Utilisez l'outil d'dition de votre choix.
Si vous effectuez cette tape lors de l'installation, n'oubliez pas de supprimer les nuds
configurs. Le modle pr-configur par dfaut contient 16 nuds. En rgle gnrale, le
fichier ntp.conf.cluster est le mme sur chaque nud du cluster.
b. Assurez-vous que vous pouvez excuter une requte ping pour le nouveau nom d'hte priv
sur tous les nuds du cluster.
c. Redmarrez le dmon NTP.
Effectuez cette tape sur chaque nud du cluster.
Utilisez la commande svcadm pour redmarrer le dmon NTP.
# svcadm enable ntp

Activez toutes les ressources du service de donnes et les autres applications qui ont t
dsactives, lors de l'tape 1.
phys-schost# clresource enable resource[,...]

Pour plus d'informations concernant l'utilisation de la commande clresource, reportez-vous


la page de manuel clresource(1CL) et au Oracle Solaris Cluster Data Services Planning and
Administration Guide.
Exemple 98

Modification du nom d'hte priv


L'exemple suivant met en vidence la modification du nom d'hte priv clusternode2-priv ,
afin de lui assigner le nom clusternode4-priv sur le nud phys-schost-2 .
[Disable all applications and data services
phys-schost-1# /etc/init.d/xntpd stop
phys-schost-1# clnode show | grep node
...
private hostname:
private hostname:
private hostname:
...
phys-schost-1# clsetup
phys-schost-1# nscd -i hosts

Chapitre 9 Administration du cluster

as necessary.]

clusternode1-priv
clusternode2-priv
clusternode3-priv

269

Prsentation de l'administration du cluster

phys-schost-1# vi /etc/inet/ntp.conf
...
peer clusternode1-priv
peer clusternode4-priv
peer clusternode3-priv
phys-schost-1# ping clusternode4-priv
phys-schost-1# /etc/init.d/xntpd start
[Enable all applications and data services disabled at the beginning of the procedure.]

Ajout d'un nom d'hte priv un nud non votant


d'un cluster global
Suivez cette procdure pour ajouter un nom d'hte priv un nud non votant du cluster
global, aprs avoir termin l'installation. Dans les procdures de ce chapitre, phys-schost# fait
rfrence une invite du cluster global. Suivez cette procdure sur un cluster global
uniquement.

Excutez l'utilitaire clsetup(1CL) pour ajouter un nom d'hte priv la zone traiter.
phys-schost# clsetup

Saisissez le numro qui correspond l'option des noms d'hte privs et appuyez sur la touche
Entre.

Saisissez le numro qui correspond l'option permettant d'ajouter un nom d'hte priv une
zone et appuyez sur la touche Entre.
Rpondez aux questions, lorsque vous y tes invit. Il n'existe aucune valeur par dfaut pour le
nom d'hte priv d'un nud non votant du cluster global. Vous devrez spcifier un nom d'hte.

Modification du nom d'hte priv d'un nud non


votant d'un cluster global
Suivez cette procdure pour modifier le nom d'hte priv d'un nud non votant, aprs avoir
termin l'installation.
Les noms d'hte priv sont assigns pendant l'installation initiale du cluster. Le format des
noms d'htes privs est le suivant : clusternode< nodeid>-priv, tel que clusternode3-priv,
par exemple. Vous devez modifier un nom d'hte priv uniquement si ce dernier est dj utilis
dans le domaine.
Attention Ne tentez pas d'assigner des adresses IP aux nouveaux noms d'hte priv. Le logiciel

de gestion de clusters se charge de les assigner.

270

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration du cluster

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Dsactivez, sur tous les nuds du cluster global, toute ressource de service de donnes ou toute
application pouvant mettre en cache les noms d'hte priv.
phys-schost# clresource disable resource1, resource2

Veuillez inclure les lments suivants dans les applications dsactiver :

Les services DNS et NFS haute disponibilit, si configurs.

Toute application dont la configuration a t personnalise afin d'utiliser le nom d'hte


priv.

Toute application utilise par les clients dans l'interconnexion prive.

Pour plus d'informations concernant l'utilisation de la commande clresource, reportez-vous


la page de manuel clresource(1CL) et au Oracle Solaris Cluster Data Services Planning and
Administration Guide.
2

Excutez l'utilitaire clsetup(1CL) pour modifier le nom d'hte priv du nud non votant du
cluster global traiter.
phys-schost# clsetup

Vous devez effectuer cette tape uniquement depuis l'un des nuds du cluster.
Remarque Lorsque vous slectionnez un nouveau nom d'hte priv, assurez-vous que ce
dernier ne fait pas doublon dans le cluster.
3

Saisissez le numro qui correspond l'option des noms d'hte privs et appuyez sur la touche
Entre.

Saisissez le numro qui correspond l'option permettant d'ajouter un nom d'hte priv une
zone et appuyez sur la touche Entre.
Il n'existe aucune valeur par dfaut pour un nud non votant d'un nom d'hte priv du cluster
global. Vous devez spcifier un nom d'hte.

Saisissez le numro qui correspond l'option permettant de modifier le nom d'hte priv d'une
zone.
Rpondez aux questions, lorsque vous y tes invit. Vous tes invit saisir le nom du nud
non votant dont vous modifiez le nom d'hte priv (clusternode< nodeid> -priv), ainsi que le
nouveau nom d'hte priv.
Chapitre 9 Administration du cluster

271

Prsentation de l'administration du cluster

Videz le cache du service de noms.


Effectuez cette tape sur chaque nud du cluster. Lorsque vous videz le cache du service de
noms, cela empche les applications et les services de donnes du cluster d'accder l'ancien
nom d'hte priv.
phys-schost# nscd -i hosts

Activez toutes les ressources du service de donnes et les autres applications qui ont t
dsactives, lors de l'tape 1.

Suppression d'un nom d'hte priv d'un nud non


votant d'un cluster global
Suivez cette procdure pour supprimer un nom d'hte priv d'un nud non votant d'un cluster
global. Suivez cette procdure sur un cluster global uniquement.

Excutez l'utilitaire clsetup(1CL) pour supprimer le nom d'hte priv de la zone traiter.

Saisissez le numro qui correspond l'option du nom d'hte priv d'une zone.

Saisissez le numro qui correspond l'option permettant de supprimer le nom d'hte priv
d'une zone.

Saisissez le nom du nud non votant du nom d'hte priv supprimer.

Modification du nom d'un nud


Vous pouvez modifier le nom d'un nud qui fait partie d'une configuration de cluster Oracle
Solaris. Vous devez renommer le nom d'hte Oracle Solaris avant de renommer le nud.
Utilisez la commande clnode rename pour renommer le nud.
Les instructions suivantes sont valides pour toute application s'excutant sur un cluster global.

272

Sur le cluster global, connectez-vous en tant que superutilisateur ou prenez un rle dot de
l'autorisation RBAC solaris.cluster.modify.

Si vous renommez un nud d'un cluster Oracle Solaris Cluster Geographic Edition partenaire
d'une configuration Oracle Solaris, vous devez effectuer des oprations supplmentaires. Si le
cluster dans lequel vous effectuez la procdure de renommage constitue le cluster principal du
groupe de protection, et si vous souhaitez que l'application soit incluse dans le groupe de
protection en ligne, vous pouvez faire basculer le groupe de protection sur le cluster secondaire
pendant que vous renommez le nud. Pour de plus amples informations sur les clusters et
Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration du cluster

nuds Geographic Edition, reportez-vous au Chapitre 5,Administering Cluster Partnerships


du Oracle Solaris Cluster Geographic Edition System Administration Guide.
3

Renommezlesnoms d'hte Oracle Solaris comme dcrit dans la section How to Change a
Systems Host Namedu System Administration Guide: Advanced Administration, sans
redmarrer la fin de la procdure. Au lieu de redmarrer votre systme, arrtez le cluster.

Rinitialisez tous les nuds de cluster en mode non cluster.


ok> boot -x

En mode non cluster sur le nud sur lequel vous avez renomm le nom d'hte Oracle Solaris,
renommez le nud et excutez la commande cmd sur chaque hte renomm. Renommez un
seul nud la fois.
# clnode rename -n newnodename oldnodename

Mettez jour toutes les rfrences au nom d'hte prcdent dans les applications excutes sur
le cluster.

Assurez-vous que le nud a bien t renomm en vrifiant les messages de commande et les
fichiers journaux.

Rinitialisez tous les nuds en mode cluster.


# sync;sync;sync;/etc/reboot

Vrifiez que le nud affiche le nouveau nom.


# clnode status -v

10

Si vous renommez un nud inclus dans un nud de cluster Geographic Edition et si le cluster
partenaire du cluster contenant le nud renomm contient toujours des rfrences au nom de
nud prcdent, l'tat de la synchronisation du groupe de protection affichera une erreur. Vous
devez mettre jour le groupe de protection partir d'un nud du cluster partenaire qui
contient le nud renomm l'aide de la commande geopg update <pg>. Aprs cette tape,
excutez la commande geopg start -e global <pg>. Vous pourrez ensuite rebasculer le
groupe de protection sur le cluster contenant le nud renomm.

11

Vous pouvez dcider de modifier la proprit hostnamelist des ressources de noms d'hte
logiques. Reportez-vous la section Modification des noms d'hte logiques l'aide des
ressources de noms d'hte logiques Oracle Solaris Cluster existantes la page 274 pour obtenir
des instructions sur cette tape facultative.

Chapitre 9 Administration du cluster

273

Prsentation de l'administration du cluster

Modification des noms d'hte logiques l'aide des


ressources de noms d'hte logiques Oracle Solaris
Cluster existantes
Vous pouvez modifier la proprit hostnamelist de la ressource du nom d'hte logique avant
ou aprs avoir renomm le nud en suivant les tapes de la section Modification du nom d'un
nud la page 272. Cette tape est facultative.

Sur le cluster global, connectez-vous en tant que superutilisateur ou prenez un rle dot de
l'autorisation RBAC solaris.cluster.modify.

Si vous le souhaitez, vous pouvez modifier les noms d'hte logiques utiliss par les ressources
de noms d'hte logiques Oracle Solaris Cluster existantes.
Les tapes ci-dessous dcrivent comment configurer la ressource apache-lh-res de manire
ce qu'elle fonctionne avec le nouveau nom d'hte logique. Cette procdure doit tre excute en
mode cluster.
a. En mode cluster, accdez aux groupes de ressources Apache qui contiennent les noms
d'hte logiques hors ligne.
# clrg offline apache-rg

b. Dsactivez ces ressources Apache.


# clrs disable appache-lh-res

c. Fournissez la nouvelle liste de noms d'hte.


# clrs set -p HostnameList=test-2 apache-lh-res

d. Modifiez les rfrences de l'application pour les entres prcdentes dans la proprit
hostnamelist afin de rfrencer les nouvelles entres.
e. Activez les nouvelles ressources Apache.
# clrs enable apache-lh-res

f. Mettez en ligne les groupes de ressources Apache.


# clrg online apache-rg

g. Assurez-vous que l'application a dmarr correctement en excutant la commande suivante


de vrification du client.
# clrs status apache-rs

274

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration du cluster

Mise en mode de maintenance d'un nud


Vous devez mettre un nud du cluster global en mode de maintenance, lorsque vous dsactivez
ce dernier pendant un certain temps. De cette faon, le nud n'est pas pris en compte dans le
nombre de quorums, pendant l'opration de maintenance. Pour mettre un nud en mode de
maintenance, ce dernier doit tre arrt l'aide de la commande d'vacuation clnode(1CL) et la
commande d'arrt cluster(1CL).
Remarque Utilisez la commande Oracle Solaris shutdown pour arrter un nud unique.

Utilisez la commande cluster shutdown uniquement lorsque vous arrtez l'ensemble d'un
cluster.
Lorsqu'un nud est arrt et mis en mode de maintenance, la valeur 1 est dduite du nombre de
votes de tous les priphriques de quorum dont les ports sont configurs sur ce nud. Lors de
l'arrt du mode de maintenance de ce dernier et sa remise en ligne, la valeur 1 est ajoute au
nud et aux nombres de votes de priphrique de quorum.
Utilisez la commande de dsactivation clquorum(1CL) pour mettre le nud du cluster en mode
de maintenance.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify sur le nud
du cluster mettre en mode de maintenance.

vacuez tout groupe de ressources ou de priphriques du nud. La commande clnode


evacuate permet de basculer tous les groupes de ressources ou de priphriques, y compris les
nuds non votants, du nud spcifi vers le nud de prdilection suivant.
phys-schost# clnode evacuate node

Arrtez le nud vacu.


phys-schost# shutdown -g0 -y-i 0

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify sur un autre
nud du cluster et mettez le nud ayant t arrt l'tape 3 en mode de maintenance.
phys-schost# clquorum disable node

Chapitre 9 Administration du cluster

275

Prsentation de l'administration du cluster

node
5

Spcifie le nom d'un nud mettre en mode de maintenance.

Assurez-vous que le nud du cluster global est dsormais mis en mode de maintenance.
phys-schost# clquorum status node

Le statut (Status) du nud mis en mode de maintenance doit tre hors ligne (Offline) et gal
0 (zro) pour les votes de quorum de type Present et Possible.
Exemple 99

Mise en mode de maintenance d'un nud du cluster global


L'exemple suivant met le nud du cluster en mode de maintenance et vrifie les rsultats. Le
rsultat de la commande clnode status renvoie la valeur 0 (zro) pour les nuds de vote (Node
votes) de phys-schost-1, ainsi que le statut Hors ligne (Offline). Le Rcapitulatif du quorum
(Quorum Summary) doit galement renvoyer des nombres de votes rduits. Selon votre
configuration, le rsultat des Votes de quorum par priphrique (Quorum Votes by Device)
doit indiquer que certains priphriques de disque de quorum se trouvent galement hors ligne.
[On the node to be put into maintenance state:]
phys-schost-1# clnode evacuate phys-schost-1
phys-schost-1# shutdown -g0 -y -i0
[On another node in the cluster:]
phys-schost-2# clquorum disable phys-schost-1
phys-schost-2# clquorum status phys-schost-1
-- Quorum Votes by Node -Node Name
--------phys-schost-1
phys-schost-2
phys-schost-3

Voir aussi

Present
------0
1
1

Possible
-------0
1
1

Status
-----Offline
Online
Online

Pour remettre un nud en ligne, reportez-vous la section Arrt du mode de maintenance


d'un nud la page 276.

Arrt du mode de maintenance d'un nud


Suivez la procdure suivante pour remettre en ligne un nud du cluster global et rinitialiser le
nombre de votes de quorum sur la valeur par dfaut. Le nombre de quorums des nuds du
cluster est gal 1. Le nombre de quorums par dfaut des priphriques de quorum est gal
N-1. La lettre N reprsente un nombre de nuds, dont la valeur du nombre de votes n'est pas
gale zro et dont les ports du nombre de votes sont configurs sur le priphrique de quorum.
Lors de la mise en mode de maintenance d'un nud, la valeur 1 est dduite du nombre de votes
de quorum de ce nud. Les nombres de votes de tous les priphriques de quorum dont les

276

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration du cluster

ports sont configurs sur le nud, seront galement rduits. Lors de la rinitialisation du
nombre de votes de quorum et de l'arrt du mode de maintenance d'un nud, la valeur 1 est
ajoute au nombre de votes de priphrique de quorum et au nombre de votes de quorum du
nud.
Suivez cette procdure chaque fois qu'un nud du cluster global est mis en mode de
maintenance et que vous souhaitez modifier cet tat.
Attention Si vous n'avez pas spcifi l'option globaldev ou node, le nombre de quorums est
rinitialis sur l'ensemble du cluster.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify sur tous les
nuds du cluster global autres que le nud mis en mode de maintenance.

Selon le nombre de nuds de la configuration du cluster global, effectuez l'une des tapes
suivantes :

Si la configuration du cluster contient deux nuds, reportez-vous l'tape 4.


Si la configuration du cluster contient plus de deux nuds, reportez-vous l'tape 3.

Si le nud dont le mode de maintenance est arrt, comprend des priphriques de quorum,
rinitialisez le nombre de quorums du cluster depuis un autre nud.
Vous pouvez rinitialiser le nombre de quorums d'un nud autre que le nud mis en mode de
maintenance, avant de rinitialiser ce dernier. Dans le cas contraire, le nud peut se retrouver
bloqu en attendant le quorum.
phys-schost# clquorum reset

reset

Indicateur de la modification rinitialisant les quorums.

Initialisez le nud dont le mode de maintenance est arrt.

Vrifiez le nombre de votes de quorum.


phys-schost# clquorum status

Le statut du nud dont le mode de maintenance est arrt doit tre en ligne (Online) et reflter
le nombre de votes appropri pour les votes de quorum de type Present et Possible.

Chapitre 9 Administration du cluster

277

Prsentation de l'administration du cluster

Exemple 910

Arrt du mode de maintenance d'un nud du cluster et redfinition du nombre de


votes de quorum
L'exemple suivant met en vidence la rinitialisation du nombre de quorums d'un nud du
cluster et de ses priphriques de quorum sur les valeurs par dfaut, ainsi que la vrification du
rsultat. Dans la sortie de scstat status, les votes de nud (Node votes) pour la commande
phys-schost-1 possdent la valeur 1 et le statut en ligne (Online). Le rcapitulatif du quorum
(Quorum Summary) affiche galement une augmentation du nombre de votes.
phys-schost-2# clquorum reset

Sur les systmes SPARC, excutez la commande suivante :

Sur les systmes x86, excutez les commandes suivantes :

ok boot

Lorsque le menu GRUB s'affiche, slectionnez l'entre Oracle Solaris approprie, puis
appuyez sur la touche Entre. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.
phys-schost-1# clquorum status
--- Quorum Votes Summary --Needed
-----4

Present
------6

Possible
-------6

--- Quorum Votes by Node --Node Name


--------phys-schost-2
phys-schost-3

Present
------1
1

Possible
-------1
1

Status
-----Online
Online

--- Quorum Votes by Device --Device Name


----------/dev/did/rdsk/d3s2
/dev/did/rdsk/d17s2
/dev/did/rdsk/d31s2

278

Present
------1
0
1

Possible
-------1
1
1

Status
-----Online
Online
Online

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Prsentation de l'administration du cluster

Configuration de limites de charge


Vous pouvez activer la rpartition automatique des charges des groupes de ressources entre les
nuds ou dfinir des limites de charge. Vous pouvez configurer un ensemble des limites de
charge pour chaque nud de cluster. Vous assignez des facteurs de charge aux groupes de
ressources, et ces facteurs correspondent aux limites de charge dfinies pour chaque nud. Le
comportement par dfaut consiste distribuer la charge du groupe de ressources de manire
quitable sur tous les nuds disponibles dans la liste des nuds du groupe de ressources.
Les groupes de ressources sont dmarrs sur un nud de la liste des nuds du groupe de
ressources par le RGM, de manire ce que les limites de charge du nud ne soient pas
dpasses. Comme les groupes de ressources assigns aux nuds par le RGM, les facteurs de
charge du groupe de ressources sur chaque nud sont additionns afin de fournir une charge
totale. La charge totale est ensuite compare aux limites de charge du nud.
Une limite de charge se compose des lments suivants :

Un nom assign par l'utilisateur.

Une valeur de limite dpassable (vous pouvez dpasser temporairement cette valeur).

Une valeur de limite fixe (ces limites de charge ne peuvent jamais tre dpasses et sont
strictement appliques).

Vous pouvez dfinir les limites dpassable et fixe dans une seule commande. Si une des limites
n'est pas explicitement dfinie, la valeur par dfaut est utilise. Les limites dpassable et fixe de
chaque nud sont cres et modifies avec les commandes clnode create-loadlimit, clnode
set-loadlimit, et clnode delete-loadlimit. Pour plus dinformations, reportez-vous la
page de manuel clnode(1CL).
Vous pouvez dfinir un groupe de ressources sur une priorit suprieure, pour qu'il soit moins
susceptible d'tre dplac d'un nud spcifique. Vous pouvez galement dfinir une proprit
preemption_mode pour dterminer si un groupe de ressources peut tre devanc par un groupe
de ressources priorit suprieure en cas de surcharge de nud. Une proprit
concentrate_load permet aussi de concentrer la charge du groupe de ressources sur le moins
de nuds possible. La valeur par dfaut de la proprit concentrate_load est FALSE.
Remarque Vous pouvez configurer des limites de charge sur les nuds d'un cluster global ou
d'un cluster de zones. Vous pouvez utiliser la ligne de commande, l'utilitaire clsetup ou
l'interface du gestionnaire Oracle Solaris Cluster pour configurer des limites de charge. La
procdure suivante montre comment configurer des limites de charge l'aide de la ligne de
commande.

Chapitre 9 Administration du cluster

279

Prsentation de l'administration du cluster

Configuration de limites de charge sur un nud


1

Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits


d'autorisation RBCA solaris.cluster.modify sur tous les nuds du cluster global.

Crez et dfinissez une limite de charge pour les nuds avec lesquels vous souhaitez utiliser
l'quilibrage de charge.
# clnode create-loadlimit -p limitname=mem_load -Z zc1 -p
softlimit=11 -p hardlimit=20 node1 node2 node3

Dans cet exemple, le nom du cluster de zones est zc1. L'exemple de proprit est appel
mem_load et possde une limite dpassable de 11 et une limite fixe de 20. Les limites dpassable
et fixe sont des arguments facultatifs, dfinis par dfaut sur une valeur illimite. Pour plus
dinformations, reportez-vous la page de manuel clnode(1CL).
3

Assignez des valeurs de facteur de charge chaque groupe de ressources.


# clresourcegroup set -p load_factors=mem_load@50,factor2@1 rg1 rg2

Dans cet exemple, les facteurs de charge sont dfinis sur les deux groupes de ressources, rg1 et
rg2. Les paramtres des facteurs de charge correspondent aux limites de charge dfinies pour
ces nuds. Vous pouvez galement effectuer cette tape au cours de la cration du groupe de
ressources avec la commande clresourceroup create. Pour plus d'informations,
reportez-vous la page de manuel clresourcegroup(1CL).
4

Si vous le souhaitez, vous pouvez redistribuer la charge existante (clrg remaster).


# clresourcegroup remaster rg1 rg2

Cette commande permet de dplacer des groupes de ressources hors de leur nud matre
actuel, vers d'autres nuds, afin d'obtenir une rpartition uniforme de la charge.
5

Si vous le souhaitez, vous pouvez accorder une priorit suprieure certains groupes de
ressources.
# clresourcegroup set -p priority=600 rg1

La priorit par dfaut est 500. Lors de l'assignement des nuds, les groupes de ressources avec
des valeurs de priorit suprieure prvalent sur les groupes de ressources avec une priorit
infrieure.
6

Si vous le souhaitez, vous pouvez dfinir la proprit Preemption_mode.


# clresourcegroup set -p Preemption_mode=No_cost rg1

Reportez-vous la page de manuel clresourcegroup(1CL) pour de plus amples informations


sur les options HAS_COST, NO_COST et NEVER.
7

Si vous le souhaitez, vous pouvez galement dfinir l'indicateur Concentrate_load.


# cluster set -p Concentrate_load=TRUE

280

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Tches d'administration d'un cluster de zones

Si vous le souhaitez, vous pouvez spcifier une affinit entre les groupes de ressources.
Une affinit positive ou ngative forte l'emporte sur la rpartition de la charge. Une forte affinit
doit toujours tre respecte, tout comme une limite de charge fixe. Si vous dfinissez la fois des
affinits fortes et des limites de charge fixes, certains groupes de ressources devront rester hors
ligne s'ils ne rpondent pas ces deux contraintes.
L'exemple suivant dcrit une forte affinit positive entre le groupe de ressources rg1 du cluster
de zones zc1 et le groupe de ressources rg2 du cluster de zones zc2.
# clresourcegroup set -p RG_affinities=++zc2:rg2 zc1:rg1

Vrifiez le statut de tous les nuds de cluster global et de zones dans le cluster.
# clnode status -Z all -v

La sortie inclut touts les paramtres de limite de charge dfinis sur le nud ou sur ses zones non
globales.

Tches d'administration d'un cluster de zones


Vous pouvez effectuer les autres tches d'administration dans un cluster de zones. Cela
comprend la suppression d'un chemin d'accs de la zone, la prparation d'un cluster de zones
afin d'excuter des applications ou son clonage. Toutes ces commandes doivent tre excutes
depuis le nud de vote du cluster global.
Remarque Les commandes Oracle Solaris Cluster devant tre uniquement excutes depuis le
nud non votant du cluster global, ne peuvent pas tre utilises dans les clusters de zones. Pour
savoir comment excuter correctement une commande dans une zone, reportez-vous la page
de manuel Oracle Solaris Cluster approprie.
TABLEAU 92

Autres tches du cluster de zones

Tche

Instructions

Dplacez le chemin d'accs la zone vers un nouveau


chemin d'accs.

clzonecluster move -f zonepath zoneclustername

Prparez le cluster de zones afin d'y excuter des


applications.

clzonecluster ready -n nodename


zoneclustername

Clonez un cluster de zones.

clzonecluster clone -Z source- zoneclustername


[-m copymethod] zoneclustername
Arrtez le cluster de zones source, avant d'excuter la
sous-commande clone. Le cluster de la zone cible
doit dj tre configur.

Chapitre 9 Administration du cluster

281

Tches d'administration d'un cluster de zones

TABLEAU 92

Autres tches du cluster de zones

(Suite)

Tche

Instructions

Supprimez un cluster de zones.

Suppression d'un cluster de zones la page 282

Supprimez un systme de fichiers d'un cluster de zones.

Suppression d'un systme de fichiers d'un cluster de


zones la page 283

Supprimez un priphrique de stockage d'un cluster de


zones.

Suppression d'un priphrique de stockage d'un


cluster de zones la page 285

Dpannez la dsinstallation d'un nud.

Dpannage de la dsinstallation d'un nud


la page 289

Crez, paramtrez et grez la base MIB d'vnements


SNMP d'Oracle Solaris Cluster.

Cration, paramtrage et gestion de la base MIB


d'vnements SNMP de Oracle Solaris Cluster
la page 291

Suppression d'un cluster de zones


Vous pouvez supprimer un cluster de zones spcifique ou utiliser un caractre gnrique pour
supprimer tous les clusters de zones qui sont configurs sur le cluster global. Vous devez
configurer le cluster de zones avant de le supprimer.

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify sur le nud
du cluster global. Effectuez toutes les tapes de cette procdure depuis un nud du cluster
global.

Supprimez tous les groupes de ressources et les ressources qui leur sont associes du cluster de
zones.
phys-schost# clresourcegroup delete -F -Z zoneclustername +
Remarque Cette tape doit tre effectue depuis un nud du cluster global. Pour effectuer cette
tape plutt depuis un nud du cluster de zones, connectez-vous sur le nud du cluster de
zones et n'indiquez pas l'option -Zzonecluster dans la commande.

Arrtez le cluster de zones.


phys-schost# clzonecluster halt zoneclustername

Annulez l'installation du cluster de zones.


phys-schost# clzonecluster uninstall zoneclustername

Annulez la configuration du cluster de zones.


phys-schost# clzonecluster delete zoneclustername

282

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Tches d'administration d'un cluster de zones

Exemple 911

Suppression d'un cluster de zones d'un cluster global


phys-schost# clresourcegroup delete -F -Z sczone +
phys-schost# clzonecluster halt sczone
phys-schost# clzonecluster uninstall sczone
phys-schost# clzonecluster delete sczone

Suppression d'un systme de fichiers d'un cluster de


zones
Un systme de fichiers peut tre export vers un cluster de zones l'aide d'un montage direct ou
d'un montage en boucle.
Les clusters de zones prennent en charge les montages directs des fichiers suivants :

UFS
Vxfs
Systme de fichiers partag autonome QFS
ZFS (fichiers exports en tant que jeu de donnes)

Les clusters de zones prennent en charge les montages en boucle des fichiers suivants :

UFS
Vxfs
Systme de fichiers partag autonome QFS
Systme de fichiers partag QFS
PxFS sur UFS
PxFS sur Vxfs

Pour savoir comment ajouter un systme de fichiers un cluster de zones, reportez-vous la


section Ajout de systmes de fichiers un cluster de zones du Guide dinstallation du logiciel
Oracle Solaris Cluster.
L'lment phys-schost# fait rfrence l'invite du cluster global. Cette procdure contient la
forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possdent
galement des formes brves. l'exception de la forme du nom, ces commandes sont
identiques.
1

Connectez-vous en tant que superutilisateur sur un nud du cluster global hbergeant le


cluster de zones. Certaines tapes de cette procdure doivent tre effectues depuis un nud
du cluster global. Les autres tches sont effectuer depuis un nud du cluster de zones.
Chapitre 9 Administration du cluster

283

Tches d'administration d'un cluster de zones

Supprimez les ressources associes au systme de fichiers supprimer.


a. Identifiez et supprimez les types de ressources Oracle Solaris Cluster, tels que
HAStoragePlus et SUNW.ScalMountPoint, configurs sur le systme de fichiers du cluster de
zones supprimer.
phys-schost# clresource delete -F -Z zoneclustername fs_zone_resources

b. Identifiez et supprimez les ressources Oracle Solaris Cluster de type SUNW.qfs qui sont
configures dans le cluster global du systme de fichiers supprimer, le cas chant.
phys-schost# clresource delete -F fs_global_resources

Utilisez l'option -F avec prcaution : elle force la suppression de toutes les ressources
spcifies, mme si vous ne les avez pas dsactives au pralable. Toutes les ressources
spcifies sont supprimes des paramtres de dpendance des autres ressources. Cela peut
provoquer un arrt du service dans le cluster. Les ressources dpendant d'autres ressources
qui n'ont pas t supprime, peuvent tre conserves en tant que non valides ou erreurs.
Pour plus d'informations, reportez-vous la page de manuel clresource(1CL).
Astuce Si le groupe de la ressource supprime ne contient par la suite plus aucune ressource,

vous pouvez le supprimer en toute scurit.


3

Dterminez le chemin d'accs au rpertoire du point de montage du systme de fichiers. Par


exemple :
phys-schost# clzonecluster configure zoneclustername

Supprimez le systme de fichiers de la configuration du cluster de zones.


phys-schost# clzonecluster configure zoneclustername
clzc:zoneclustername> remove fs dir=filesystemdirectory
clzc:zoneclustername> commit

L'option dir= spcifie le point de montage du systme de fichiers.


5

Vrifiez la suppression du systme de fichiers.


phys-schost# clzonecluster show -v zoneclustername

Exemple 912

Suppression d'un systme de fichiers hautement disponible d'un cluster de zones


L'exemple suivant montre comment supprimer un systme de fichiers avec un rpertoire de
point de montage (/local/ufs-1) configur dans un cluster de zones se nommant sczone.
Cette ressource se nomme hasp-rs et elle est de type HAStoragePlus.
phys-schost# clzonecluster show -v sczone
...
Resource Name:
fs

284

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Tches d'administration d'un cluster de zones

dir:
special:
raw:
type:
options:
...
phys-schost#
phys-schost#
clzc:sczone>
clzc:sczone>
phys-schost#

Exemple 913

/local/ufs-1
/dev/md/ds1/dsk/d0
/dev/md/ds1/rdsk/d0
ufs
[logging]
clresource delete -F -Z sczone hasp-rs
clzonecluster configure sczone
remove fs dir=/local/ufs-1
commit
clzonecluster show -v sczone

Suppression d'un systme de fichiers ZFS hautement disponible dans un cluster de


zones
L'exemple suivant montre comment supprimer d'un pool ZFS appel HAzpool, un systme de
fichiers ZFS configur dans la ressource hasp-rs de type SUNW.HAStoragePlus du cluster de
zones sczone.
phys-schost# clzonecluster show -v sczone
...
Resource Name:
dataset
name:
HAzpool
...
phys-schost# clresource delete -F -Z sczone hasp-rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove dataset name=HAzpool
clzc:sczone> commit
phys-schost# clzonecluster show -v sczone

Suppression d'un priphrique de stockage d'un


cluster de zones
Vous pouvez supprimer les priphriques de stockage, tels que les ensembles de disques SVM et
les priphriques DID, d'un cluster de zones. Suivez cette procdure pour supprimer un
priphrique de stockage d'un cluster de zones.

Connectez-vous en tant que superutilisateur sur un nud du cluster global hbergeant le


cluster de zones. Certaines tapes de cette procdure doivent tre effectues depuis un nud
du cluster global. Vous pouvez effectuer les autres tches depuis un nud du cluster de zones.

Supprimez les ressources associes au priphrique supprimer. Identifiez et supprimez les


types de ressources Oracle Solaris Cluster, tels que SUNW.HAStoragePlus et
SUNW.ScalDeviceGroup, configurs sur les priphriques du cluster de zones supprimer.
phys-schost# clresource delete -F -Z zoneclustername dev_zone_resources
Chapitre 9 Administration du cluster

285

Tches d'administration d'un cluster de zones

Dterminez l'entre correspondant aux priphriques supprimer.


phys-schost# clzonecluster show -v zoneclustername
...
Resource Name:
device
match:
<device_match>
...

Supprimez les priphriques de la configuration du cluster de zones.


phys-schost# clzonecluster configure zoneclustername
clzc:zoneclustername> remove device match=<devices_match>
clzc:zoneclustername> commit
clzc:zoneclustername> end

Rinitialisez le cluster de zones.


phys-schost# clzonecluster reboot zoneclustername

Vrifiez la suppression des priphriques.


phys-schost# clzonecluster show -v zoneclustername

Exemple 914

Suppression d'un ensemble de disques SVM d'un cluster de zones


L'exemple suivant montre comment supprimer un ensemble de disques SVM apachedg
configur dans un cluster de zones se nommant sczone. Le nombre de l'ensemble de disques
apachedg est gal 3. Les priphriques sont utiliss par la ressource zc_rs configure dans le
cluster.
phys-schost# clzonecluster show -v sczone
...
Resource Name:
device
match:
/dev/md/apachedg/*dsk/*
Resource Name:
device
match:
/dev/md/shared/3/*dsk/*
...
phys-schost# clresource delete -F -Z sczone zc_rs
phys-schost#
lrwxrwxrwx 1
phys-schost#
clzc:sczone>
clzc:sczone>
clzc:sczone>
clzc:sczone>
phys-schost#
phys-schost#

Exemple 915

ls -l /dev/md/apachedg
root root 8 Jul 22 23:11 /dev/md/apachedg -> shared/3
clzonecluster configure sczone
remove device match=/dev/md/apachedg/*dsk/*
remove device match=/dev/md/shared/3/*dsk/*
commit
end
clzonecluster reboot sczone
clzonecluster show -v sczone

Suppression d'un priphrique DID d'un cluster de zones


L'exemple suivant montre comment supprimer des priphriques DID d10 et d11, qui sont
configurs dans un cluster de zones se nommant sczone. Les priphriques sont utiliss par la
ressource zc_rs configure dans le cluster.

286

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Tches d'administration d'un cluster de zones

phys-schost# clzonecluster show -v sczone


...
Resource Name:
device
match:
/dev/did/*dsk/d10*
Resource Name:
device
match:
/dev/did/*dsk/d11*
...
phys-schost# clresource delete -F -Z sczone zc_rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove device match=/dev/did/*dsk/d10*
clzc:sczone> remove device match=/dev/did/*dsk/d11*
clzc:sczone> commit
clzc:sczone> end
phys-schost# clzonecluster reboot sczone
phys-schost# clzonecluster show -v sczone

Dsinstallation de Oracle Solaris Cluster d'un nud du


cluster
Suivez cette procdure pour dsinstaller Oracle Solaris Cluster d'un nud du cluster global,
avant de le dconnecter d'une configuration en cluster entirement dploye. Vous pouvez
suivre cette procdure pour dsinstaller le logiciel des derniers nuds du cluster.
Remarque Pour dsinstaller Oracle Solaris Cluster d'un nud n'ayant pas encore rejoint le
cluster ou se trouvant encore en mode installation, vous ne devez pas suivre cette procdure.
Reportez-vous plutt la procdure de dsinstallation d'Oracle Solaris Cluster pour corriger les
problmes d'installation dans le Guide dinstallation du logiciel Oracle Solaris Cluster.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Assurez-vous d'avoir termin correctement toutes les tches prrequises de la liste pour
pouvoir supprimer un nud du cluster.
Reportez-vous au Tableau 82.
Remarque Assurez-vous d'avoir supprim le nud de la configuration du cluster l'aide de la
commande clnode remove, avant de continuer cette procdure.

Connectez-vous en tant que superutilisateur sur un membre actif du cluster global autre que le
nud du cluster global dsinstaller. Suivez cette procdure depuis un nud du cluster global.
Chapitre 9 Administration du cluster

287

Tches d'administration d'un cluster de zones

Ajoutez le nud dsinstaller, depuis le membre actif du cluster, la liste d'authentification des
nuds du cluster.
phys-schost# claccess allow -h hostname

Spcifie le nom du nud ajouter la liste d'authentification du nud.

-h

Vous pouvez galement utiliser l'utilitaire clsetup(1CL). Pour plus d'informations concernant
les procdures, reportez-vous la section Ajout d'un nud la liste des nuds autoriss
la page 244
4

Connectez-vous en tant que superutilisateur sur le nud dsinstaller.

Si vous disposez d'un cluster de zones, dsinstallez-le.


phys-schost# clzonecluster uninstall -F zoneclustername

Pour savoir comment dsinstaller un cluster de zones, reportez-vous la section Suppression


d'un cluster de zones la page 282.
6

Si votre nud contient une partition ddie l'espace de noms des priphriques globaux,
rinitialisez le nud du cluster global en mode non cluster.

Sur les systmes SPARC, excutez la commande suivante :

Sur les systmes x86, excutez les commandes suivantes :

# shutdown -g0 -y -i0ok boot -x

# shutdown -g0 -y -i0


...
<<< Current Boot Parameters >>>
Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
sd@0,0:a
Boot args:
Type
or
or

b [file-name] [boot-flags] <ENTER> to boot with options


i <ENTER>
to enter boot interpreter
<ENTER>
to boot with defaults

<<< timeout in 5 seconds >>>


Select (b)oot or (i)nterpreter: b -x
7

288

Dans le fichier /etc/vfstab, supprimez toutes les entres du systme de fichiers mont,
l'exception des montages globaux /global/.devices.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Tches d'administration d'un cluster de zones

Si vous voulez rinstaller Oracle Solaris Cluster sur ce nud, supprimez l'entre Oracle Solaris
Cluster du registre du produit Sun Java Enterprise System (Java ES).
Si le registre du produit Java ES contient un enregistrement mentionnant l'installation de
Oracle Solaris Cluster, le programme d'installation de Java ES affiche en gris le composant
Oracle Solaris Cluster et ne vous permet pas de le rinstaller.
a. Dmarrez le programme de dsinstallation de Java ES.
Excutez la commande suivante, o l'option ver reprsente la version de la distribution Java
ES depuis laquelle vous avez install Oracle Solaris Cluster.
# /var/sadm/prod/SUNWentsysver/uninstall

b. Suivez les invites pour dsinstaller Oracle Solaris Cluster.


Pour plus d'informations concernant l'utilisation de la commande uninstall,
reportez-vous au Chapitre 8, Uninstalling du Sun Java Enterprise System 5 Update 1
Installation Guide for UNIX.
9

Si vous ne voulez pas rinstaller Oracle Solaris Cluster sur ce cluster, dconnectez les cbles et le
commutateur de transport des autres priphriques du cluster, si ces derniers sont connects.
a. Si le nud dsinstall est connect un priphrique de stockage utilisant une interface
SCSI parallle, installez une terminaison SCSI pour ouvrir un connecteur SCSI du
priphrique de stockage, aprs avoir dconnect les cbles de transport.
Si le nud dsinstall est connect un priphrique de stockage utilisant des interfaces
Fibre Channel, vous ne devez installer aucune terminaison.
b. Suivez la documentation fournie avec votre adaptateur d'hte et votre serveur pour
connatre les procdures de dconnexion.
Astuce Si vous utilisez un priphrique d'interface de fichier de boucle de rappel (LOFI,
Loopback File Interface), le programme de dsinstallation de Java ES supprime
automatiquement le fichier LOFI se nommant /.globaldevices. Pour plus d'informations
concernant la migration des espaces de noms des priphriques globaux vers un fichier LOFI,
reportez-vous la section Migration de l'espace de noms des priphriques globaux
la page 128.

Dpannage de la dsinstallation d'un nud


Cette section dcrit les messages d'erreur pouvant tre reus, lorsque vous excutez la
commande clnode remove ainsi que les actions correctives mettre en uvre.

Chapitre 9 Administration du cluster

289

Tches d'administration d'un cluster de zones

Entres du systme de fichiers du cluster non supprimes


Les messages d'erreur suivants indiquent que le nud du cluster qui a t supprim contient
encore des systmes de fichiers de cluster rfrencs dans le fichier vfstab :
Verifying that no unexpected global mounts remain in /etc/vfstab ... failed
clnode: global-mount1 is still configured as a global mount.
clnode: global-mount1 is still configured as a global mount.
clnode: /global/dg1 is still configured as a global mount.
clnode: It is not safe to uninstall with these outstanding errors.
clnode: Refer to the documentation for complete uninstall instructions.
clnode: Uninstall failed.

Pour corriger cette erreur, retournez la section Dsinstallation de Oracle Solaris Cluster d'un
nud du cluster la page 287 et rptez la procdure. Assurez-vous d'avoir termin l'tape 7
de cette procdure avant d'excuter nouveau la commande clnode remove.

Liste des groupes de priphriques non supprime


Les messages d'erreur suivants indiquent que le nud supprim est encore list dans un groupe
de priphriques.
Verifying that no device services still reference this node ... failed
clnode: This node is still configured to host device service "
service".
clnode: This node is still configured to host device service "
service2".
clnode: This node is still configured to host device service "
service3".
clnode: This node is still configured to host device service "
dg1".
clnode: It is not safe to uninstall with these outstanding errors.
clnode: Refer to the documentation for complete uninstall instructions.
clnode: Uninstall failed.

Script de dsinstallation manquant


Si vous n'avez pas utilis le programme dinstallation pour installer ou mettre jour Sun
Cluster 3.1 ou 3.2 que vous souhaitez prsent supprimer, il n'existe aucun script de
dsinstallation utilisable pour cette version du logiciel. Suivez plutt la procdure ci-dessous
pour dsinstaller le logiciel.
Remarque Le logiciel Oracle Solaris Cluster 3.3 tant install avec le programme d'installation,
ces tapes ne s'appliquent pas cette version du logiciel.

290

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Tches d'administration d'un cluster de zones

Dsinstallation de Sun Cluster 3.1 et 3.2 sans script de dsinstallation


1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify.

Passez un rpertoire qui n'est associ aucun package Sun Cluster.


# cd /directory

Dsinstallez le logiciel Sun Cluster du nud.


# scinstall -r

Renommez le fichier productregistry pour rendre possible la rinstallation ultrieure du


logiciel.
# mv /var/sadm/install/productregistry /var/sadm/install/productregistry.sav

Cration, paramtrage et gestion de la base MIB


d'vnements SNMP de Oracle Solaris Cluster
Cette section explique comment crer, paramtrer et grer une base d'informations de gestion
(MIB, Management Information Base) d'vnements de protocole de gestion de rseau simple
(SNMP, Simple Network Management Protocol). Cette section explique galement comment
activer, dsactiver ou modifier la base MIB d'vnements SNMP de Oracle Solaris Cluster.
Oracle Solaris Cluster prend actuellement en charge une base MIB, savoir la base MIB
d'vnements SNMP. Le gestionnaire SNMP droute les vnements du cluster en temps rel.
Lorsque le gestionnaire SNMP est activ, ce dernier envoie des notifications de droutement
vers tous les htes dfinis par la commande clsnmphost. La base MIB met jour une table en
lecture seule contenant les 50 vnements les plus rcurrents. tant donn que les clusters
gnrent de nombreuses notifications, seuls les vnements renvoyant la gravit
Avertissement ou une gravit suprieure sont envoys en tant que notifications de
droutement. Ces informations ne seront pas prises en compte, lors des prochaines
rinitialisations.
La base MIB d'vnements SNMP est dfinie dans le fichier sun-cluster-event-mib.mib et se
trouve dans le rpertoire /usr/cluster/lib/mib. Vous pouvez utiliser cette dfinition pour
interprter les informations des droutements SNMP.
Le numro de port par dfaut du module des vnements SNMP est gal 11161 et le numro
de port par dfaut des droutements SNMP est gal 11162. Vous pouvez modifier ces numros
de port dans le fichier du conteneur d'agent commun, savoir :
/etc/cacao/instances/default/private/cacao.properties.

Chapitre 9 Administration du cluster

291

Tches d'administration d'un cluster de zones

La cration, le paramtrage et la gestion d'une base MIB d'vnements SNMP d'Oracle Solaris
Cluster peut inclure les tches suivantes :
TABLEAU 93 Liste des tches : cration, paramtrage et gestion de la base MIB d'vnements SNMP de
Oracle Solaris Cluster
Tche

Instructions

Activez une base MIB d'vnements SNMP. Activation d'une base MIB d'vnements SNMP la page 292
Dsactivez une base MIB d'vnements
SNMP.

Dsactivation d'une base MIB d'vnements SNMP


la page 293

Modifiez une base MIB d'vnements


SNMP.

Modification d'une base MIB d'vnements SNMP


la page 293

Ajoutez un hte SNMP la liste des htes


devant recevoir les notifications de
droutement des bases MIB..

Activation des notifications de droutement d'un hte SNMP


sur un nud la page 294

Supprimez un hte SNMP.

Dsactivation des notifications de droutement d'un hte


SNMP sur un nud la page 295

Ajoutez un utilisateur SNMP.

Ajout d'un utilisateur SNMP un nud la page 296

Supprimez un utilisateur SNMP.

Suppression d'un utilisateur SNMP un nud la page 297

Activation d'une base MIB d'vnements SNMP


Cette procdure explique comment activer une base MIB d'vnements SNMP.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify.
Activer la base MIB d'vnements SNMP
phys-schost-1# clsnmpmib enable [-n node] MIB

292

[-n node]

Spcifie l'emplacement du nud sur lequel se trouve la base MIB


d'vnements activer. Vous pouvez spcifier l'ID ou le nom d'un nud.
Si vous ne spcifiez pas cette option, le nud actif sera utilis par dfaut.

MIB

Spcifie le nom de la base MIB activer. Dans ce cas, le nom de la base MIB
doit tre event.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Tches d'administration d'un cluster de zones

Dsactivation d'une base MIB d'vnements SNMP


Cette procdure explique comment dsactiver une base MIB d'vnements SNMP.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify.

Dsactivez la base MIB d'vnements SNMP.


phys-schost-1# clsnmpmib disable -n node MIB

-n node

Spcifie l'emplacement du nud sur lequel se trouve la base MIB


d'vnements dsactiver. Vous pouvez spcifier l'ID ou le nom d'un
nud. Si vous ne spcifiez pas cette option, le nud actif sera utilis par
dfaut.

MIB

Spcifie le type de la base MIB dsactiver. Dans ce cas, vous devez


spcifier event.

Modification d'une base MIB d'vnements SNMP


Cette procdure explique comment modifier le protocole d'une base MIB d'vnements SNMP.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify.
Modifiez le protocole de la base MIB d'vnements SNMP.
phys-schost-1# clsnmpmib set -n node -p version=value MIB

-n node
Spcifie l'emplacement du nud sur lequel se trouve la base MIB d'vnements modifier.
Vous pouvez spcifier l'ID ou le nom d'un nud. Si vous ne spcifiez pas cette option, le
nud actif sera utilis par dfaut.

Chapitre 9 Administration du cluster

293

Tches d'administration d'un cluster de zones

-p version=value
Spcifie la version du protocole SNMP utiliser avec les bases MIB. Vous devez spcifier la
valeur comme suit :

version=SNMPv2
version=snmpv2
version=2
version=SNMPv3
version=snmpv3
version=3

MIB
Spcifie le nom de la ou des bases MIB sur lesquelles la sous-commande doit tre excute.
Dans ce cas, vous devez spcifier event. Si vous ne spcifiez pas cet oprande, la
sous-commande utilise par dfaut le signe Plus (+), ce qui signifie toutes les bases MIB. Si
vous utilisez l'oprande MIB, spcifiez la base MIB, dans une liste spare par des espaces,
aprs toutes les options de la ligne de commande.

Activation des notifications de droutement d'un hte SNMP sur un

nud
Cette procdure explique comment ajouter un hte SNMP sur un nud faisant partie de la liste
des htes recevant des notifications de droutement de la base MIB.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify.
Ajoutez l'hte la liste des htes SNMP d'une communaut d'un autre nud.
phys-schost-1# clsnmphost add -c SNMPcommunity [-n node] host

-c SNMPcommunity
Spcifie le nom de la communaut SNMP utilis avec le nom d'hte.
Vous devez spcifier le nom de la communaut SNMP SNMPcommunity, lorsque vous
ajoutez un hte une autre communaut que la communaut public. Si vous utilisez la
commande add sans l'option -e, la sous-commande utilise l'option public comme nom de
communaut par dfaut.
Si le nom de communaut spcifi n'existe pas, cette commande le cre.
294

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Tches d'administration d'un cluster de zones

-n node
Spcifie le nom du nud de l'hte SNMP donnant accs aux bases MIB d'vnements SNMP
dans le cluster. Vous pouvez spcifier l'ID ou le nom d'un nud. Si vous ne spcifiez pas cette
option, le nud actif sera utilis par dfaut.
host
Spcifie le nom, l'adresse IP ou l'adresse IPv6 de l'hte ayant accs aux bases MIB
d'vnements SNMP dans le cluster.

Dsactivation des notifications de droutement d'un hte SNMP sur un

nud
Cette procdure explique comment supprimer un hte SNMP sur un nud faisant partie de la
liste des htes recevant des notifications de droutement de la base MIB.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify.

Supprimez l'hte de la liste des htes SNMP d'une communaut se trouvant sur le nud
spcifi.
phys-schost-1# clsnmphost remove -c SNMPcommunity -n node host

remove
Supprime l'hte SNMP du nud spcifi.
-c SNMPcommunity
Spcifie le nom de la communaut SNMP dont l'hte SNMP a t supprim.
-n node
Spcifie le nom du nud dont l'hte SNMP a t supprim de la configuration. Vous pouvez
spcifier l'ID ou le nom d'un nud. Si vous ne spcifiez pas cette option, le nud actif sera
utilis par dfaut.
host
Spcifie le nom, l'adresse IP ou l'adresse IPv6 de l'hte ayant t supprim de la
configuration.
Pour supprimer tous les htes de la communaut SNMP spcifie, utilisez le signe Plus (+)
sur l'option host, en y ajoutant l'option -c. Pour supprimer tous les htes, utilisez le signe
Plus (+) sur l'option host.
Chapitre 9 Administration du cluster

295

Tches d'administration d'un cluster de zones

Ajout d'un utilisateur SNMP un nud


Cette procdure explique comment ajouter un utilisateur SNMP la configuration des
utilisateurs SNMP d'un nud.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify.

Ajoutez l'utilisateur SNMP.


phys-schost-1# clsnmpuser create -n node -a authentication \
-f password user

-n node

Spcifie le nud sur lequel l'utilisateur SNMP a t ajout. Vous pouvez


spcifier l'ID ou le nom d'un nud. Si vous ne spcifiez pas cette option, le
nud actif sera utilis par dfaut.

-a authentication

Spcifie le protocole d'authentification utilis pour autoriser l'utilisateur.


La valeur du protocole d'authentification est gale SHA ou MD5.

-f password

Spcifie un fichier contenant les mots de passe des utilisateurs SNMP. Si


vous ne spcifiez pas cette option lorsque vous crer un nouvel utilisateur,
la commande vous invite saisir un mot de passe. Cette option peut
uniquement tre utilise avec la sous-commande add.
Vous devez spcifier les mots de passe des utilisateurs sur plusieurs lignes
au format suivant :
user:password

Les mots de passe ne peuvent pas contenir d'espaces ou les caractres


suivants :

user

296

; (point-virgule)
: (deux points)
\ (barre oblique inverse)
\n (nouvelle ligne)

Spcifie le nom de l'utilisateur SNMP ajouter.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dpannage

Suppression d'un utilisateur SNMP un nud


Cette procdure explique comment supprimer un utilisateur de la configuration d'utilisateurs
SNMP d'un nud.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.modify.

Supprimez l'utilisateur SNMP.


phys-schost-1# clsnmpuser delete -n node user

-n node

Spcifie le nud sur lequel l'utilisateur SNMP a t supprim. Vous


pouvez spcifier l'ID ou le nom d'un nud. Si vous ne spcifiez pas cette
option, le nud actif sera utilis par dfaut.

user

Spcifie le nom de l'utilisateur SNMP supprimer.

Dpannage
Cette section contient une procdure de dpannage pouvant tre utilise pour effectuer des
tests.

Excution d'une application l'extrieur du cluster


global
Mise en mode non cluster d'un ensemble de mtadonnes

Solaris Volume Manager depuis les nuds initialiss


Suivez cette procdure pour excuter une application en dehors du cluster global, afin
d'effectuer des tests.

Chapitre 9 Administration du cluster

297

Dpannage

Dterminez si le priphrique de quorum est utilis dans l'ensemble de mtadonnes


Solaris Volume Manager et si ce dernier utilise des rservations SCSI2 ou SCSI3.
phys-schost# clquorum show

a. Si le priphrique de quorum se trouve dans l'ensemble de mtadonnes


Solaris Volume Manager, ajoutez le nouveau priphrique de quorum qui ne fait pas partie
de l'ensemble de mtadonnes mettre ensuite en mode non cluster.
phys-schost# clquorum add did

b. Supprimez l'ancien priphrique de quorum.


phys-schost# clqorum remove did

c. Si le priphrique de quorum utilise une rservation SCSI2, purgez la rservation SCSI2 de


l'ancien quorum et assurez-vous qu'il ne reste aucune rservation SCSI2.
Pour savoir comment excuter les commandes pgre, dont vous avez besoin pour installer et
utiliser l'outil de diagnostic (SUNWscdtk) fourni par le support d'Oracle.
2

vacuez le nud du cluster global initialiser en mode non cluster.


phys-schost# clresourcegroup evacuate -n targetnode

Mettez hors ligne toute ressource ou tout groupe de ressources contenant des ressources
HAStorage ou HAStoragePlus et des priphriques ou systmes de fichiers affects par
l'ensemble de mtadonnes mettre en suite en mode non cluster.
phys-schost# clresourcegroup offline resourcegroupname

Dsactivez tous les ressources du groupe mis hors ligne.


phys-schost# clresource disable resourcename

Annulez la gestion des groupes de ressources.


phys-schost# clresourcegroup unmanage resourcegroupname

Mettez hors ligne le ou les groupes de priphriques correspondants.


phys-schost# cldevicegroup offline devicegroupname

Dsactivez le ou les groupes de priphriques.


phys-schost# cldevicegroup disable devicegroupname

Initialisez le nud passif en mode non cluster.


phys-schost# reboot -x

Assurez-vous que le processus d'initialisation du nud passif est termin avant de continuer.
phys-schost# svcs -x

298

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dpannage

10

Vrifiez l'existence de rservations SCSI3 sur les disques des ensembles de mtadonnes.
Excutez la commande suivante sur tous les disques des ensembles de mtadonnes :
phys-schost# /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2

11

Si les disques contiennent des rservations SCSI3, purgez-les.


phys-schost# /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2

12

Placez l'ensemble de mtadonnes sur le nud vacu.


phys-schost# metaset -s name -C take -f

13

Montez le ou les systmes de fichiers contenant le priphrique dfini sur l'ensemble de


mtadonnes.
phys-schost# mount device mountpoint

14

Dmarrez l'application et effectuez le test. Une fois que le test est termin, arrtez l'application.

15

Rinitialisez le nud et attendez que ce processus se termine.


phys-schost# reboot

16

Mettez le ou les groupes de priphriques en ligne.


phys-schost# cldevicegroup online -e devicegroupname

17

Dmarrez le ou les groupes de ressources.


phys-schost# clresourcegroup online -eM resourcegroupname

Restauration d'un ensemble de disques altr


Utilisez cette procdure si un ensemble de disques est corrompu ou dans un tat tel que les
nuds du cluster ne peuvent pas en devenir les propritaires. Si vous tentez de rtablir son tat
sans succs, cette procdure vous permettra, en dernier recours, de rparer l'ensemble de
disques.
Ces procdures s'appliquent aux ensembles de mtadonnes Solaris Volume Manager et aux
ensembles de mtadonnes multipropritaires Solaris Volume Manager.

Enregistrement de la configuration du logiciel Solaris Volume Manager


La restauration d'un ensemble de disques son tat d'origine peut prendre un certain temps et
engendrer des erreurs. Une meilleure solution consiste utiliser la commande metastat pour
sauvegarder rgulirement les rpliques ou utiliser l'Explorateur (SUNWexplo) pour crer
une sauvegarde. Vous pouvez ensuite utiliser la configuration enregistre pour recrer
l'ensemble de disques. Vous devez enregistrer la configuration actuelle dans des fichiers ( l'aide

Chapitre 9 Administration du cluster

299

Dpannage

des commandes prtvtoc et metastat), puis recrer l'ensemble de disques et ses composants.
Reportez-vous la section Recration de la configuration du logiciel Solaris Volume Manager
la page 301.
1

Enregistrez la table de partition pour chaque disque de l'ensemble de disques.


# /usr/sbin/prtvtoc /dev/global/rdsk/diskname > /etc/lvm/diskname.vtoc

Enregistrez la configuration du logiciel Solaris Volume Manager.


# /bin/cp /etc/lvm/md.tab /etc/lvm/md.tab_ORIGINAL
# /usr/sbin/metastat -p -s setname >> /etc/lvm/md.tab
Remarque Les autres fichiers de configuration, tels que le fichier /etc/vfstab, peuvent faire
rfrence au logiciel Solaris Volume Manager. Cette procdure suppose que vous avez recr
une configuration du logiciel Solaris Volume Manager identique et ainsi gnr les mmes
informations de montage. Si l'Explorateur (SUNWexplo) est excut sur un nud propritaire
de l'ensemble, il rcupre les informations des commandes prtvtoc et metaset p.

Purge de l'ensemble de disques corrompus


L'opration de purge d'un ensemble partir d'un nud ou de tous les nuds supprime la
configuration. Pour purger un ensemble de disques partir d'un nud, ce nud ne doit pas tre
propritaire de l'ensemble de disques.
1

Excutez la commande de purge sur tous les nuds.


# /usr/sbin/metaset -s setname -P

L'excution de cette commande supprime les informations de l'ensemble de disques des


rpliques de la base de donnes et du rfrentiel Oracle Solaris Cluster. Les options -P et -C
permettent de purger un ensemble de disques sans qu'il soit ncessaire de reconstruire
compltement l'environnement Solaris Volume Manager.
Remarque Si un ensemble de disques multipropritaire est purg pendant la rinitialisation de
nuds dans un autre mode que le mode cluster, vous aurez probablement besoin d'installer et
d'utiliser l'outil de diagnostic (SUNWscdtk) fourni par le support d'Oracle. Cet outil supprime
les informations issues des fichiers de configuration dcs. Reportez-vous l'tape 2.
2

Si vous voulez uniquement supprimer les informations de l'ensemble de disques contenues


dans les rpliques de la base de donnes, excutez la commande suivante.
# /usr/sbin/metaset -s setname -C purge

300

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dpannage

L'option -P est gnralement plus utile que l'option -C. L'option -C peut gnrer des erreurs lors
de la recration de l'ensemble de disques, car le logiciel Oracle Solaris Cluster continue de
reconnatre l'ensemble.
a. Si vous avez utilis l'option -C avec la commande metaset, commencez par crer l'ensemble
de disques pour vrifier qu'aucun problme ne se produit.
b. Si vous dtectez un problme, supprimez les informations des fichiers de configuration dcs
l'aide de l'outil de diagnostic (SUNWscdtk).
Si les options de purge chouent, vrifiez que vous avez install les derniers patchs de noyau et
mtapriphriques, et contactez l'assistance d'Oracle Solaris Cluster.

Recration de la configuration du logiciel Solaris Volume Manager


N'utilisez cette procdure que si vous perdez compltement votre configuration du logiciel
Solaris Volume Manager. Cette procdure suppose que vous avez enregistr votre configuration
Solaris Volume Manager actuelle et ses composants et que vous avez purg l'ensemble de
disques corrompu.
Remarque Les mdiateurs doivent tre utiliss uniquement sur les clusters deux nuds.
1

Crez un ensemble de disques.


# /usr/sbin/metaset -s setname -a -h nodename1 nodename2

S'il s'agit d'un ensemble de disques multipropritaire, excutez la commande suivante pour
crer l'ensemble de disques.
/usr/sbin/metaset -s setname -aM -h nodename1 nodename2
2

Sur le mme hte que celui o l'ensemble a t cr, ajoutez des htes mdiateurs si ncessaire
(deux nuds uniquement).
/usr/sbin/metaset -s setname -a -m nodename1 nodename2

Rinsrez ces mmes disques dans l'ensemble de disques de ce mme hte.


/usr/sbin/metaset -s setname -a /dev/did/rdsk/diskname /dev/did/rdsk/diskname

Si vous avez purg l'ensemble de disques et procdez prsent sa recration, veillez


conserver la VTOC (Volume Table of Contents, table des matires virtuelle) sur les disques afin

Chapitre 9 Administration du cluster

301

Dpannage

d'ignorer cette tape. Toutefois, si vous recrez un ensemble pour le rcuprer, vous devez
formater les disques en fonction d'une configuration enregistre dans le fichier
/etc/lvm/diskname.vtoc. Par exemple :
# /usr/sbin/fmthard -s /etc/lvm/d4.vtoc /dev/global/rdsk/d4s2
# /usr/sbin/fmthard -s /etc/lvm/d8.vtoc /dev/global/rdsk/d8s2

Vous pouvez excuter cette commande sur n'importe quel nud.


5

Vrifiez la syntaxe du fichier /etc/lvm/md.tab pour chaque mtapriphrique.


# /usr/sbin/metainit -s setname -n -a metadevice

Crez chaque mtapriphrique partir d'une configuration enregistre.


# /usr/sbin/metainit -s setname -a metadevice

Si un systme de fichiers existe sur le mtapriphrique, excutez la commande fsck.


# /usr/sbin/fsck -n /dev/md/setname/rdsk/metadevice

Si la commande fsck n'affiche que quelques erreurs, lies au superbloc par exemple, le
priphrique a probablement t reconstruit correctement. Vous pouvez ensuite excuter la
commande fsck sans l'option -n. Si plusieurs erreurs se produisent, vrifiez que vous avez
reconstruit le mtapriphrique correctement. Si c'est le cas, vrifiez les erreurs fsck pour
dterminer si le systme de fichiers peut tre rcupr. Si c'est impossible, restaurez les donnes
partir d'une sauvegarde.
8

Concatnez tous les autres ensembles de mtadonnes sur tous les nuds de cluster pour le
fichier /etc/lvm/md.tab, puis concatnez l'ensemble de disques local.
# /usr/sbin/metastat -p >> /etc/lvm/md.tab

302

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

10
C H A P I T R E

1 0

Configuration du contrle de l'utilisation du


CPU

Si vous souhaitez contrler l'utilisation du CPU, configurez l'utilitaire de contrle du CPU. Pour
plus d'informations sur la configuration de l'utilitaire de contrle du CPU, reportez-vous la
page de manuel rg_properties(5). Ce chapitre contient des informations concernant les sujets
suivants :

Introduction au contrle du CPU la page 303


Configuration du contrle du CPU la page 305

Introduction au contrle du CPU


Oracle Solaris Cluster permet de contrler l'utilisation du CPU.
La fonction de contrle du CPU repose sur les fonctionnalits disponibles dans le SE Oracle
Solaris. Pour plus d'informations concernant les zones, les projets, les pools de ressources, les
ensembles de processeurs et les classes de programmation, reportez-vous au Guide
dadministration systme : Gestion des ressources des conteneurs et des zones Oracle Solaris.
Vous pouvez effectuer les actions suivantes sur le SE Oracle Solaris :

Assigner des partages de CPU aux groupes de ressources


Assigner des processeurs aux groupes de ressources

Slection d'un scnario


Selon la configuration et la version du systme d'exploitation que vous avez choisi, il existe
diffrents niveaux de contrle du CPU. Tous les lments concernant le contrle du CPU
abords dans ce chapitre dpendent du paramtre automated de la proprit de groupe de
ressources RG_SLM_TYPE.
Le Tableau 101 passe en revue les diffrents scnarios de configuration disponibles.
303

Introduction au contrle du CPU

TABLEAU 101

Scnarios de contrle du CPU

Description

Instructions

Le groupe de ressources s'excute sur le nud votant


du cluster global.

Contrle de l'utilisation du CPU sur un nud votant


d'un cluster global la page 305

Assignez les partages de CPU aux groupes de


ressources et aux zones, en spcifiant les valeurs des
options project.cpu-shares et zone.cpu-shares.
Vous pouvez suivre cette procdure, peu importe si les
nuds non votants du cluster global sont configurs
ou non.
Le groupe de ressources est excut sur une zone non
votante du cluster global l'aide de l'ensemble de
processeurs par dfaut.

Contrle de l'utilisation du CPU dans un nud non


votant du cluster global l'aide de l'ensemble de
processeurs par dfaut la page 307

Assignez les partages de CPU aux groupes de


ressources et aux zones, en spcifiant les valeurs des
options project.cpu-shares et zone.cpu-shares.
Suivez cette procdure, si vous ne devez pas contrler
la taille de l'ensemble de processeurs.
Le groupe de ressources est excut sur le nud non
votant du cluster global avec un ensemble de
processeurs ddi.

Contrle de l'utilisation du CPU dans un nud non


votant du cluster global l'aide d'un ensemble de
processeurs ddi la page 310

Assignez des partages de CPU aux groupes de


ressources et spcifiez la valeur des proprits
project.cpu-shares , zone.cpu-shares et du
nombre maximal de processeurs d'un ensemble de
processeurs ddis.
Dfinissez le nombre minimal des processeurs d'un
d'ensemble ddi.
Suivez cette procdure si vous voulez contrler les
partages de CPU et la taille d'un ensemble de
processeurs. Vous pouvez exercer ce contrle
uniquement sur un nud non votant du cluster global
l'aide d'un ensemble de processeurs ddi.

Ordonnanceur de partage quitable


La premire tape de la procdure d'assignation de partages de CPU consiste dfinir
l'ordonnanceur du systme en tant qu'ordonnanceur de partage quitable (FSS,
Fair Share Scheduler). Par dfaut, la classe de programmation du SE Oracle Solaris est dfinie

304

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration du contrle du CPU

sur le programme de temps partag (TS, Timesharing Schedule). Dfinissez l'ordonnanceur en


tant qu'ordonnanceur de partage quitable pour que la configuration des partages entre en
vigueur.
Vous pouvez crer un ensemble de processeurs ddi, peu importe la classe de programmation
choisie.

Configuration du contrle du CPU


Cette section contient les procdures suivantes :

Contrle de l'utilisation du CPU sur un nud votant d'un cluster global la page 305
Contrle de l'utilisation du CPU dans un nud non votant du cluster global l'aide de
l'ensemble de processeurs par dfaut la page 307
Contrle de l'utilisation du CPU dans un nud non votant du cluster global l'aide d'un
ensemble de processeurs ddi la page 310

Contrle de l'utilisation du CPU sur un nud votant


d'un cluster global
Suivez cette procdure afin d'assigner des partages de CPU un groupe de ressources qui sera
excut sur un nud votant d'un cluster global.
Si vous avez assign des partages de CPU un groupe de ressources, Oracle Solaris Cluster
effectue les tches suivantes, lors du dmarrage d'une ressource de ce groupe sur un nud
votant du cluster global :

Augmente le nombre de partages de CPU assigns au nud votant zone.cpu-shares) en


ajoutant le nombre de partages de CPU assigns, si cela n'a pas dj t fait.

Cre un projet se nommant SCSLM_resourcegroup_name dans le nud votant, si cela n'a pas
dj t fait. Il s'agit d'un projet spcifique au groupe de ressources auquel le nombre de
partages du CPU spcifi a t assign (project.cpu-shares).

Dmarre la ressource dans le projet SCSLM_resourcegroup_name.

Pour plus d'informations concernant la configuration de l'utilitaire de contrle du CPU,


reportez-vous la page de manuel rg_properties(5).
1

Dfinissez l'ordonnanceur par dfaut du systme en tant qu'ordonnanceur de partage


quitable (FSS, Fair Share Scheduler).
# dispadmin -d FSS
Chapitre 10 Configuration du contrle de l'utilisation du CPU

305

Configuration du contrle du CPU

L'ordonnanceur de partage quitable sera considr comme ordonnanceur par dfaut, lors de la
prochaine initialisation. Pour que cette configuration entre immdiatement en vigueur, utilisez
la commande priocntl.
# priocntl -s -C FSS

La combinaison des commandes priocntl et dispadmin permet de dfinir immdiatement


l'ordonnanceur de partage quitable en tant qu'ordonnanceur par dfaut, et ce, mme aprs une
rinitialisation. Pour plus d'informations concernant le paramtrage des classes de
programmation, reportez-vous aux pages de manuel dispadmin(1M) et priocntl(1).
Remarque Si l'ordonnanceur de partage quitable ne constitue pas l'ordonnanceur par dfaut,
l'assignation des partages de CPU n'entrera pas en vigueur.
2

Pour chaque nud devant utiliser la fonction de contrle du CPU, configurez le nombre de
partages des nuds votants du cluster global et le nombre minimal de CPU disponibles dans
l'ensemble de processeurs par dfaut.
En dfinissant ces paramtres, vous empchez les processus excuts sur les nuds votants
d'entrer en comptition, lors de l'utilisation des ressources du CPU, avec les processus excuts
sur des nuds non votants. Si vous n'assignez aucune valeur aux proprits globalzoneshares
et defaultpsetmin, les valeurs par dfaut seront appliques.
# clnode set [-p globalzoneshares=integer] \
[-p defaultpsetmin=integer] \
node

-p defaultpsetmin= defaultpsetmininteger

Dfinit le nombre minimal de partages de CPU


disponibles dans l'ensemble de processeurs par
dfaut. La valeur par dfaut est gale 1.

-p globalzoneshares= integer

Dfinit le nombre de partages assigns au nud


votant. La valeur par dfaut est gale 1.

node

Spcifie les nuds dont les proprits doivent


tre dfinies.

En dfinissant ces proprits, vous dfinissez les proprits du nud votant. Si vous ne
dfinissez pas ces proprits, vous ne pouvez pas utiliser la proprit RG_SLM_PSET_TYPE dans
des nuds non votants.
3

Assurez-vous d'avoir correctement dfini les proprits suivantes :


# clnode show node

La commande clnode affiche l'ensemble des proprits et des valeurs dfinies pour les
proprits du nud spcifi. Si vous n'avez dfini aucune proprit de contrle du CPU l'aide
de la commande clnode, les valeurs par dfaut seront appliques.

306

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration du contrle du CPU

Configurez l'utilitaire de contrle du CPU.


# clresourcegroup create -p RG_SLM_TYPE=automated \
[-p RG_SLM_CPU_SHARES=value] resource_group_name

-p RG_SLM_TYPE=automated

Permet de contrler l'utilisation du CPU et d'automatiser


certaines tapes de configuration de la gestion des
ressources du SE Oracle Solaris.

-p RG_SLM_CPU_SHARES= value

Spcifie le nombre de partages de CPU assigns au groupe


de ressources spcifique au projet project.cpu-shares et
dtermine le nombre de partages de CPU assigns au nud
votant zone.cpu-shares.

resource_group_name

Spcifie le nom du groupe de ressources.

Dans cette procdure, vous ne devez pas dfinir la proprit RG_SLM_PSET_TYPE. Dans le nud
votant, la valeur de cette proprit est gale default.
Cette tape cre un groupe de ressources. Vous pouvez galement utiliser la commande
clresourcegroup set pour modifier un groupe de ressources existant.
5

Activez la modification de la configuration.


# clresourcegroup online -M resource_group_name

resource_group_name

Spcifie le nom du groupe de ressources.

Remarque Ne supprimez ou ne modifiez pas le projet SCSLM_resource_group_name. Vous


pouvez ajouter manuellement d'autres fonctions de contrle de ressource au projet, en
configurant par exemple la proprit project.max-lwps. Pour plus d'informations,
reportez-vous la page de manuel projmod(1M).

Contrle de l'utilisation du CPU dans un nud non


votant du cluster global l'aide de l'ensemble de
processeurs par dfaut
Suivez cette procdure si vous souhaitez assigner des partages de CPU aux groupes de
ressources se trouvant sur un nud non votant du cluster global. Pour ce faire, il n'est pas
ncessaire de crer un ensemble de processeurs ddi.
Si vous avez assign des partages de CPU un groupe de ressources, Oracle Solaris Cluster
effectue les actions suivantes, lors du dmarrage d'une ressource de ce groupe sur un nud non
votant :

Cre un pool se nommant SCSLM_resource_group_name, si cela n'a pas dj t fait.

Chapitre 10 Configuration du contrle de l'utilisation du CPU

307

Configuration du contrle du CPU

Associe le pool SCSLM_pool_zone_name l'ensemble de processeurs par dfaut.

Lie de manire dynamique le nud non votant au pool SCSLM_poolzone_name.

Augmente le nombre de partages de CPU assigns au nud votant (zone.cpu-shares) en


ajoutant le nombre de partages de CPU assigns, si cela n'a pas dj t fait.

Crez un projet se nommant SCSLM_resourcegroup_name dans le nud non votant, si cela


n'a pas dj t fait. Il s'agit d'un projet spcifique au groupe de ressources auquel le nombre
de partages de CPU spcifi a t assign (project.cpu_shares).

Dmarre la ressource dans le projet SCSLM_resourcegroup_name.

Pour plus d'informations concernant la configuration de l'utilitaire de contrle du CPU,


reportez-vous la page de manuel rg_properties(5).
1

Dfinissez l'ordonnanceur par dfaut du systme en tant qu'ordonnanceur de partage


quitable (FSS, Fair Share Scheduler).
# dispadmin -d FSS

L'ordonnanceur de partage quitable sera considr comme ordonnanceur par dfaut, lors de la
prochaine initialisation. Pour que cette configuration entre immdiatement en vigueur, utilisez
la commande priocntl.
# priocntl -s -C FSS

La combinaison des commandes priocntl et dispadmin permet de dfinir immdiatement


l'ordonnanceur de partage quitable en tant qu'ordonnanceur par dfaut, et ce, mme aprs une
rinitialisation. Pour plus d'informations concernant le paramtrage des classes de
programmation, reportez-vous aux pages de manuel dispadmin(1M) et priocntl(1).
Remarque Si l'ordonnanceur de partage quitable ne constitue pas l'ordonnanceur par dfaut,
l'assignation des partages de CPU n'entrera pas en vigueur.
2

Pour chaque nud devant utiliser la fonction de contrle du CPU, configurez le nombre de
partages des nuds votants du cluster global et le nombre minimal de CPU disponibles dans
l'ensemble de processeurs par dfaut.
En dfinissant ces paramtres, vous empchez les processus excuts sur les nuds votants
d'entrer en comptition, lors de l'utilisation des ressources du CPU, avec les processus excuts
sur des nuds non votants du cluster global. Si vous n'assignez aucune valeur aux proprits
globalzoneshares et defaultpsetmin, les valeurs par dfaut seront appliques.
# clnode set [-p globalzoneshares=integer] \
[-p defaultpsetmin=integer] \
node

-p globalzoneshares= integer

308

Dfinit le nombre de partages assigns au nud


votant. La valeur par dfaut est gale 1.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration du contrle du CPU

-p defaultpsetmin= defaultpsetmininteger

Dfinit le nombre minimal de CPU disponibles


dans l'ensemble de processeurs par dfaut. La
valeur par dfaut est gale 1.

node

Identifie les nuds dont les proprits doivent


tre dfinies.

En dfinissant ces proprits, vous dfinissez les proprits du nud votant.


3

Assurez-vous d'avoir correctement dfini les proprits suivantes :


# clnode show node

La commande clnode affiche l'ensemble des proprits et des valeurs dfinies pour les
proprits du nud spcifi. Si vous n'avez dfini aucune proprit de contrle du CPU l'aide
de la commande clnode, les valeurs par dfaut seront appliques.
4

Configurez l'utilitaire de contrle du CPU.


# clresourcegroup create -p RG_SLM_TYPE=automated \
[-p RG_SLM_CPU_SHARES=value] resource_group_name

-p RG_SLM_TYPE=automated

Permet de contrler l'utilisation du CPU et d'automatiser


certaines tapes de configuration de la gestion des
ressources du SE Oracle Solaris.

-p RG_SLM_CPU_SHARES= value

Spcifie le nombre de partages de CPU assigns au groupe


de ressources spcifique au projet (project.cpu-shares) et
dtermine le nombre de partages de CPU assigns au nud
non votant du cluster global (zone.cpu_shares).

resource_group_name

Spcifie le nom du groupe de ressources.

Cette tape cre un groupe de ressources. Vous pouvez galement utiliser la commande
clresourcegroup set pour modifier un groupe de ressources existant.
Vous ne pouvez pas dfinir la proprit RG_SLM_TYPE sur automated dans un nud non votant,
si un pool autre que le pool par dfaut se trouve dans la configuration de la zone ou si la zone est
lie de manire dynamique un pool autre que le pool par dfaut. Pour plus d'informations
concernant la configuration de zone et la liaison aux pools, reportez-vous respectivement aux
pages de manuel zonecfg(1M) et poolbind(1M). La configuration de la zone doit tre affiche
comme suit :
# zonecfg -z zone_name info pool

Chapitre 10 Configuration du contrle de l'utilisation du CPU

309

Configuration du contrle du CPU

Remarque Les ressources telles que HAStoragePlus ou LogicalHostname ont t configures

pour dmarrer dans un nud non votant, tout en faisant en sorte que la proprit GLOBAL_ZONE
renvoie la valeur TRUE et soit dmarre sur le nud votant. Mme si vous dfinissez la proprit
RG_SLM_TYPE sur automated, cette ressource n'utilisera pas la configuration des partages de
CPU et de l'ensemble de processeurs. La proprit RG_SLM_TYPE sera traite en tant que
manuelle par les groupes de ressources.
Dans cette procdure, vous ne devez pas dfinir la proprit RG_SLM_PSET_TYPE. Oracle Solaris
Cluster utilise l'ensemble de processeurs par dfaut.
5

Activez la modification de la configuration.


# clresourcegroup online -M resource_group_name

resource_group_name

Spcifie le nom du groupe de ressources.

Si vous dfinissez la proprit RG_SLM_PSET_TYPE sur default, Oracle Solaris Cluster cre un
pool SCSLM_pool_zone_name mais ne cre aucun ensemble de processeurs par dfaut. Dans ce
cas, le pool SCSLM_pool_zone_name est associ l'ensemble de processeurs par dfaut.
Si la configuration des groupes de ressources en ligne ne prend plus en charge la fonction de
contrle du CPU dans un nud non votant, la valeur du partage de CPU du nud non votant
prend la valeur de la proprit zone.cpu-shares dans la configuration de la zone. La valeur par
dfaut de ce paramtre est gale 1. Pour plus d'informations concernant la configuration de
zone, reportez-vous la page de manuel zonecfg(1M).
Remarque Ne supprimez ou ne modifiez pas le projet SCSLM_resource_group_name. Vous
pouvez ajouter manuellement d'autres fonctions de contrle de ressource au projet, en
configurant par exemple la proprit project.max-lwps. Pour plus d'informations,
reportez-vous la page de manuel projmod(1M).

Contrle de l'utilisation du CPU dans un nud non


votant du cluster global l'aide d'un ensemble de
processeurs ddi
Suivez cette procdure si vous souhaitez excuter un groupe de ressources dans un ensemble de
processeurs ddi.
Si vous avez configur le groupe de ressources pour qu'il soit excut sur un ensemble de
processeurs ddi, Oracle Solaris Cluster effectue les tches suivantes, lors du dmarrage d'une
ressource du groupe sur un nud non votant du cluster global :

310

Cre un pool se nommant SCSLM_pool_zone_name , si cela n'a pas dj t fait.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration du contrle du CPU

Cre un ensemble de processeurs ddi. La taille de l'ensemble de processeurs est


dtermine l'aide des proprits RG_SLM_CPU_SHARES et RG_SLM_PSET_MIN.

Associe le pool SCSLM_pool_zone_name l'ensemble de processeurs cr.

Lie de manire dynamique le nud non votant au pool SCSLM_pool_ zone_name.

Augmente le nombre de partages de CPU assigns au nud votant en ajoutant le nombre de


partages de CPU assigns, si cela n'a pas dj t fait.

Crez un projet se nommant SCSLM_resourcegroup_name dans le nud non votant, si cela


n'a pas dj t fait. Il s'agit d'un projet spcifique au groupe de ressources auquel le nombre
de partages de CPU spcifi a t assign (project.cpu_shares).

Dmarre la ressource dans le projet SCSLM_resourcegroup_name.

Dfinissez l'ordonnanceur du systme en tant qu'ordonnanceur de partage quitable (FSS,


Fair Share Scheduler).
# dispadmin -d FSS

L'ordonnanceur de partage quitable sera considr comme ordonnanceur par dfaut, lors de la
prochaine initialisation. Pour que cette configuration entre immdiatement en vigueur, utilisez
la commande priocntl.
# priocntl -s -C FSS

La combinaison des commandes priocntl et dispadmin permet de dfinir immdiatement


l'ordonnanceur de partage quitable en tant qu'ordonnanceur par dfaut, et ce, mme aprs une
rinitialisation. Pour plus d'informations concernant le paramtrage des classes de
programmation, reportez-vous aux pages de manuel dispadmin(1M) et priocntl(1).
Remarque Si l'ordonnanceur de partage quitable ne constitue pas l'ordonnanceur par dfaut,
l'assignation des partages de CPU n'entrera pas en vigueur.
2

Pour chaque nud devant utiliser la fonction de contrle du CPU, configurez le nombre de
partages des nuds votants du cluster global et le nombre minimal de CPU disponibles dans
l'ensemble de processeurs par dfaut.
En dfinissant ces paramtres, vous empchez les processus excuts sur les nuds votants
d'entrer en comptition, lors de l'utilisation des ressources du CPU, avec les processus excuts
sur des nuds non votants. Si vous n'assignez aucune valeur aux proprits globalzoneshares
et defaultpsetmin, les valeurs par dfaut seront appliques.
# clnode set [-p globalzoneshares=integer] \
[-p defaultpsetmin=integer] \
node

-p defaultpsetmin= defaultpsetmininteger

Dfinit le nombre minimal de CPU disponibles


dans l'ensemble de processeurs par dfaut. La
valeur par dfaut est gale 1.

Chapitre 10 Configuration du contrle de l'utilisation du CPU

311

Configuration du contrle du CPU

-p globalzoneshares= integer

Dfinit le nombre de partages assigns au nud


votant. La valeur par dfaut est gale 1.

node

Identifie les nuds dont les proprits doivent


tre dfinies.

En dfinissant ces proprits, vous dfinissez les proprits du nud votant.


3

Assurez-vous d'avoir correctement dfini les proprits suivantes :


# clnode show node

La commande clnode affiche l'ensemble des proprits et des valeurs dfinies pour les
proprits du nud spcifi. Si vous n'avez dfini aucune proprit de contrle du CPU l'aide
de la commande clnode, les valeurs par dfaut seront appliques.
4

Configurez l'utilitaire de contrle du CPU.


# clresourcegroup create -p RG_SLM_TYPE=automated \
[-p RG_SLM_CPU_SHARES=value] \
-p -y RG_SLM_PSET_TYPE=value \
[-p RG_SLM_PSET_MIN=value] resource_group_name

-p RG_SLM_TYPE=automated

Permet de contrler l'utilisation du CPU et d'automatiser


certaines tapes de configuration de la gestion des
ressources du SE Oracle Solaris.

-p RG_SLM_CPU_SHARES= value

Spcifie le nombre de partages de CPU assigns au projet


spcifique au groupes de ressources (project.cpu-shares)
et dtermine le nombre de partages de CPU assigns au
nud non votant (zone.cpu-shares) et le nombre maximal
de processeurs d'un ensemble.

-p RG_SLM_PSET_TYPE= value

Permet de crer un ensemble de processeurs ddi. Pour


disposer d'un ensemble de processeurs ddi, vous pouvez
dfinir cette proprit sur strong ou weak. Les valeurs
strong et weak s'excluent mutuellement. En d'autres termes,
vous ne pouvez pas configurer certains groupes de
ressources sur strong et d'autres sur weak dans une mme
zone.

-p RG_SLM_PSET_MIN= value

Dtermine le nombre minimal de processeurs dans un


ensemble.

resource_group_name

Spcifie le nom du groupe de ressources.

Cette tape cre un groupe de ressources. Vous pouvez galement utiliser la commande
clresourcegroup set pour modifier un groupe de ressources existant.
Vous ne pouvez pas dfinir la proprit RG_SLM_TYPE sur automated dans un nud non votant,
si un pool autre que le pool par dfaut se trouve dans la configuration de la zone ou si la zone est

312

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration du contrle du CPU

lie de manire dynamique un pool autre que le pool par dfaut. Pour plus d'informations
concernant la configuration de zone et la liaison aux pools, reportez-vous respectivement aux
pages de manuel zonecfg(1M) et poolbind(1M). La configuration de la zone doit tre affiche
comme suit :
# zonecfg -z zone_name info pool
Remarque Les ressources telles que HAStoragePlus ou LogicalHostname ont t configures
pour dmarrer dans un nud non votant, tout en faisant en sorte que la proprit GLOBAL_ZONE
renvoie la valeur TRUE et soit dmarre sur le nud votant. Mme si vous dfinissez la proprit
RG_SLM_TYPE sur automated, cette ressource n'utilisera pas la configuration des partages de
CPU et de l'ensemble de processeurs. La proprit RG_SLM_TYPE sera traite en tant que
manuelle par les groupes de ressources.
5

Activez la modification de la configuration.


resource_group_name
Spcifie le nom du groupe de ressources.
Remarque Ne supprimez ou ne modifiez pas le projet SCSLM_resource_group_name. Vous
pouvez ajouter manuellement d'autres fonctions de contrle de ressource au projet, en
configurant par exemple la proprit project.max-lwps. Pour plus d'informations,
reportez-vous la page de manuel projmod(1M).

Les modifications apportes aux proprits RG_SLM_CPU_SHARES et RG_SLM_PSET_MIN, lorsque


le groupe de ressources est en ligne, sont prises en compte de manire dynamique. Cependant,
si la proprit RG_SLM_PSET_TYPE est dfinie sur strong et que vous disposez d'un nombre de
CPU insuffisant pour apporter cette modification, cette dernire ne sera pas applique la
proprit RG_SLM_PSET_MIN. Dans ce cas, un message d'avertissement est affich. Des erreurs
dues au nombre de CPU insuffisant peuvent survenir, lors du prochain basculement. Si vous
disposez d'un nombre insuffisant de CPU, la valeur qui a t configure pour la proprit
RG_SLM_PSET_MIN ne sera pas prise en compte.
Si la configuration des groupes de ressources en ligne ne prend plus en charge la fonction de
contrle du CPU dans un nud non votant, la valeur du partage de CPU du nud non votant
prend la valeur de la proprit zone.cpu-shares. La valeur par dfaut de ce paramtre est gale
1.

Chapitre 10 Configuration du contrle de l'utilisation du CPU

313

314

11
C H A P I T R E

1 1

Mise jour du logiciel ou installation d'un


microprogramme Oracle Solaris Cluster

Ce chapitre contient les procdures permettant d'ajouter et de supprimer les patchs suivants
d'une configuration Oracle Solaris Cluster.

Prsentation de la mise jour de Oracle Solaris Cluster la page 315


Mise jour du logiciel Oracle Solaris Cluster la page 317

Prsentation de la mise jour de Oracle Solaris Cluster


tant donn la nature mme d'un cluster, vous devez installer les mmes patchs sur tous les
nuds faisant partie de ce dernier, afin qu'il fonctionne correctement. Lorsque vous appliquez
un patch Oracle Solaris Cluster un nud, vous pouvez tre amen supprimer
temporairement ce nud du cluster ou arrter compltement le cluster avant d'installer le
patch. Cette section passe ces tapes en revue.
Avant d'appliquer un patch Oracle Solaris Cluster, vrifiez le fichier README de ce dernier.
Vrifiez galement les conditions requises par la mise niveau de vos priphriques de
stockage, afin de savoir quels patchs vous devez installer.
Remarque Pour savoir si les procdures concernant les patchs Oracle Solaris Cluster de ce

chapitre sont toujours d'actualit, reportez-vous chaque fois au fichier README et au site Web
SunSolve.
Voici les diffrents scnarios de mise jour de l'installation sur tous les clusters :
Patch avec rinitialisation (nud)

Vous devez initialiser le nud en mode utilisateur


unique l'aide de la commande boot -sx ou shutdown
-g -y -i0, avant d'installer le patch ou le
microprogramme. Vous devez ensuite le rinitialiser
pour rejoindre le cluster. Vous devez en premier lieu
mettre le nud en mode silencieux , en basculant
315

Prsentation de la mise jour de Oracle Solaris Cluster

tous les groupes de ressources ou de priphriques du


nud mettre jour vers un autre membre du cluster.
Vous devez galement installer le patch ou le
microprogramme sur chacun des nuds du cluster, en
les traitant un par un, afin d'viter d'arrter l'intgralit
du cluster.
Le cluster reste ainsi disponible lors de ce type
d'installation de patch, mme si certains nuds sont
momentanment indisponibles. Les nuds mis jour
peuvent rejoindre un cluster en tant que nuds
membres, mme si les autres nuds ne disposent pas du
mme niveau de mise jour.
Patch avec rinitialisation (cluster)

Le cluster doit tre arrt et chaque nud doit tre


initialis en mode utilisateur unique l'aide de la
commande boot -sx ou shutdown -g -y -i0, afin
d'installer le patch logiciel ou le microprogramme.
Rinitialisez ensuite les nuds, afin qu'ils rejoignent le
cluster. Le cluster n'est pas disponible pendant
l'installation de ce type de patch.

Patch sans rinitialisation

Le nud ne doit pas tre mis en mode silencieux (il


peut toujours contrler les groupes de ressources ou de
priphriques). Il ne doit pas non plus se trouver sur le
cluster ou tre rinitialis, lorsque vous installez le
patch. Cependant, vous ne pouvez installer le patch que
sur un nud la fois et vous devez vous assurer que le
patch fonctionne avant de l'installer sur un autre nud.

Remarque Les protocoles de cluster sous-jacents ne sont pas modifis, lorsque vous installez un

patch.
Utilisez la commande patchadd pour installer un patch sur le cluster et patchrm pour le
supprimer, le cas chant.

Conseils pour les patchs Oracle Solaris Cluster


Suivez les conseils suivants, afin d'administrer les patchs Oracle Solaris Cluster de manire plus
efficace.

316

Pour chaque installation de patch, vous devez lire le fichier README.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Mise jour du logiciel Oracle Solaris Cluster

Vrifiez les conditions requises par la mise niveau de vos units de stockage, afin de savoir
quels patchs vous devez installer.

Installez tous les patchs (requis ou recommands) avant d'excuter le cluster dans un
environnement de production.

Vrifiez les niveaux des microprogrammes matriels et installez toutes les mises jour
requises par le microprogramme, le cas chant.

Vous devez installer les mmes patchs sur tous les nuds considrs comme membres du
cluster.

Maintenez les patchs des sous-systmes du cluster jour. Ces patchs peuvent contenir, par
exemple, un microprogramme de priphrique de stockage, une fonction de gestion de
volumes ou de transport de cluster.

Vrifiez rgulirement les rapports des patchs (une fois par trimestre, par exemple) et
utilisez la suite de patchs recommande pour mettre jour une configuration Oracle Solaris
Cluster.

Appliquez la slection de patchs recommande par Enterprise Services.

Testez les basculements, lorsque vous installez des mises jour importantes. Prvoyez
d'annuler l'installation du patch, si le cluster ne fonctionne pas correctement ou est
endommag.

Mise jour du logiciel Oracle Solaris Cluster


TABLEAU 111

Liste des tches : mise jour du cluster

Tche

Instructions

Installez un patch Oracle Solaris Cluster


Installation d'un patch Oracle Solaris Cluster sans
sans rinitialisation sur chacun des nuds, rinitialisation la page 325
en les traitant un par un, afin d'viter de les
arrter.
Installez un patch Oracle Solaris Cluster
sans rinitialisation, aprs avoir mis le
membre du cluster en mode non cluster.

Installez un patch avec rinitialisation (nud). la page 318

Installez un patch en mode utilisateur


unique, lorsque le cluster contient des
nuds de basculement.

Installation des patchs en mode utilisateur unique sur des


nuds de basculement la page 327

Installation d'un patch avec rinitialisation (cluster)


la page 322

Supprimez un patch Oracle Solaris Cluster. Modification d'un patch Oracle Solaris Cluster la page 330

Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

317

Mise jour du logiciel Oracle Solaris Cluster

Installez un patch avec rinitialisation (nud).


Installez le patch sur les nuds du cluster, en les traitant un par un, afin que ce dernier continue
fonctionner lors de l'installation. Dans cette procdure, vous devez en premier lieu arrter le
nud dans le cluster et l'initialiser en mode utilisateur unique l'aide de la commande boot
-sx ou shutdown -g -y -i0, avant d'installer le patch.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Avant d'installer le patch, vrifiez le site Web de Oracle Solaris Cluster afin de savoir s'il existe
des instructions de pr- ou de post-installation spcifiques concernant le logiciel.

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs base de rles de type solaris.cluster.admin sur le nud
mettre jour.

Rpertoriez les groupes de ressources et de priphriques se trouvant sur le nud mettre


jour.
# clresourcegroup status -n node
# cldevicegroup status -n node

Basculez l'ensemble des groupes de ressources, des groupes de priphriques et des ressources
du nud mettre jour vers d'autres membres du cluster.
# clnode evacuate -n node

evacuate

vacue tous les groupes de priphriques et de ressources, y compris tous les


nuds non votants du cluster global.

-n node

Spcifie le nud dont vous basculez les groupes de ressources et de


priphriques.

Arrtez le nud.
# shutdown -g0 [-y]
[-i0]

Initialisez le nud en mode non cluster et utilisateur unique.

Sur les systmes SPARC, excutez la commande suivante :


ok boot -sx

318

Sur les systmes x86, excutez les commandes suivantes :

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Mise jour du logiciel Oracle Solaris Cluster

phys-schost# shutdown -g -y -i0


Press any key to continue

a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.

Pour plus d'informations concernant l'initialisation base sur la ressource GRUB,


reportez-vous la section Booting an x86 Based System by Using GRUB (Task Map) du
System Administration Guide: Basic Administration.
b. Dans l'cran des paramtres d'initialisation, utilisez les touches de direction pour
slectionner l'entre du noyau et saisissez l'option e pour diter cette dernire.
L'cran des paramtres d'initialisation GRUB s'affiche comme suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot
|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.

c. Ajoutez l'option -sx la commande pour spcifier l'initialisation du systme en mode non
cluster.
[ Minimal BASH-like line editing is supported. For the first word, TAB
lists possible command completions. Anywhere else TAB lists the possible
completions of a device/filename. ESC at any time exits. ]
grub edit> kernel /platform/i86pc/multiboot -sx

d. Appuyez sur la touche Entre pour accepter les modifications et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|

Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

319

Mise jour du logiciel Oracle Solaris Cluster

| kernel /platform/i86pc/multiboot -sx


|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.-

e. Saisissez l'option b pour initialiser le nud en mode non cluster.


Remarque Cette modification de la commande des paramtres d'initialisation du noyau ne
sera pas prise en compte, lors de la prochaine initialisation du systme. Lors de la prochaine
initialisation du nud, ce dernier sera initialis en mode cluster. Si vous souhaitez plutt
initialiser le nud en mode non cluster, effectuez de nouveau ces tapes pour ajouter
l'option -sx la commande des paramtres d'initialisation du noyau.
7

Installez le patch logiciel ou le microprogramme.


# patchadd -M patch-dir patch-id

patch-dir

Spcifie l'emplacement du rpertoire du patch.

patch-id

Spcifie le numro d'un patch.

Remarque Vous devez toujours vous rfrer aux instructions contenues dans le rpertoire de
patchs. Ces dernires remplacent les instructions de ce chapitre.
8

Assurez-vous que le patch a t install.


# showrev -p | grep patch-id

Rinitialisez le nud dans le cluster.


# reboot

10

Assurez-vous que le patch fonctionne et que le nud et le cluster se comportent normalement.

11

Rptez les tches de l'tape 2 tape 10 sur tous les autres nuds du cluster.

12

Basculez les groupes de ressources et de priphriques, selon vos besoins.


Aprs avoir rinitialis tous les nuds, les groupes de ressources et les groupes de priphriques
du dernier nud rinitialis ne seront pas en ligne.
# cldevicegroup switch -n node + | devicegroup ...
# clresourcegroup switch -n node[:zone][,...] + | resource-group ...

node

320

Le nom du nud vers lequel vous basculez les groupes de ressources et de


priphriques.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Mise jour du logiciel Oracle Solaris Cluster

zone

13

Le nom du nud non votant du cluster global (node) pouvant contrler le groupe de
ressources. Spcifiez la zone uniquement si vous avez renseign le nud non votant,
lors de la cration du groupe de ressources.

Vrifiez si vous devez valider le patch l'aide de la commande scversions.


# /usr/cluster/bin/scversions

L'cran affichera l'un des rsultats suivants :


Upgrade commit is needed.
Upgrade commit is NOT needed. All versions match.
14

Si vous devez valider le patch, effectuez cette opration.


# scversions -c
Remarque Selon votre configuration, l'excution de la commande scversions entranera une
ou plusieurs reconfigurations CMM (Common Monitoring Model).

Exemple 111

Installation d'un patch avec rinitialisation (nud)


L'exemple suivant met en vidence l'installation d'un patch Oracle Solaris Cluster avec
rinitialisation sur un nud.
# clresourcegroup status -n rg1
...Resource Group
Resource
--------------------rg1
rs-2
rg1
rs-3
...
# cldevicegroup status -n nodedg-schost-1
...
Device Group Name:
...
# clnode evacuate phys-schost-2
# shutdown -g0 -y -i0
...

dg-schost-1

Initialisez le nud en mode non cluster et utilisateur unique.

SPARC : Type :
ok boot -sx

x86 : initialisez le nud en mode non cluster et utilisateur unique. Pour ce faire,
reportez-vous la procdure associe.

# patchadd -M /var/tmp/patches 234567-05


...
# showrev -p | grep 234567-05

Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

321

Mise jour du logiciel Oracle Solaris Cluster

...
# reboot
...
# cldevicegroup switch -n phys-schost-1 dg-schost-1
# clresourcegroup switch -n phys-schost-1 schost-sa-1
# scversions
Upgrade commit is needed.
# scversions -c
Voir aussi

Si vous devez annuler un patch, reportez-vous la section Modification d'un patch Oracle
Solaris Cluster la page 330.

Installation d'un patch avec rinitialisation (cluster)


Dans cette procdure, vous devez en premier lieu arrter le cluster et initialiser chaque nud en
mode utilisateur unique l'aide de la commande boot -sx ou shtudown -g -y -i0, avant
d'installer le patch.

Avant d'installer le patch, vrifiez le site Web de Oracle Solaris Cluster afin de savoir s'il existe
des instructions de pr- ou de post-installation spcifiques concernant le logiciel.

Connectez-vous en tant que superutilisateur sur un nud quelconque du cluster.

Arrtez le cluster.
# cluster shutdown -y -g grace-period message

-y

Demande l'utilisateur de rpondre yes pour confirmer l'invite.

-g grace-period

Spcifie la dure attendre, en secondes, avant l'arrt. La priode de grce


par dfaut est dfinie sur 60 secondes.

message

Spcifie le message d'avertissement diffuser. Utilisez des guillemets si le


message contient plusieurs mots.

Rinitialisez chaque nud en mode non cluster et utilisateur unique.


Excutez les commandes suivantes sur chaque nud de la console :

Sur les systmes SPARC, excutez la commande suivante :

Sur les systmes x86, excutez les commandes suivantes :

ok boot -sx

322

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Mise jour du logiciel Oracle Solaris Cluster

phys-schost# shutdown -g -y -i0


Press any key to continue

a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.

Pour plus d'informations concernant l'initialisation base sur la ressource GRUB,


reportez-vous la section Booting an x86 Based System by Using GRUB (Task Map) du
System Administration Guide: Basic Administration.
b. Dans l'cran des paramtres d'initialisation, utilisez les touches de direction pour
slectionner l'entre du noyau et saisissez l'option e pour diter cette dernire.
L'cran des paramtres d'initialisation GRUB s'affiche comme suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot
|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.

c. Ajoutez l'option -sx la commande pour spcifier l'initialisation du systme en mode non
cluster.
[ Minimal BASH-like line editing is supported. For the first word, TAB
lists possible command completions. Anywhere else TAB lists the possible
completions of a device/filename. ESC at any time exits. ]
grub edit> kernel /platform/i86pc/multiboot -sx

d. Appuyez sur la touche Entre pour accepter les modifications et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|

Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

323

Mise jour du logiciel Oracle Solaris Cluster

| kernel /platform/i86pc/multiboot -sx


|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.-

e. Saisissez l'option b pour initialiser le nud en mode non cluster.


Remarque Cette modification de la commande des paramtres d'initialisation du noyau ne
sera pas prise en compte, lors de la prochaine initialisation du systme. Lors de la prochaine
initialisation du nud, ce dernier sera initialis en mode cluster. Si vous souhaitez plutt
initialiser le nud en mode non cluster, effectuez de nouveau ces tapes pour ajouter
l'option -sx la commande des paramtres d'initialisation du noyau.
5

Installez le patch logiciel ou le microprogramme.


Excutez la commande suivante sur chacun des nuds, en les traitant un par un :
# patchadd -M patch-dir patch-id

patch-dir

Spcifie l'emplacement du rpertoire du patch.

patch-id

Spcifie le numro d'un patch.

Remarque Vous devez toujours vous rfrer aux instructions contenues dans le rpertoire des
patchs. Ces dernires remplacent les instructions de ce chapitre.
6

Assurez-vous que le patch a t install sur chaque nud.


# showrev -p | grep patch-id

Aprs avoir install le patch sur tous les nuds, rinitialisez les nuds dans le cluster.
Excutez la commande suivante sur chaque nud :
# reboot

Vrifiez si vous devez valider le patch l'aide de la commande scversions.


# /usr/cluster/bin/scversions

L'cran affichera l'un des rsultats suivants :


Upgrade commit is needed.
Upgrade commit is NOT needed. All versions match.
9

Si vous devez valider le patch, effectuez cette opration.


# scversions -c

324

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Mise jour du logiciel Oracle Solaris Cluster

Remarque Selon votre configuration, l'excution de la commande scversions entranera une


ou plusieurs reconfigurations CMM (Common Monitoring Model).
10

Exemple 112

Assurez-vous que le patch fonctionne et que les nuds et le cluster se comportent


normalement.

Installation d'un patch avec rinitialisation (cluster)


L'exemple suivant met en vidence l'application d'un patch Oracle Solaris Cluster avec
rinitialisation sur un cluster.
# cluster shutdown -g0 -y
...

Initialisez le cluster en mode non cluster et utilisateur unique.

SPARC : Type :
ok boot -sx

x86 : initialisez chaque nud en mode non cluster et utilisateur unique. Pour ce faire,
reportez-vous aux procdures associes ces tapes.

...
# patchadd -M /var/tmp/patches 234567-05
(Apply patch to other cluster nodes)
...
# showrev -p | grep 234567-05
# reboot
# scversions
Upgrade commit is needed.
# scversions -c
Voir aussi

Si vous devez annuler un patch, reportez-vous la section Modification d'un patch Oracle
Solaris Cluster la page 330.

Installation d'un patch Oracle Solaris Cluster sans


rinitialisation
Installez le patch sur chacun des nuds du cluster. Lorsque vous installez un patch avec
rinitialisation, vous ne devez pas forcment traiter le nud mettre jour en premier.

Avant d'installer le patch, vrifiez le page Web de Oracle Solaris Cluster afin de savoir s'il existe
des instructions de pr- ou de post-installation spcifiques concernant le logiciel.

Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

325

Mise jour du logiciel Oracle Solaris Cluster

Installez le patch sur un nud unique.


# patchadd -M patch-dir patch-id

patch-dir

Spcifie l'emplacement du rpertoire du patch.

patch-id

Spcifie le numro d'un patch.

Assurez-vous que le patch a t install.


# showrev -p | grep patch-id

Assurez-vous que le patch fonctionne et que le nud et le cluster se comportent normalement.

Rptez les tches de l'tape 2 tape 4 sur les autres nuds du cluster.

Vrifiez si vous devez valider le patch l'aide de la commande scversions.


# /usr/cluster/bin/scversions

L'cran affichera l'un des rsultats suivants :


Upgrade commit is needed.
Upgrade commit is NOT needed. All versions match.
7

Si vous devez valider le patch, effectuez cette opration.


# scversions -c
Remarque Selon votre configuration, l'excution de la commande scversions entranera une
ou plusieurs reconfigurations CMM (Common Monitoring Model).

Exemple 113

Installation d'un patch Oracle Solaris Cluster sans rinitialisation


# patchadd -M /tmp/patches 234567-05
...
# showrev -p | grep 234567-05
# scversions
Upgrade commit is needed.
# scversions -c

Voir aussi

326

Si vous devez annuler un patch, reportez-vous la section Modification d'un patch Oracle
Solaris Cluster la page 330.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Mise jour du logiciel Oracle Solaris Cluster

Installation des patchs en mode utilisateur unique sur


des nuds de basculement
Effectuez cette tche pour installer des patchs en mode utilisateur unique sur des nuds de
basculement. Si vous utilisez Oracle Solaris Cluster Data Service pour Solaris Containers dans
une configuration de basculement avec Oracle Solaris Cluster, vous devez appliquer cette
mthode.

Assurez-vous que le priphrique de quorum n'est pas configur sur l'une des units logiques
(LUN) utilises en tant qu'emplacement de stockage partag faisant partie des ensembles de
disques contenant le chemin d'accs mentionn dans cette procdure.
a. Dterminez si le priphrique de quorum est utilis dans les ensembles de disques
contenant les chemins d'accs la zone et dterminez si le priphrique de quorum utilise
des rservations SCSI2 ou SCSI3.
# clquorum show

b. Si le priphrique de quorum fait partie de l'une des units logiques des ensembles de
disques, ajoutez en tant que priphrique de quorum, une nouvelle unit logique ne faisant
pas partie de l'ensemble de disques contenant le chemin d'accs la zone.
# clquorum add new-didname

c. Supprimez l'ancien priphrique de quorum.


# clquorum remove old-didname

d. Si les rservations SCSI2 de l'ancien priphrique de quorum sont utilises, purgez les
rservations SCSI2 de l'ancien quorum et assurez-vous qu'il ne reste aucune rservation de
ce type.
Pour savoir comment excuter les commandes pgre, dont vous avez besoin pour installer et
utiliser l'outil de diagnostic (SUNWscdtk) fourni par le support d'Oracle.
Remarque Si vous purgez par inadvertance les cls de rservation de votre priphrique de

quorum actif, vous devez le supprimer et l'ajouter nouveau, afin d'y placer nouveau les
cls de rservation.
2

vacuez le nud mettre jour.


# clresourcegroup evacuate -n node1

Mettez hors ligne le ou les groupes de ressources contenant les ressources du conteneur Solaris
haute disponibilit.
# clresourcegroup offline resourcegroupname

Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

327

Mise jour du logiciel Oracle Solaris Cluster

Dsactivez tous les ressources du groupe mis hors ligne.


# clresource disable resourcename

Annulez la gestion des groupes de ressources mis hors ligne.


# clresourcegroup unmanage resourcegroupname

Mettez hors ligne le ou les groupes de priphriques correspondants.


# cldevicegroup offline cldevicegroupname

Dsactivez les groupes de ressources mis hors ligne.


# cldevicegroup disable devicegroupname

Initialisez le nud passif en dehors du cluster.


# reboot -- -x

Assurez-vous que l'application des mthodes de dmarrage en mode fibre unique (SMF,
Single Mode Fiber) est termine sur le nud passif avant de continuer.
# svcs -x

10

Assurez-vous d'avoir termin tous les processus de reconfiguration sur le nud actif.
# cluster status

11

Vrifiez la prsence de rservations SCSI-2 sur l'ensemble de disques et librez les cls. Suivez
ces instructions afin de vrifier la prsence de rservations SCSI-2 et librez-les.

Pour tous les disques se trouvant sur l'ensemble de disques, excutez la commande suivante :
/usr/cluster/lib/sc/scsi -c disfailfast -d /dev/did/rdsk/d#s2.

Si les cls sont rpertories, librez-les l'aide de la commande suivante :


/usr/cluster/lib/sc/scsi -c release -d /dev/did/rdsk/d#s2

Lorsque vous terminez de librer les cls de rservation, ignorez l'tape 12 et passez l'tape 13.
12

Vrifiez la prsence de rservations SCSI-3 sur l'ensemble de disques.


a. Excutez la commande suivante sur tous les disques de l'ensemble :
# /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/didnames2

b. Si les cls sont rpertories, purgez-les.


# /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/didnames2
13

Assignez-vous la proprit de l'ensemble des mtadonnes du nud passif.


# metaset -s disksetname -C take -f

328

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Mise jour du logiciel Oracle Solaris Cluster

14

Montez le ou les systmes de fichiers contenant le chemin d'accs la zone se trouvant sur le
nud passif.
# mount device mountpoint

15

Basculez le nud passif en mode utilisateur unique.


# init s

16

Arrtez toutes les zones initialises possibles n'tant pas contrles par le service de donnes
Oracle Solaris Cluster du conteneur Solaris.
# zoneadm -z zonename halt

17

(Facultatif) Si vous installez plusieurs patchs, vous pouvez choisir d'initialiser toutes les zones
configures en mode utilisateur unique, afin d'amliorer les performances.
# zoneadm -z zonename boot -s

18

Installez les patchs.

19

Rinitialisez le nud et attendez que l'application de toutes les mthodes de dmarrage en


mode fibre unique (SMF : Single Mode Fiber) soit termine. Excutez la commande svcs -a
uniquement aprs la rinitialisation du nud.
# reboot
# svcs -a

Le premier nud est maintenant prt.


20

vacuez le second nud mettre jour.


# clresourcegroup evacuate -n node2

21

Rptez les tapes de 8 13 sur le second nud.

22

Sparez les zones mises jour, afin d'acclrer le processus.


# zoneadm -z zonename detach

23

Basculez le nud passif en mode utilisateur unique.


# init s

24

Arrtez toutes les zones initialises possibles n'tant pas contrles par le service de donnes
Oracle Solaris Cluster du conteneur Solaris.
# zoneadm -z zonename halt

25

(Facultatif) Si vous installez plusieurs patchs, vous pouvez choisir d'initialiser toutes les zones
configures en mode utilisateur unique, afin d'amliorer les performances.
# zoneadm -z zonename boot -s

Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

329

Mise jour du logiciel Oracle Solaris Cluster

26

Installez les patchs.

27

Rejoignez les zones spares.


# zoneadm -z zonename attach -F

28

Rinitialisez le nud en mode cluster.


# reboot

29

Mettez en ligne le ou les groupes de priphriques.

30

Dmarrez les groupes de ressources.

31

Vrifiez si vous devez valider le patch l'aide de la commande scversions.


# /usr/cluster/bin/scversions

L'cran affichera l'un des rsultats suivants :


Upgrade commit is needed.
Upgrade commit is NOT needed. All versions match.
32

Si vous devez valider le patch, effectuez cette opration.


# scversions -c
Remarque Selon votre configuration, l'excution de la commande scversions entranera une
ou plusieurs reconfigurations CMM (Common Monitoring Model).

Modification d'un patch Oracle Solaris Cluster


Pour supprimer un patch Oracle Solaris Cluster install sur le cluster, vous devez supprimer au
pralable le nouveau patch Oracle Solaris Cluster, puis installer le patch prcdent ou mettre
jour la version. Pour supprimer le nouveau patch Oracle Solaris Cluster, reportez-vous aux
procdures ci-dessous. Pour rinstaller un patch Oracle Solaris Cluster, reportez-vous l'une
des procdures suivantes :

Installez un patch avec rinitialisation (nud). la page 318


Installation d'un patch avec rinitialisation (cluster) la page 322
Installation d'un patch Oracle Solaris Cluster sans rinitialisation la page 325

Remarque Avant d'appliquer un patch Oracle Solaris Cluster, vrifiez le fichier README de ce

dernier.

330

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Mise jour du logiciel Oracle Solaris Cluster

Suppression d'un patch Oracle Solaris Cluster sans rinitialisation


1

Connectez-vous en tant que superutilisateur sur un nud quelconque du cluster.

Supprimez le patch sans rinitialisation.


# patchrm patchid

Suppression d'un patch Oracle Solaris Cluster avec rinitialisation


1

Connectez-vous en tant que superutilisateur sur un nud quelconque du cluster.

Dmarrez le nud du cluster en mode non cluster. Pour plus d'informations concernant le
dmarrage d'un nud en mode non cluster, reportez-vous la section Initialisation d'un nud
en mode non cluster la page 79.

Supprimez le patch de rinitialisation.


# patchrm patchid

Rinitialisez le nud du cluster en mode cluster.


# reboot

Rptez les tapes 2 4 sur chaque nud du cluster.

Chapitre 11 Mise jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

331

332

12
C H A P I T R E

1 2

Sauvegarde et restauration d'un cluster

Ce chapitre contient les sections suivantes :

Restauration d'un cluster la page 333


Restauration de fichiers en cluster la page 345

Restauration d'un cluster


TABLEAU 121

Liste des tches : sauvegarde de fichiers en cluster

Tche

Instructions

Recherchez les noms des systmes de fichiers


sauvegarder.

Recherche des noms de systmes de fichiers


sauvegarder la page 334

Calculez le nombre de bandes requises pour une


sauvegarde complte.

Calcul du nombre de bandes requises pour une


sauvegarde complte la page 334

Sauvegardez le systme de fichiers racine.

Sauvegarde du systme de fichiers racine (/)


la page 335

Effectuez une sauvegarde en ligne pour les systmes de Sauvegarde en ligne pour les systmes mis en miroir
fichiers mis en miroir ou en plex.
(Solaris Volume Manager) la page 338
Sauvegarde en ligne pour les volumes (Veritas
Volume Manager) la page 341
Sauvegardez la configuration du cluster.

Sauvegarde de la configuration du cluster


la page 345

Sauvegardez la configuration du partitionnement de


disque pour le disque de stockage.

Reportez-vous la documentation de votre disque de


stockage.

333

Restauration d'un cluster

Recherche des noms de systmes de fichiers


sauvegarder
Suivez cette procdure pour dterminer les noms des systmes de fichiers dont vous souhaitez
effectuer la sauvegarde.

Affichez le contenu du fichier /etc/vfstab.


Vous ne devez pas obligatoirement tre un superutilisateur ou adopter un rle quivalent pour
excuter cette commande.
# more /etc/vfstab

Recherchez dans la colonne des points de montage le nom du systme de fichiers dont vous
effectuez la sauvegarde.
Utilisez ce nom lorsque vous sauvegardez le systme de fichiers.
# more /etc/vfstab

Exemple 121

Recherche des noms de systmes de fichiers sauvegarder


L'exemple suivant affiche les noms des systmes de fichiers disponibles rpertoris dans le
fichier /etc/vfstab.
# more /etc/vfstab
#device
#to mount
#
#/dev/dsk/c1d0s2
f
/proc
/dev/dsk/c1t6d0s1
/dev/dsk/c1t6d0s0
/dev/dsk/c1t6d0s3
swap

device
to fsck

mount FS fsck mount mount


point type
pass at boot options

/dev/rdsk/c1d0s2
/dev/rdsk/c1t6d0s0
/dev/rdsk/c1t6d0s3
-

/usr
/dev/fd
/proc
/
/cache
/tmp

ufs
fd
proc
swap
ufs
ufs
tmpfs

1
1
2
-

yes
no
no
no
no
yes
yes

Calcul du nombre de bandes requises pour une


sauvegarde complte
Suivez cette procdure pour calculer le nombre de bandes requises pour sauvegarder un
systme de fichiers.

Connectez-vous en tant que superutilisateur ou en adoptant un rle quivalent au nud du


cluster dont vous effectuez la sauvegarde.

Estimez la taille de la sauvegarde en octets.


# ufsdump S filesystem

334

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration d'un cluster

Exemple 122

Affiche le nombre estim d'octets requis pour effectuer la sauvegarde.

filesystem

Spcifie le nom du systme de fichiers dont vous souhaitez effectuer la


sauvegarde.

Divisez la taille estime par la capacit de la bande pour obtenir le nombre de bandes
ncessaires.

Calcul du nombre de bandes requises


Dans l'exemple suivant, un systme de fichiers d'une taille de 905 881 620 octets peut facilement
tenir sur une bande de 4 Go (905 881 620 4 000 000 000).
# ufsdump S /global/phys-schost-1
905881620

Sauvegarde du systme de fichiers racine (/)


Suivez cette procdure pour sauvegarder le systme de fichiers racine (/) d'un nud du cluster.
Avant d'entamer la procdure de sauvegarde, assurez-vous que le cluster est en cours
d'excution et ne signale aucune erreur.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs bas sur les rles de type solaris.cluster.modify sur le
nud du cluster dont vous effectuez la sauvegarde.

Commutez chaque service de donnes en cours d'excution du nud sauvegarder vers un


autre nud du cluster.
# clnode evacuate node

node
3

Spcifie le nud dont vous commutez les groupes de ressources et de priphriques.

Fermez le nud.
# shutdown -g0 -y -i0

Rinitialisez le nud en mode non cluster.

Dans les systmes SPARC, excutez la commande suivante.

Chapitre 12 Sauvegarde et restauration d'un cluster

335

Restauration d'un cluster

ok boot -xs

Sur les systmes x86, excutez les commandes suivantes :


phys-schost# shutdown -g -y -i0
Press any key to continue

a. Dans le menu GRUB, utilisez les touches flches pour slectionner l'entre Oracle Solaris
approprie et saisissez e pour modifier les commandes.
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86
|
| Solaris failsafe
|
|
|
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, e to edit the
commands before booting, or c for a command-line.

Pour plus d'informations concernant l'initialisation base sur GRUB, reportez-vous la


section Booting an x86 Based System by Using GRUB (Task Map) du System
Administration Guide: Basic Administration.
b. Dans l'cran des paramtres d'initialisation, utilisez les touches de direction pour
slectionner l'entre du noyau et saisissez l'option e pour diter cette dernire.
L'cran des paramtres d'initialisation de GRUB s'affiche comme suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot
|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.

c. Ajoutez -x la commande pour que le systme se rinitialise en mode non cluster.


[ Minimal BASH-like line editing is supported. For the first word, TAB
lists possible command completions. Anywhere else TAB lists the possible
completions of a device/filename. ESC at any time exits. ]
grub edit> kernel /platform/i86pc/multiboot -x

336

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration d'un cluster

d. Appuyez sur la touche Entre pour accepter la modification et revenir l'cran des
paramtres d'initialisation.
L'cran affiche la commande dite.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
+----------------------------------------------------------------------+
| root (hd0,0,a)
|
| kernel /platform/i86pc/multiboot -x
|
| module /platform/i86pc/boot_archive
|
+----------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press b to boot, e to edit the selected command in the
boot sequence, c for a command-line, o to open a new line
after (O for before) the selected line, d to remove the
selected line, or escape to go back to the main menu.-

e. Saisissez l'option b pour initialiser le nud en mode non cluster.


Remarque Cette modification de la commande des paramtres d'initialisation du noyau

n'est pas conserve, lors du prochain dmarrage du systme. La prochaine fois que vous
rinitialisez le nud, ce dernier sera initialis en mode cluster. Si vous souhaitez plutt
initialiser le nud en mode non cluster, effectuez de nouveau ces tapes pour ajouter
l'option -x la commande des paramtres d'initialisation du noyau.
5

Sauvegardez le systme de fichiers racine (/) en crant un instantan UFS.


a. Vrifiez que le systme de fichiers dispose de suffisamment d'espace disque pour le fichier
de sauvegarde de secours.
# df -k

b. Vrifiez qu'il n'existe aucun autre fichier de sauvegarde de secours ayant le mme nom et se
trouvant au mme emplacement.
# ls /backing-store-file

c. Crez l'instantan UFS.


# fssnap -F ufs -o bs=/backing-store-file /file-system

d. Vrifiez que l'instantan a t cr.


# /usr/lib/fs/ufs/fssnap -i /file-system
6

Sauvegardez l'instantan du systme de fichiers.


# ufsdump 0ucf /dev/rmt/0 snapshot-name

Par exemple :
# ufsdump 0ucf /dev/rmt/0 /dev/rfssnap/1

Chapitre 12 Sauvegarde et restauration d'un cluster

337

Restauration d'un cluster

Vrifiez que l'instantan est sauvegard.


# ufsrestore ta /dev/rmt/0

Rinitialisez le nud en mode cluster.


# init 6

Exemple 123

Sauvegarde du systme de fichiers racine (/)


L'exemple suivant illustre la sauvegarde d'un instantan du systme de fichiers racine (/) dans le
fichier /scratch/usr.back.file du rpertoire /usr.
# fssnap -F ufs -o bs=/scratch/usr.back.file /usr
/dev/fssnap/1

Sauvegarde en ligne pour les systmes mis en miroir


(Solaris Volume Manager)
Un volume Solaris Volume Manager mis en miroir peut tre sauvegard sans tre dmont ou
sans placer hors ligne l'ensemble du miroir. Un des sous-miroirs doit tre plac hors ligne
temporairement entranant ainsi la perte de la mise en miroir. Il peut toutefois tre remis en
ligne et resynchronis ds que la sauvegarde est termine, sans devoir arrter le systme ou
refuser aux utilisateurs l'accs aux donnes. L'utilisation de miroirs pour effectuer des
sauvegardes en ligne cre une sauvegarde correspondant un instantan du systme de
fichiers actif.
Un problme peut se produire lorsqu'un programme inscrit des donnes sur le volume juste
avant l'excution de la commande lockfs. Pour viter ce problme, arrtez temporairement
tous les services en cours d'excution sur ce nud. Avant d'entamer la procdure de sauvegarde,
assurez-vous galement que le cluster est en cours d'excution et ne signale aucune erreur.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous en tant que superutilisateur ou en adoptant un rle quivalent au nud du


cluster dont vous effectuez la sauvegarde.

Utilisez la commande metaset(1M) pour dterminer le nud auquel le volume sauvegard


appartient.
# metaset -s setname

338

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration d'un cluster

-s setname
3

Spcifie le nom de l'ensemble de disques.

Utilisez la commande lockfs(1M) avec l'option -w pour verrouiller le systme de fichiers en


criture.
# lockfs -w mountpoint
Remarque Verrouillez le systme de fichiers uniquement lorsqu'un systme de fichiers UFS se
trouve sur le miroir. Si le volume Solaris Volume Manager est dfini par exemple en tant que
priphrique brut pour les logiciels de gestion de base de donnes ou pour une autre application
en particulier, vous ne devrez pas faire appel la commande lockfs. Vous pouvez toutefois
excuter l'utilitaire adquat propre au fournisseur pour vider les tampons et verrouiller l'accs.

Utilisez la commande metastat(1M) pour dterminer les noms des sous-miroirs.


# metastat -s setname -p

-p
5

Affiche l'tat dans un format similaire au fichier md.tab.

Utilisez la commande metadetach(1M) pour placer un sous-miroir du miroir hors ligne.


# metadetach -s setname mirror submirror
Remarque Les autres sous-miroirs continuent tre lus. Le sous-miroir hors ligne n'est
toutefois plus synchronis ds la premire criture effectue sur le miroir. Cette incohrence est
corrige ds que le sous-miroir hors ligne est remis en ligne. Vous ne devez pas excuter fsck.

Dverrouillez les systmes de fichiers et autorisez la poursuite des critures en faisant appel la
commande lockfs avec l'option -u.
# lockfs -u mountpoint

Procdez une vrification du systme de fichiers.


# fsck /dev/md/diskset/rdsk/submirror

Sauvegardez le sous-miroir hors ligne sur une bande ou sur un autre support.
Utilisez la commande ufsdump(1M) ou l'utilitaire de sauvegarde auquel vous faites
gnralement appel.
# ufsdump 0ucf dump-device submirror
Remarque Utilisez le nom du priphrique brut (/rdsk) pour le sous-miroir plutt que le nom
du priphrique en mode bloc (/dsk).

Utilisez la commande metattach(1M) pour remettre en ligne le mtapriphrique ou le volume.


# metattach -s setname mirror submirror

Chapitre 12 Sauvegarde et restauration d'un cluster

339

Restauration d'un cluster

Une fois en ligne, le mtapriphrique ou le volume est automatiquement resynchronis avec le


miroir.
10

Utilisez la commande metastat pour vrifier que le sous-miroir est resynchronis.


# metastat -s setname mirror

Exemple 124

Sauvegarde en ligne pour les systmes mis en miroir (Solaris Volume Manager)
Dans l'exemple suivant, le nud du cluster phys-schost-1 possde le metaset schost-1. La
procdure de sauvegarde est donc effectue partir de phys-schost-1. Le miroir
/dev/md/schost-1/dsk/d0 se compose des sous-miroirs d10, d20 et d30.
[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host
Owner
phys-schost-1
Yes
...
[Lock the file system from writes:]
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
DUMP: Writing 63 Kilobyte records
DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
DUMP: Date of last level 0 dump: the epoch
DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
...
DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resynchronize the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
Submirror 0: schost-0/d10
State: Okay
Submirror 1: schost-0/d20
State: Okay
Submirror 2: schost-0/d30
State: Resyncing
Resync in progress: 42% done
Pass: 1

340

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration d'un cluster

Read option: roundrobin (default)


...

Sauvegarde en ligne pour les volumes (Veritas Volume


Manager)
Veritas Volume Manager identifie un volume mis en miroir comme tant un plex. Un plex peut
tre sauvegard sans devoir tre dmont ou sans placer le volume entier hors ligne. Pour ce
faire, crez une copie d'instantan du volume et sauvegardez ce volume temporaire sans arrter
le systme ou refuser aux utilisateurs l'accs aux donnes.
Avant d'entamer la procdure de sauvegarde, assurez-vous que le cluster est en cours
d'excution et ne signale aucune erreur.
L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.

Connectez-vous un nud quelconque du cluster en tant que superutilisateur ou adoptez un


rle octroyant une autorisation reposant sur un contrle d'accs bas sur les rles de type
solaris.cluster.admin sur le nud principal actuel pour le groupe de disques du cluster.

Rpertoriez les informations du groupe de disques.


# vxprint -g diskgroup

Dterminez le nud dans lequel le groupe de disques est actuellement import en spcifiant
qu'il s'agit du nud principal pour le groupe de disques.
# cldevicegroup status

Crez un instantan du volume.


# vxassist -g diskgroup snapstart volume
Remarque La dure de cration de l'instantan varie en fonction de la taille du volume.

Vrifiez que le nouveau volume a t cr.


# vxprint -g diskgroup

Lorsque l'instantan a t cr, l'tat Snapdone (Instantan effectu) s'affiche dans le champ
State (tat) du groupe de disques slectionn.

Chapitre 12 Sauvegarde et restauration d'un cluster

341

Restauration d'un cluster

Arrtez tout service de donnes accdant au systme de fichiers.


# clresourcegroup offline resource-group
Remarque Pour une sauvegarde correcte du systme de fichiers de donnes, arrtez tous les

services de donnes. L'tape 6 et l'tape 8 ne sont pas requises lorsqu'aucun service de donnes
n'est en cours d'excution.
7

Crez un volume de sauvegarde nomm bkup-vol et joignez-y le volume d'instantan.


# vxassist -g diskgroup snapshot volume bkup-vol

Redmarrez tous les services de donnes arrts l'tape 6 l'aide de la commande


clresourcegroup.
# clresourcegroup online - zone -n node resourcegroup

node

Nom du nud.

zone

Nom du nud non votant du cluster global (node) pouvant contrler le groupe de
ressources. Spcifiez la zone uniquement si vous avez spcifi un nud non votant
lorsque vous avez cr le groupe de ressources.

Vrifiez que le volume est joint au nouveau volume bkup-vol.


# vxprint -g diskgroup

10

Enregistrez la modification apporte la configuration du groupe de priphriques.


# cldevicegroup sync diskgroup

11

Vrifiez le volume de la sauvegarde.


# fsck -y /dev/vx/rdsk/diskgroup/bkup-vol

12

Effectuez une sauvegarde pour copier le volume bkup-vol sur une bande ou un autre support.
Utilisez la commande ufsdump(1M) ou l'utilitaire de sauvegarde auquel vous faites
gnralement appel.
# ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol

13

Supprimez le volume temporaire.


# vxedit -rf rm bkup-vol

14

Enregistrez les modifications apportes la configuration du groupe de disques.


# cldevicegroup sync diskgroup

342

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration d'un cluster

Exemple 125

Sauvegarde en ligne pour les volumes (Veritas Volume Manager)


Dans l'exemple suivant, le nud du cluster phys-schost-2 est le propritaire principal du
groupe de priphriques schost-1. La procdure de sauvegarde est donc effectue partir de
phys-schost-2. Le volume /vo101 est copi, puis associ un nouveau volume (bkup-vol).

[Become superuser or assume a role that provides solaris.cluster.admin RBAC authorization on


the primary node.]
[Identify the current primary node for the device group:]
# cldevicegroup status
-- Device Group Servers -Device Group
Primary
Secondary
-------------------------Device group servers: rmt/1
Device group servers: schost-1
phys-schost-2
phys-schost-1
-- Device Group Status -Device Group
-----------Device group status:
rmt/1
Device group status:
schost-1
[List the device group information:]
# vxprint -g schost-1
TY NAME
ASSOC
KSTATE LENGTH
dg schost-1
schost-1 -

PLOFFS STATE
-

dm
dm
dm
dm
dm
dm

0
0
0
0
LOG

ACTIVE
ACTIVE
ACTIVE
ACTIVE
-

schost-101
schost-102
schost-103
schost-104
schost-105
schost-106

c1t1d0s2
c1t2d0s2
c2t1d0s2
c2t2d0s2
c1t3d0s2
c2t3d0s2

17678493
17678493
8378640
17678493
17678493
17678493

Status
-----Offline
Online

v vol01
gen
ENABLED 204800
pl vol01-01
vol01
ENABLED 208331
sd schost-101-01 vol01-01 ENABLED 104139
sd schost-102-01 vol01-01 ENABLED 104139
pl vol01-02
vol01
ENABLED 208331
sd schost-103-01 vol01-02 ENABLED 103680
sd schost-104-01 vol01-02 ENABLED 104139
pl vol01-03
vol01
ENABLED LOGONLY
sd schost-103-02 vol01-03 ENABLED 5
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME
ASSOC
KSTATE
LENGTH
dg schost-1
schost-1 -

PLOFFS STATE
-

dm
dm
dm
dm
dm
dm

schost-101
schost-102
schost-103
schost-104
schost-105
schost-106

c1t1d0s2
c1t2d0s2
c2t1d0s2
c2t2d0s2
c1t3d0s2
c2t3d0s2

17678493
17678493
8378640
17678493
17678493
17678493

Chapitre 12 Sauvegarde et restauration d'un cluster

TUTIL0 PUTIL0
-

TUTIL0 PUTIL0
-

343

Restauration d'un cluster

v vol01
gen
ENABLED 204800 ACTIVE
pl vol01-01
vol01
ENABLED 208331 ACTIVE
sd schost-101-01 vol01-01 ENABLED 104139 0
sd schost-102-01 vol01-01 ENABLED 104139 0
pl vol01-02
vol01
ENABLED 208331 ACTIVE
sd schost-103-01 vol01-02 ENABLED 103680 0
sd schost-104-01 vol01-02 ENABLED 104139 0
pl vol01-03
vol01
ENABLED LOGONLY ACTIVE
sd schost-103-02 vol01-03 ENABLED 5
LOG
pl vol01-04
vol01
ENABLED 208331 SNAPDONE
sd schost-105-01 vol01-04 ENABLED 104139 0
sd schost-106-01 vol01-04 ENABLED 104139 0
[Stop data services, if necessary:]
# clresourcegroup offline nfs-rg
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# clresourcegroup online -n phys-schost-1 nfs-rg
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME
ASSOC
KSTATE LENGTH PLOFFS STATE
dg schost-1
schost-1
-

TUTIL0 PUTIL0
-

dm schost-101
...

c1t1d0s2

17678493 -

v
pl
sd
sd

gen
bkup-vol
bkup-vol-01
bkup-vol-01

ENABLED
ENABLED
ENABLED
ENABLED

204800
208331
104139
104139

ACTIVE
ACTIVE
-

v vol01
gen
ENABLED 204800 ACTIVE
pl vol01-01
vol01
ENABLED 208331 ACTIVE
sd schost-101-01 vol01-01
ENABLED 104139 0
sd schost-102-01 vol01-01
ENABLED 104139 0
pl vol01-02
vol01
ENABLED 208331 ACTIVE
sd schost-103-01 vol01-02
ENABLED 103680 0
sd schost-104-01 vol01-02
ENABLED 104139 0
pl vol01-03
vol01
ENABLED LOGONLY ACTIVE
sd schost-103-02 vol01-03
ENABLED 5
LOG
[Synchronize the disk group with cluster framework:]
# cldevicegroup sync schost-1
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
DUMP: Writing 63 Kilobyte records
DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
DUMP: Date of last level 0 dump: the epoch
DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
...
DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# cldevicegroup sync schost-1

344

bkup-vol
bkup-vol-01
schost-105-01
schost-106-01

0
0

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration de fichiers en cluster

Sauvegarde de la configuration du cluster


Pour assurer l'archivage de la configuration du cluster et en faciliter la rcupration,
sauvegardez-la intervalles rguliers. Oracle Solaris Cluster permet d'exporter la configuration
du cluster vers un fichier au format XML (eXtensible Markup Language).

Connectez-vous un nud du cluster en tant que superutilisateur ou adoptez un rle octroyant


une autorisation reposant sur un contrle d'accs bas sur les rles de type
solaris.cluster.read.

Exportez les informations de la configuration du cluster dans un fichier.


# /usr/cluster/bin/cluster export -o configfile

configfile

Nom du fichier de configuration XML vers lequel la commande du cluster exporte


les informations de la configuration du cluster. Pour plus d'informations sur le
fichier de configuration XML, reportez-vous la section clconfiguration(5CL).

Vrifiez que les informations de la configuration du cluster ont t exportes vers le fichier XML.
# vi configfile

Restauration de fichiers en cluster


La commande ufsrestore(1M) copie des fichiers sur le disque en fonction du rpertoire de
travail courant, partir des sauvegardes cres l'aide de la commande ufsdump(1M). Vous
pouvez utiliser ufsrestore pour recharger l'arborescence complte du systme de fichiers
partir d'un vidage au niveau 0 ou de vidages incrmentiels ultrieurs, ou pour restaurer un ou
plusieurs fichiers uniques partir d'une bande de vidage. Si la commande ufsrestore est
excute par un superutilisateur ou un utilisateur ayant adopt un rle quivalent, les fichiers
sont restaurs avec leur propritaire d'origine, la date de dernire modification et le mode
(autorisations).
Avant de restaurer les fichiers ou les systmes de fichiers, munissez-vous des informations
suivantes.

Bandes requises

Nom du priphrique brut sur lequel vous restaurez le systme de fichiers

Type de lecteur de bande que vous utilisez

Nom du priphrique (local ou distant) pour le lecteur de bande

Schma de partition des disques dfectueux (les partitions et les systmes de fichiers doivent
tre exactement dupliqus sur le disque de remplacement)

Chapitre 12 Sauvegarde et restauration d'un cluster

345

Restauration de fichiers en cluster

TABLEAU 122

Liste des tches : restauration de fichiers en cluster

Tche

Instructions

Pour Solaris Volume Manager, restaurez


les fichiers de manire interactive.

Restauration interactive de fichiers individuels (Solaris Volume


Manager) la page 346

Pour Solaris Volume Manager, restaurez le


systme de fichiers racine (/).

Restauration du systme de fichiers racine (/) (Solaris Volume


Manager) la page 346
Restauration d'un systme de fichiers racine (/) situ sur un
volume Solaris Volume Manager la page 349

Pour Veritas Volume Manager, restaurez


un systme de fichiers racine (/).

Restauration d'un systme de fichiers racine (/) non encapsul


(Veritas Volume Manager) la page 354

Pour Veritas Volume Manager, restaurez


Restauration d'un systme de fichiers racine (/) encapsul
un systme de fichiers racine (/) encapsul. (Veritas Volume Manager) la page 356

Restauration interactive de fichiers individuels


(Solaris Volume Manager)
Suivez cette procdure pour restaurer un ou plusieurs fichiers individuels. Avant d'entamer la
procdure de restauration, assurez-vous que le cluster est en cours d'excution et ne signale
aucune erreur.

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs bas sur les rles de type solaris.cluster.admin sur le nud
du cluster dont vous effectuez la restauration.

Arrtez tous les services de donnes utilisant les fichiers restaurer.


# clresourcegroup offline resource-group

Restaurez les fichiers.


# ufsrestore

Restauration du systme de fichiers racine (/) (Solaris


Volume Manager)
Suivez cette procdure pour restaurer les systmes de fichiers racine (/) sur un nouveau disque,
par exemple aprs le remplacement d'un disque racine dfectueux. Le nud en cours de
restauration ne doit pas tre initialis. Avant d'entamer la procdure de restauration,
assurez-vous que le cluster est en cours d'excution et ne signale aucune erreur.

346

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration de fichiers en cluster

Remarque Le format de la partition du nouveau disque devant tre identique celui du disque
dfectueux, identifiez le schma de partitionnement avant d'entamer la procdure et recrez les
systmes de fichiers, selon les besoins.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs bas sur les rles de type solaris.cluster.modify sur un
nud du cluster ayant accs aux ensembles de disques auxquels le nud restaurer est
galement joint.
Utilisez un nud autre que celui dont vous effectuez la restauration.

Supprimez le nom d'hte du nud en cours de restauration de tous les metasets.


Excutez cette commande partir d'un nud du metaset autre que le nud dont vous effectuez
la suppression. Le nud en cours de rcupration tant hors ligne, le systme affiche l'erreur
RPC: Rpcbind failure - RPC: Timed out. Ignorez-la et passez l'tape suivante.
# metaset -s setname -f -d -h nodelist

-s setname

Spcifie le nom de l'ensemble de disques.

-f

Supprime le dernier hte de l'ensemble de disques.

-d

Supprime dans l'ensemble de disques.

-h nodelist

Spcifie le nom du nud supprimer de l'ensemble de disques.

Restaurez les systmes de fichiers racine (/) et /usr.


Pour restaurer les systmes de fichiers racine et /usr, suivez la procdure dcrite au chapitre 26
(Chapitre 26, Restoring UFS Files and File Systems (Tasks) du System Administration Guide:
Devices and File Systems. Ignorez l'tape de redmarrage du systme de la procdure du SE
Oracle Solaris.
Remarque Veillez crer le systme de fichiers /global/.devices/node@nodeid.

Rinitialisez le nud en mode multiutilisateur.


# reboot

Chapitre 12 Sauvegarde et restauration d'un cluster

347

Restauration de fichiers en cluster

Remplacez l'ID de priphrique.


# cldevice repair rootdisk

Utilisez la commande metadb(1M) pour recrer les rpliques de base de donnes d'tat.
# metadb -c copies -af raw-disk-device

-c copies

Spcifie le nombre de rpliques crer.

-f raw-disk-device

Priphrique de disque brut sur lequel crer les rpliques.

-a

Ajoute des rpliques.

partir d'un nud du cluster autre que le nud restaur, ajoutez le nud restaur tous les
ensembles de disques.
phys-schost-2# metaset -s setname -a -h nodelist

-a

Cre et ajoute l'hte l'ensemble de disques.

Le nud est redmarr en mode cluster. Le cluster est prt l'emploi.


Exemple 126

Restauration du systme de fichiers racine (/)


L'exemple suivant illustre un systme de fichiers racine (/) restaur sur le nud phys-schost-1
partir du priphrique bande /dev/rmt/0. La commande metaset est excute partir d'un
autre nud du cluster (phys-schost-2) pour supprimer et ultrieurement rajouter le nud
phys-schost-1 l'ensemble de disques schost-1. Toutes les autres commandes sont excutes
partir de phys-schost-1. Un nouveau bloc d'initialisation est cr sur /dev/rdsk/c0t0d0s0
et trois rpliques de base de donnes d'tat sont recres sur /dev/rdsk/c0t0d0s4.

[Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on a cluster node
other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
Restore the root (/) and /usr file system using the procedure in the Solaris system
administration documentation
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/dsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

348

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration de fichiers en cluster

Restauration d'un systme de fichiers racine (/) situ


sur un volume Solaris Volume Manager
Suivez cette procdure pour restaurer un systme de fichiers racine (/) qui se trouvait sur un
volume Solaris Volume Manager lors de ralisation des sauvegardes. Procdez de cette manire
lorsqu'un disque racine est endommag et remplac par un nouveau disque. Le nud en cours
de restauration ne doit pas tre initialis. Avant d'entamer la procdure de restauration,
assurez-vous que le cluster est en cours d'excution et ne signale aucune erreur.
Remarque Le format de la partition du nouveau disque devant tre identique celui du disque
dfectueux, identifiez le schma de partitionnement avant d'entamer la procdure et recrez les
systmes de fichiers, selon les besoins.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Connectez-vous en tant que superutilisateur ou adoptez un rle octroyant une autorisation


reposant sur un contrle d'accs bas sur les rles de type solaris.cluster.modify sur un
nud du cluster ayant accs l'ensemble de disques autre que le nud dont vous effectuez la
restauration.
Utilisez un nud autre que celui dont vous effectuez la restauration.

Supprimez le nom d'hte du nud en cours de restauration sur tous les ensembles de disques
auxquels il est reli. Excutez la commande suivante pour chaque ensemble de disques.
# metaset -s setname -d -h hostname

-s setname

Spcifie le nom du metaset.

-f

Supprime le dernier hte de l'ensemble de


disques.

-d

Supprime dans le metaset.

-h nodelist

Spcifie le nom du nud supprimer du metaset.

-h hostname

Spcifie le nom de l'hte.

-m mediator_host_list

Spcifie le nom de l'hte mdiateur ajouter


l'ensemble de disques ou supprimer de cet
ensemble.

Chapitre 12 Sauvegarde et restauration d'un cluster

349

Restauration de fichiers en cluster

Si le nud est un hte mdiateur deux chanes, supprimez le mdiateur. Excutez la


commande suivante une fois pour chaque ensemble de disques auquel le nud est reli.
# metaset -ssetname-d -m hostname

Remplacez le disque dfectueux du nud sur lequel le systme de fichiers racine (/) sera
restaur.
Suivez les procdures pour le remplacement d'un disque dcrites dans la documentation
fournie avec votre serveur.

Initialisez le nud dont vous effectuez la restauration. Le nud rpar est initialis en mode
monoutilisateur partir du CD-ROM. Ainsi, Solaris Volume Manager ne s'excutera pas sur ce
nud.

Si vous utilisez le CD du SE Oracle Solaris, notez ce qui suit :

SPARC : Type :

x86 : Insrez le CD dans le lecteur et initialisez le systme en l'arrtant, puis en le


dsactivant et l'activant nouveau. Dans l'cran des paramtres d'initialisation actuels,
saisissez b ou i.

ok boot cdrom -s

<<< Current Boot Parameters >>>


Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
7,1/sd@0,0:a
Boot args:
Type b [file-name] [boot-flags] <ENTER> to boot with options
or i <ENTER>
to enter boot interpreter
or <ENTER>
to boot with defaults
<<< timeout in 5 seconds >>>
Select (b)oot or (i)nterpreter: b -s

Si vous utilisez un serveur Solaris JumpStart, notez ce qui suit :

SPARC : Type :
ok boot net -s

x86 : Insrez le CD dans le lecteur et initialisez le systme en l'arrtant, puis en le


dsactivant et l'activant nouveau. Dans l'cran des paramtres d'initialisation actuels,
saisissez b ou i.
<<< Current Boot Parameters >>>
Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
7,1/sd@0,0:a
Boot args:
Type b [file-name] [boot-flags] <ENTER> to boot with options
or i <ENTER>
to enter boot interpreter
or <ENTER>
to boot with defaults

350

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration de fichiers en cluster

<<< timeout in 5 seconds >>>


Select (b)oot or (i)nterpreter: b -s
6

Crez toutes les partitions et l'espace de swap sur le disque racine en utilisant la commande
format.
Recrez le schma de partitionnement d'origine du disque dfectueux.

Crez le systme de fichiers racine (/) ainsi que tout autre systme de fichiers requis en utilisant
la commande newfs.
Recrez les systmes de fichiers d'origine du disque dfectueux.
Remarque Veillez crer le systme de fichiers /global/.devices/node@nodeid.

Montez le systme de fichiers racine (/) sur un point de montage temporaire.


# mount device temp-mountpoint

Utilisez les commandes suivantes pour restaurer le systme de fichiers racine (/).
# cd temp-mountpoint
# ufsrestore rvf dump-device
# rm restoresymtable

10

Installez un nouveau bloc d'initialisation sur le nouveau disque.


# /usr/sbin/installboot /usr/platform/uname -i/lib/fs/ufs/bootblk
raw-disk-device

11

Dans le fichier /temp-mountpoint/etc/system, supprimez les lignes d'informations racine MDD.


* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)

12

ditez le fichier /temp-mountpoint/etc/vfstab pour changer l'entre racine d'un volume


Solaris Volume Manager en tranche normale correspondante pour chaque systme de fichiers
du disque racine faisant partie du mtapriphrique ou du volume.
Example:
Change from
/dev/md/dsk/d10

/dev/md/rdsk/d10

ufs

no

Change to
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 /

ufs

no

Chapitre 12 Sauvegarde et restauration d'un cluster

351

Restauration de fichiers en cluster

13

Dmontez le systme de fichiers temporaire et vrifiez le priphrique de disque brut.


# cd /
# umount temp-mountpoint
# fsck raw-disk-device

14

Rinitialisez le nud en mode multiutilisateur.


# reboot

15

Remplacez l'ID de priphrique.


# cldevice repair rootdisk

16

Utilisez la commande metadb pour recrer les rpliques de base de donnes d'tat.
# metadb -c copies -af raw-disk-device

17

-c copies

Spcifie le nombre de rpliques crer.

-af raw-disk-device

Cre les rpliques de base de donnes d'tat initiales sur le priphrique


de disque brut spcifi.

partir d'un nud du cluster autre que le nud restaur, ajoutez le nud restaur tous les
ensembles de disques.
phys-schost-2# metaset -s setname -a -h nodelist

-a

Ajoute (cre) le metaset.

Paramtrez le volume/miroir pour la racine (/) en fonction de la documentation.


Le nud est redmarr en mode cluster.
18

Si le nud tait un hte mdiateur deux chanes, rajoutez le mdiateur.


phys-schost-2# metaset -s setname -a -m hostname

Exemple 127

Restauration d'un systme de fichiers racine (/) situ sur un volume Solaris Volume
Manager
L'exemple suivant illustre un systme de fichiers racine (/) restaur sur le nud phys-schost-1
partir du priphrique bande /dev/rmt/0. La commande metaset est excute partir d'un
autre nud du cluster (phys-schost-2) pour supprimer le nud phys-schost-1 du metaset
schost-1 et le rajouter ultrieurement. Toutes les autres commandes sont excutes partir de
phys-schost-1. Un nouveau bloc d'initialisation est cr sur /dev/rdsk/c0t0d0s0 et
trois rpliques de base de donnes d'tat sont recres sur /dev/rdsk/c0t0d0s4.

[Become superuser or assume a role that provides solaris.cluster.modify RBAC


authorization on a cluster node with access to the metaset, other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -d -h phys-schost-1
[Replace the failed disk and boot the node:]

352

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration de fichiers en cluster

Initialisez le nud partir du CD du SE Oracle Solaris :

SPARC : Type :

x86 : Insrez le CD dans le lecteur et initialisez le systme en l'arrtant, puis en le dsactivant


et l'activant nouveau. Dans l'cran des paramtres d'initialisation actuels, saisissez b ou i.

ok boot cdrom -s

<<< Current Boot Parameters >>>


Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
sd@0,0:a
Boot args:
Type b [file-name] [boot-flags] <ENTER> to boot with options
or
i <ENTER>
to enter boot interpreter
or
<ENTER>
to boot with defaults
<<< timeout in 5 seconds >>>
Select (b)oot or (i)nterpreter: b -s
[Use format and newfs to recreate partitions and file systems
.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/uname \
-i/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Remove the lines in / temp-mountpoint/etc/system file for MDD root information:
]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstab file]
Example:
Change from
/dev/md/dsk/d10 /dev/md/rdsk/d10
/
ufs 1
no
Change to
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 /usr ufs 1
no
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot:]

Chapitre 12 Sauvegarde et restauration d'un cluster

353

Restauration de fichiers en cluster

# reboot
[Replace the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

Restauration d'un systme de fichiers racine (/) non


encapsul (Veritas Volume Manager)
Suivez cette procdure pour restaurer un systme de fichiers racine (/) non encapsul. Le nud
en cours de restauration ne doit pas tre initialis. Avant d'entamer la procdure de
restauration, assurez-vous que le cluster est en cours d'excution et ne signale aucune erreur.
Remarque Le format de la partition du nouveau disque devant tre identique celui du disque
dfectueux, identifiez le schma de partitionnement avant d'entamer la procdure et recrez les
systmes de fichiers, le cas chant.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Remplacez le disque dfectueux du nud sur lequel le systme de fichiers racine sera restaur.
Suivez les procdures pour le remplacement d'un disque dcrites dans la documentation
fournie avec votre serveur.

Initialisez le nud dont vous effectuez la restauration.

Si vous utilisez le CD du SE Oracle Solaris, saisissez la commande suivante lorsque vous


recevez l'invite OpenBoot PROM ok :
ok boot cdrom -s

Si vous utilisez un serveur Solaris JumpStart, saisissez la commande suivante lorsque vous
recevez l'invite OpenBoot PROM ok :
ok boot net -s

354

Crez toutes les partitions et le swap sur le disque racine en utilisant la commande format.
Recrez le schma de partitionnement d'origine du disque dfectueux.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration de fichiers en cluster

Crez le systme de fichiers racine (/) ainsi que tout autre systme de fichiers requis en utilisant
la commande newfs.
Recrez les systmes de fichiers d'origine du disque dfectueux.
Remarque Veillez crer le systme de fichiers /global/.devices/node@nodeid.

Montez le systme de fichiers racine (/) sur un point de montage temporaire.


# mount device temp-mountpoint

Restaurez le systme de fichiers racine (/) partir de la sauvegarde, puis dmontez et vrifiez le
systme de fichiers.
#
#
#
#
#
#

cd temp-mountpoint
ufsrestore rvf dump-device
rm restoresymtable
cd /
umount temp-mountpoint
fsck raw-disk-device

Le systme de fichiers est maintenant restaur.


7

Installez un nouveau bloc d'initialisation sur le nouveau disque.


# /usr/sbin/installboot /usr/platform/uname -i/lib/fs/ufs/bootblk raw-disk-device

Rinitialisez le nud en mode multiutilisateur.


# reboot

Mettez jour l'ID de priphrique.


# cldevice repair /dev/rdsk/disk-device

10

Appuyez sur les touches Ctrl-d pour reprendre en mode multiutilisateur.


Le nud est redmarr en mode cluster. Le cluster est prt l'emploi.

Exemple 128

Restauration du systme de fichiers racine non encapsul (/) (Veritas Volume


Manager)
L'exemple suivant illustre un systme de fichiers racine non encapsul (/) restaur sur le nud
phys-schost-1 partir du priphrique bande /dev/rmt/0.
[Replace the failed disk and boot the node:]

Initialisez le nud partir du CD du SE Oracle Solaris. Lorsque vous recevez l'invite OpenBoot
PROM ok, saisissez la commande suivante :
ok boot cdrom -s
...

Chapitre 12 Sauvegarde et restauration d'un cluster

355

Restauration de fichiers en cluster

[Use format and newfs to create partitions and file systems]


[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/uname \
-i/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Update the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0

Restauration d'un systme de fichiers racine (/)


encapsul (Veritas Volume Manager)
Suivez cette procdure pour restaurer un systme de fichiers racine (/) encapsul sur un nud.
Le nud en cours de restauration ne doit pas tre initialis. Avant d'entamer la procdure de
restauration, assurez-vous que le cluster est en cours d'excution et signale des erreurs.
Remarque Le format de la partition du nouveau disque devant tre identique celui du disque
dfectueux, identifiez le schma de partitionnement avant d'entamer la procdure et recrez les
systmes de fichiers, le cas chant.

L'lment phys-schost# fait rfrence l'invite du cluster global. Appliquez cette procdure
un cluster global.
Cette procdure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart
des commandes possdent galement des formes brves. l'exception de la forme du nom, ces
commandes sont identiques.
1

Remplacez le disque dfectueux du nud sur lequel le systme de fichiers racine sera restaur.
Suivez les procdures pour le remplacement d'un disque dcrites dans la documentation
fournie avec votre serveur.

Initialisez le nud dont vous effectuez la restauration.

356

Si vous utilisez le CD du SE Oracle Solaris, saisissez la commande suivante lorsque vous


recevez l'invite OpenBoot PROM ok :

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration de fichiers en cluster

ok boot cdrom -s

Si vous utilisez un serveur Solaris JumpStart, saisissez la commande suivante lorsque vous
recevez l'invite OpenBoot PROM ok :
ok boot net -s

Crez toutes les partitions et l'espace de swap sur le disque racine en utilisant la commande
format.
Recrez le schma de partitionnement d'origine du disque dfectueux.

Crez le systme de fichiers racine (/) ainsi que tout autre systme de fichiers requis en utilisant
la commande newfs.
Recrez les systmes de fichiers d'origine du disque dfectueux.
Remarque Veillez crer le systme de fichiers /global/.devices/node@nodeid.

Montez le systme de fichiers racine (/) sur un point de montage temporaire.


# mount device temp-mountpoint

Restaurez le systme de fichiers racine (/) partir de la sauvegarde.


# cd temp-mountpoint
# ufsrestore rvf dump-device
# rm restoresymtable

Crez un fichier vide install-db.


Ce fichier place le nud en mode d'installation VxVM au prochain redmarrage.
# touch \
/temp-mountpoint/etc/vx/reconfig.d/state.d/install-db

Supprimez les entres suivantes du fichier /temp-mountpoint/etc/system.


* rootdev:/pseudo/vxio@0:0
* set vxio:vol_rootdev_is_volume=1

ditez le fichier / temp-mountpoint /etc/vfstab et remplacez tous les points de montage


VxVM par les priphriques de disque standard pour le disque racine, tels que
/dev/dsk/c0t0d0s0.
Example:
Change from
/dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol /
Change to
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs

Chapitre 12 Sauvegarde et restauration d'un cluster

no

ufs

no -

357

Restauration de fichiers en cluster

10

Dmontez le systme de fichiers temporaire et vrifiez le systme de fichiers.


# cd /
# umount temp-mountpoint
# fsck raw-disk-device

11

Installez le bloc d'initialisation sur le nouveau disque.


# /usr/sbin/installboot /usr/platform/uname -i/lib/fs/ufs/bootblk raw-disk-device

12

Rinitialisez le nud en mode multiutilisateur.


# reboot

13

Mettez jour l'ID de priphrique scdidadm(1M).


# cldevice repair /dev/rdsk/c0t0d0

14

Excutez la commande encapsule clvxvm pour encapsuler le disque, puis redmarrez.

15

En cas de conflit en code mineur avec un autre systme, dmontez les priphriques globaux et
affectez un nouveau code mineur au groupe de disques.

Dmontez le systme de fichiers de priphriques globaux sur le nud du cluster.


# umount /global/.devices/node@nodeid

Affectez un nouveau code mineur au groupe de disques rootdg sur le nud du cluster.
# vxdg reminor rootdg 100

16

Arrtez et rinitialisez le nud en mode cluster.


# shutdown -g0 -i6 -y

Exemple 129

Restauration du systme de fichiers racine (/) encapsul (Veritas Volume Manager)


L'exemple suivant illustre un systme de fichiers racine (/) encapsul restaur sur le nud
phys-schost-1 partir du priphrique bande /dev/rmt/0.
[Replace the failed disk and boot the node:]

Initialisez le nud partir du CD du SE Oracle Solaris. Lorsque vous recevez l'invite OpenBoot
PROM ok, saisissez la commande suivante :
ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable

358

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Restauration de fichiers en cluster

[Create an empty install-db file:]


# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and
remove or comment out the following entries:]
# rootdev:/pseudo/vxio@0:0
# set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example:
Change from
/dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 noChange to
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1
no
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/uname \
-i/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Update the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Encapsulate the disk::]
# vxinstall
Choose to encapsulate the root disk.
[If a conflict in minor number occurs, reminor the rootdg disk group:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y
Voir aussi

Pour plus d'informations sur la mise en miroir du disque racine encapsul, reportez-vous au
Guide dinstallation du logiciel Oracle Solaris Cluster.

Chapitre 12 Sauvegarde et restauration d'un cluster

359

360

13
C H A P I T R E

1 3

Administration de Oracle Solaris Cluster avec


les interfaces graphiques

Ce chapitre dcrit les outils d'interface graphique de Oracle Solaris Cluster Manager et Sun
Management Center, qui permettent d'administrer de nombreux aspects d'un cluster. Il
contient galement les procdures de configuration et de lancement de Oracle Solaris Cluster
Manager. L'aide en ligne incluse dans l'interface graphique de Oracle Solaris Cluster Manager
fournit des instructions pour l'accomplissement des divers tches administratives dans Oracle
Solaris Cluster.
Ce chapitre inclut les sections suivantes :

Prsentation de Oracle Solaris Cluster Manager la page 361


SPARC : Prsentation de Sun Management Center la page 362
Configuration de Oracle Solaris Cluster Manager la page 363
Dmarrage du logiciel Oracle Solaris Cluster Manager la page 366

Prsentation de Oracle Solaris Cluster Manager


Oracle Solaris Cluster Manager est une interface graphique vous permettant d'afficher
graphiquement les informations sur les clusters, de vrifier le statut des composants du cluster
et de surveiller les changements de configuration. Oracle Solaris Cluster Manager permet
galement d'effectuer de nombreuses tches administratives pour les composants Oracle Solaris
Cluster suivants.

Adaptateurs
Cbles
Services de donnes
Priphriques globaux
Interconnexions
Jonctions
Limites de charge du nud
Priphriques NAS
Nuds
361

SPARC : Prsentation de Sun Management Center

Priphriques de quorum
Groupes de ressources
Ressources

Vous trouvez des informations sur l'installation et l'utilisation de Oracle Solaris Cluster
Manager aux emplacements suivants.

Installation d'Oracle Solaris Cluster Manager : reportez-vous au Guide dinstallation du


logiciel Oracle Solaris Cluster.

Dmarrage d'Oracle Solaris Cluster Manager : reportez-vous la section Dmarrage du


logiciel Oracle Solaris Cluster Manager la page 366.

Configuration des numros de port, des adresses de serveur, des certificats de scurit et
des utilisateurs : reportez-vous la section Configuration de Oracle Solaris Cluster
Manager la page 363.

Installation et administration des aspects de votre cluster l'aide de Oracle Solaris


Cluster Manager : reportez-vous l'aide en ligne fournie avec Oracle Solaris Cluster
Manager.

Renouvellement des cls de scurit Oracle Solaris Cluster Manager : reportez-vous la


section Renouvellement des cls de scurit du conteneur d'agent commun la page 365.

Remarque Cependant, Oracle Solaris Cluster Manager ne peut actuellement pas effectuer

toutes les tches administratives de Oracle Solaris Cluster. Vous devez utiliser l'interface de la
ligne de commande pour certaines oprations.

SPARC : Prsentation de Sun Management Center


Le module Oracle Solaris Cluster pour l'interface graphique Sun Management Center
(prcdemment Sun Enterprise SyMON) vous permet d'afficher graphiquement les ressources
de cluster et les types et groupes de ressources. Il vous permet galement de contrler les
modifications de la configuration et vrifie l'tat des composants du cluster. Cependant, le
module Oracle Solaris Cluster pour Sun Management Center ne peut pas effectuer de tches de
configuration Oracle Solaris Cluster. Vous devez utiliser l'interface de la ligne de commande
pour les oprations de configuration. Plus pour d'informations, reportez-vous la section
Interface de ligne de commande du Chapitre 1.
Pour plus d'informations sur l'installation et le dmarrage du module Oracle Solaris Cluster
pour Sun Management Center, reportez-vous au Chapitre 8, Installation du module Oracle
Solaris Cluster sur Sun Management Center du Guide dinstallation du logiciel Oracle Solaris
Cluster.
Le module Oracle Solaris Cluster de Sun Management Center est compatible avec le protocole
SNMP (Simple Network Management Protocol). Oracle Solaris Cluster a cr une base
362

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de Oracle Solaris Cluster Manager

d'informations de gestion (MIB, Management Information Base) qui peut tre utilise comme
dfinitions de donnes par les stations de gestion tierces bases sur le protocole SNMP.
Le fichier MIB Oracle Solaris Cluster est situ sous
/opt/SUNWsymon/modules/cfg/sun-cluster-mib.mib pour n'importe quel nud de cluster.
Le fichier MIB Oracle Solaris Cluster est une spcification ASN.1 des donnes Oracle Solaris
Cluster modlises. Il s'agit de la mme spcification utilise par toutes les MIB Sun
Management Center. Pour utiliser la MIB Oracle Solaris Cluster, rfrez-vous aux instructions
sur l'utilisation d'autres MIB Sun Management Center la section SNMP MIBs for Sun
Management Centre Modules in Sun Management Center 3.6 User's Guide.

Configuration de Oracle Solaris Cluster Manager


Oracle Solaris Cluster Manager est une interface graphique que vous pouvez utiliser pour
administrer et visualiser l'tat de tous les aspects des priphriques de quorum, groupes IPMP,
composants d'interconnexion et priphriques globaux. Vous pouvez utiliser l'interface
graphique la place de nombreuses commandes de l'interface de ligne de commande de Oracle
Solaris Cluster.
La procdure d'installation d'Oracle Solaris Cluster Manager sur votre cluster est indique dans
le Guide dinstallation du logiciel Oracle Solaris Cluster. L'aide en ligne Oracle Solaris Cluster
Manager contient des instructions concernant diverses tches ralisables par le biais de
l'interface graphique.
Cette section contient les procdures suivantes pour la reconfiguration de Oracle Solaris
Cluster Manager aprs l'installation initiale.

Paramtrage des rles RBAC la page 363


Modification de l'adresse de serveur pour Oracle Solaris Cluster Manager la page 365
Renouvellement des cls de scurit du conteneur d'agent commun la page 365

Paramtrage des rles RBAC


Oracle Solaris Cluster Manager utilise RBAC pour dterminer qui a le droit d'administrer le
cluster. Plusieurs profils de droits RBAC sont inclus dans le logiciel Oracle Solaris Cluster. Vous
pouvez assigner ces profils de droits aux utilisateurs ou aux rles pour donner aux utilisateurs
diffrents niveaux d'accs Oracle Solaris Cluster. Pour plus d'informations sur la faon de
paramtrer et grer RBAC pour Oracle Solaris Cluster, reportez-vous au Chapitre 2, Oracle
Solaris Cluster et RBAC.

Chapitre 13 Administration de Oracle Solaris Cluster avec les interfaces graphiques

363

Configuration de Oracle Solaris Cluster Manager

Utilisation du conteneur d'agent commun pour


modifier les numros de port des services ou agents
de gestion
Si les numros de port de votre conteneur d'agent commun entrent en conflit avec d'autres
processus en cours d'excution, vous pouvez utiliser la commande cacaoadm pour modifier le
numro de port du service ou de l'agent de gestion sur chaque nud du cluster.

Sur tous les nuds de cluster, arrtez le dmon de gestion conteneur d'agent commun.
# /opt/bin/cacaoadm stop

Arrtez la console Web Sun Java.


# /usr/sbin/smcwebserver stop

Rcuprez le numro de port actuellement utilis par le service du conteneur d'agent commun
avec la sous-commande get-param.
# /opt/bin/cacaoadm get-param parameterName

Vous pouvez utiliser la commande cacaoadm pour modifier les numros de port des services du
conteneur d'agent commun suivants. La liste suivante fournit des exemples de services et
d'agents pouvant tre grs par le conteneur d'agent commun, et le nom des paramtres
correspondants.

Port de connecteur JMX

jmxmp-connector-port

Port SNMP

snmp-adapter-port

Port de droutement SNMP

snmp-adapter-trap-port

Port de flux de commandes

commandstream-adapter-port

Modifiez un numro de port.


# /opt/bin/cacaoadm set-param parameterName=parameterValue
=parameterValue

Rptez l'tape 4 sur chaque nud du cluster.

Redmarrez la console Web Sun Java.


# /usr/sbin/smcwebserver start

Redmarrez le dmon de gestion conteneur d'agent commun sur tous les nuds de cluster.
# /opt/bin/cacaoadm start

364

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de Oracle Solaris Cluster Manager

Modification de l'adresse de serveur pour Oracle


Solaris Cluster Manager
Si vous changez le nom d'hte d'un nud de cluster, vous devez modifier l'adresse d'o Oracle
Solaris Cluster Manager s'excute. Le certificat de scurit par dfaut est gnr en fonction du
nom d'hte du nud au moment de l'installation de Oracle Solaris Cluster Manager. Pour
rinitialiser le nom d'hte du nud, supprimez le fichier de certificat keystore, puis
redmarrez Oracle Solaris Cluster Manager. Oracle Solaris Cluster Manager cre
automatiquement un nouveau fichier de certificat avec le nouveau nom d'hte. Vous devez
effectuer cette procdure sur les nuds dont le nom d'hte a t modifi.

Supprimez le fichier de certificat keystore situ sous /etc/opt/webconsole.


# cd /etc/opt/webconsole
# pkgrm keystore

Redmarrez Oracle Solaris Cluster Manager.


# /usr/sbin/smcwebserver restart

Renouvellement des cls de scurit du conteneur


d'agent commun
Oracle Solaris Cluster Manager utilise des techniques de chiffrement fort afin d'assurer une
communication scurise entre le serveur Web Oracle Solaris Cluster Manager et chaque nud
de cluster.
Les cls utilises par Oracle Solaris Cluster Manager sont stockes sous le rpertoire
/etc/opt/SUNWcacao/security de chaque nud. Elles doivent tre identiques sur tous les
nuds de cluster.
Dans des conditions de fonctionnement normales, ces cls peuvent conserver leur
configuration par dfaut. Si vous modifiez le nom d'hte d'un nud de cluster, vous devez
gnrer de nouvelles cls de scurit pour le conteneur d'agent commun. Il se peut galement
que vous ayez besoin de renouveler ces cls suite une compromission de cl (compromission
de la racine de l'ordinateur, par exemple). Pour renouveler les cls de scurit, suivez la
procdure suivante.

Sur tous les nuds de cluster, arrtez le dmon de gestion conteneur d'agent commun.
# /opt/bin/cacaoadm stop

Renouvelez les cls de scurit sur un nud du cluster.


phys-schost-1# /opt/bin/cacaoadm create-keys --force

Chapitre 13 Administration de Oracle Solaris Cluster avec les interfaces graphiques

365

Dmarrage du logiciel Oracle Solaris Cluster Manager

Redmarrez le dmon de gestion conteneur d'agent commun sur le nud sur lequel vous avez
renouvel les cls de scurit.
phys-schost-1# /opt/bin/cacaoadm start

Crez un fichier tar partir du rpertoire /etc/cacao/instances/default.


phys-schost-1# cd /etc/cacao/instances/default
phys-schost-1# tar cf /tmp/SECURITY.tar security

Copiez le fichier /tmp/Security.tar sur chaque nud du cluster.

Extrayez les fichiers de scurit pour chaque nud sur lequel vous avez copi le fichier
/tmp/SECURITY.tar.
Tous les fichiers de scurit qui existent dj dans le rpertoire /etc/opt/SUNWcacao/ sont
remplacs.
phys-schost-2# cd /etc/cacao/instances/default
phys-schost-2# tar xf /tmp/SECURITY.tar

Supprimez le fichier /tmp/SECURITY.tar de chaque nud du cluster.


Vous devez supprimer chaque copie du fichier tar afin d'viter tout risque de scurit.
phys-schost-1# rm /tmp/SECURITY.tar
phys-schost-2# rm /tmp/SECURITY.tar

Redmarrez le dmon de gestion conteneur d'agent commun sur tous les nuds.
phys-schost-1# /opt/bin/cacaoadm start

Redmarrez Oracle Solaris Cluster Manager.


# /usr/sbin/smcwebserver restart

Dmarrage du logiciel Oracle Solaris Cluster Manager


L'interface graphique d'Oracle Solaris Cluster Manager fournit un moyen facile d'administrer
certains aspects du logiciel Oracle Solaris Cluster. Pour plus d'informations, consultez l'aide en
ligne de &fmv426.
La console Web Sun Java et le conteneur d'agent commun dmarrent automatiquement lorsque
vous initialisez le cluster. Si vous avez besoin de vrifier que la console Web Sun Java et le
conteneur d'agent commun sont en cours d'excution, reportez-vous la section Dpannage
immdiatement aprs avoir effectu cette procdure.

366

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage du logiciel Oracle Solaris Cluster Manager

Dmarrage de Oracle Solaris Cluster Manager


Cette procdure explique comment dmarrer Oracle Solaris Cluster Manager sur votre cluster.

Souhaitez-vous accder Oracle Solaris Cluster Manager en utilisant le nom d'utilisateur et le


mot de passe root ou souhaitez-vous dfinir un nouveau nom d'utilisateur et mot de passe ?

Si vous souhaitez accder Oracle Solaris Cluster Manager en utilisant le nom d'utilisateur
racine du nud de cluster, passez l'tape 5.

Si vous souhaitez dfinir un autre nom d'utilisateur et mot de passe, passez l'tape 3 pour
configurer les comptes utilisateur Oracle Solaris Cluster Manager.

Connectez-vous en tant que superutilisateur sur un nud du cluster.

Crez un compte utilisateur pour accder au cluster par le biais de Oracle Solaris Cluster
Manager.
Utilisez la commande useradd(1M) pour ajouter un compte utilisateur au systme. Vous devez
configurer au moins un compte utilisateur pour accder Oracle Solaris Cluster Manager si
vous n'utilisez pas le compte systme root. Les comptes utilisateur Oracle Solaris Cluster
Manager sont utiliss uniquement par Oracle Solaris Cluster Manager. Ces comptes ne
correspondent aucun compte utilisateur du SE Oracle Solaris. La cration et l'attribution d'un
rle RBAC un compte utilisateur sont dcrites plus en dtails dans la section Cration et
assignation d'un rle RBAC avec un profil de droits de gestion Oracle Solaris Cluster
la page 53.
Remarque Les utilisateurs qui ne disposent pas d'un compte utilisateur sur un nud particulier

ne peuvent pas accder au cluster par le biais de Oracle Solaris Cluster Manager partir de ce
nud, et les utilisateurs ne peuvent pas grer ce nud par le biais d'un autre nud de cluster
auquel ils ont accs.
4

(Facultatif) Reprez l'tape 3 pour configurer des comptes utilisateur supplmentaires.

Ouvrez une fentre de navigateur partir de la console d'administration ou de tout autre


ordinateur en dehors du cluster.

Assurez-vous que la taille du disque du navigateur et de la mmoire cache est dfinie sur une
valeur suprieure 0.

Assurez-vous que Java et Javascript sont activs dans le navigateur.

Chapitre 13 Administration de Oracle Solaris Cluster avec les interfaces graphiques

367

Dmarrage du logiciel Oracle Solaris Cluster Manager

partir du navigateur, connectez-vous au port Oracle Solaris Cluster Manager partir d'un
nud du cluster.
Le numro de port par dfaut est 6789.
https://node:6789/

Acceptez tous les certificats prsents par le navigateur Web.


La page de connexion de la console Web Java s'affiche.

10

Saisissez le nom d'utilisateur et le mot de passe que vous souhaitez utiliser pour accder
Oracle Solaris Cluster Manager.

11

Cliquez sur le bouton Log In (Se connecter).


La page de lancement de la console Web Java s'affiche.

12

Cliquez sur le lien Oracle Solaris Cluster Manager situ sous la catgorie Systems.

13

Acceptez tous les certificats supplmentaires prsents par le navigateur Web.

14

Si vous ne pouvez pas vous connecter Oracle Solaris Cluster Manager, effectuez les
sous-tapes suivantes pour dterminer si un profil de rseau restreint a t choisi lors de
l'installation de Solaris et pour restaurer l'accs externe la console Web Java.
Si vous choisissez un profil de rseau restreint au cours de l'installation d'Oracle Solaris, l'accs
externe au service de la console Web Sun Java est restreint. Ce rseau est requis pour utiliser
l'interface graphique d'Oracle Solaris Cluster Manager.
a. Dterminez si le service de la console Web Java est restreint ou non.
# svcprop /system/webconsole:console | grep tcp_listen

Si la valeur de la proprit tcp_listen n'est pas dfinie sur True (Vrai), le service de la
console Web est restreint.
b. Restaurez l'accs externe au service de la console Web Java.
# svccfg
svc:> select system/webconsole
svc:/system webconsole> setprop options/tcp_listen=true
svc:/system/webconsole> quit
# /usr/sbin/smcwebserver restart

c. Vrifiez que le service est disponible.


# netstat -a | grep 6789

Si le service est disponible, la sortie de la commande renvoie une entre pour 6789, qui
correspond au numro de port utilis pour se connecter la console Web Java.

368

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Dmarrage du logiciel Oracle Solaris Cluster Manager

Erreurs
frquentes

Une fois cette procdure effectue, si vous ne pouvez pas vous connecter Oracle Solaris
Cluster Manager, dterminez si la console Web Sun Java est en cours d'excution en saisissant la
commande /usr/sbin/smcwebserver status. Si la console Web Sun Java n'est pas en cours
d'excution, dmarrez-la manuellement par le biais de la commande /usr/sbin/smcwebserver
start. Si vous ne pouvez toujours pas vous connecter Oracle Solaris Cluster Manager, vrifiez
que le conteneur d'agent commun est en cours d'excution en saisissant la commande
usr/sbin/cacaoadm status. Si le conteneur d'agent commun n'est pas en cours d'excution,
dmarrez-le manuellement en saisissant la commande /usr/sbin/cacaoadm start.

Chapitre 13 Administration de Oracle Solaris Cluster avec les interfaces graphiques

369

370

A N N E X E

exemple

Configuration de la rplication de donnes base sur les htes


l'aide du logiciel Sun StorageTek Availability Suite
Cette annexe fournit une alternative la rplication base sur les htes qui n'utilise pas Oracle
Solaris Cluster Geographic Edition. Oracle vous recommande d'utiliser Oracle Solaris Cluster
Geographic Edition pour la rplication base sur les htes pour simplifier la configuration et
l'opration de la rplication base sur les htes au sein d'un cluster. Reportez-vous la section
Prsentation de la rplication de donnes la page 86.
L'exemple de cette annexe montre la procdure de configuration de la rplication de donnes
base sur les htes entre des clusters l'aide du logiciel Sun StorageTek Availability Suite 4.0.
L'exemple illustre une configuration en cluster complte pour une application NFS qui fournit
des informations dtailles propos de la ralisation des tches individuelles. Toutes les tches
doivent tre effectues dans le nud votant du cluster global. L'exemple n'inclut pas toutes les
tapes requises par d'autres applications ou d'autres configurations en cluster.
Si vous utilisez le contrle d'accs bas sur les rles (RBAC) au lieu du superutilisateur pour
accder aux nuds du cluster, assurez-vous de disposer des droits RBAC fournissant
l'autorisation pour toutes les commandes de Oracle Solaris Cluster. Cette srie de procdures de
rplication de donnes ncessite les autorisations RBAC de Oracle Solaris Cluster suivantes si
l'utilisateur n'est pas un superutilisateur :

solaris.cluster.modify
solaris.cluster.admin
solaris.cluster.read

Pour plus d'informations propos de l'utilisation des rles RBAC, reportez-vous au System
Administration Guide: Security Services . Reportez-vous aux pages de manuel de Oracle Solaris
Cluster pour les autorisations RBAC que ncessite chaque sous-commande de Oracle Solaris
Cluster.
371

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Prsentation du logiciel Sun StorageTek Availability


Suite dans un cluster
Cette section prsente la tolrance de sinistre et dcrit les mthodes de rplication de donnes
utilises par le logiciel Sun StorageTek Availability Suite.
La tolrance de sinistre correspond l'aptitude d'un systme restaurer une application sur un
cluster alternatif en cas de dfaillance du cluster principal. La tolrance de sinistre se base sur la
rplication de donnes et le basculement. Le basculement dsigne le dplacement automatique
d'un groupe de ressources ou d'un groupe de priphriques d'un cluster principal un cluster
secondaire. En cas de dfaillance du cluster principal, les applications et les donnes sont
immdiatement disponibles sur le cluster secondaire.

Mthodes de rplication de donnes utilises par le logiciel Sun


StorageTek Availability Suite
Cette section dcrit la mthode de rplication par miroir distant et la mthode d'instantan
ponctuel utilises par le logiciel Sun StorageTek Availability Suite. Ce logiciel utilise les
commandes sndradm(1RPC) et iiadm(1II) pour rpliquer des donnes. Pour plus
d'informations propos de ces commandes, reportez-vous l'un des manuels suivants :

Rplication par miroir distant


La Figure A1 montre la rplication par miroir distant. Les donnes du volume principal du
disque principal sont rpliques sur le volume principal du disque secondaire par le biais d'une
connexion TCP/IP. Un bitmap miroir distant rpertorie les diffrences entre les volumes
principaux du disque principal et du disque secondaire.

372

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

FIGURE A1

Rplication par miroir distant

Disque principal

Disque secondaire

Les blocs de donnes


mis jour sont rgulirement
copis sur le disque secondaire
Volume
principal

Volume
principal

Volume bitmap
de miroir distant

Volume bitmap
de miroir distant

Les diffrences entre


les volumes principaux
du disque principal et
du disque secondaire sont
rpertories sur le volume
bitmap de miroir distant

La rplication par miroir distant peut tre effectue de manire synchrone en temps rel ou non.
Chaque volume dfinit dans chaque cluster peut tre configur individuellement pour la
rplication synchrone ou la rplication asynchrone.

Pour la rplication de donnes synchrone, une opration d'criture est uniquement


confirme comme tant termin lorsque le volume distant a t mis jour.

Pour la rplication de donnes asynchrone, une opration d'criture est confirme comme
tant termin avant que le volume distant ait t mis jour. La rplication de donnes
asynchrone fournit une plus grande flexibilit sur de longues distances et une connexion
faible dbit.

Instantan ponctuel
La Figure A2 montre un instantan ponctuel. Les donnes du volume principal de chaque
disque sont copies sur le volume en double du mme disque. Le bitmap ponctuel rpertorie les
diffrences entre le volume principal et le volume en double. Lorsque les donnes sont copies
sur le volume en double, le bitmap ponctuel est rinitialis.

Annexe A exemple

373

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

FIGURE A2

Instantan ponctuel

Disque principal

Disque secondaire

Les blocs de donnes


mis jour sont rgulirement
copis sur le disque en double
Volume
principal

Volume
principal

Volume
en double

Volume
en double

Volume
bitmap ponctuel

Volume
bitmap ponctuel
Les diffrences entre
le volume principal et
le volume en double
sont rpertories sur
le volume bitmap ponctuel

La rplication dans l'exemple de configuration


La Figure A3 montre l'utilisation de la rplication par miroir distant et de l'instantan ponctuel
dans cet exemple de configuration.

374

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

FIGURE A3

La rplication dans l'exemple de configuration

Disque principal

Disque secondaire

Rplication par miroir distant


Volume
principal

Volume
principal

Volume
en double

Volume
en double

Rplication ponctuelle

Volume
bitmap ponctuel

Volume
bitmap ponctuel

Volume bitmap
de miroir distant

Volume bitmap
de miroir distant

Directives pour la configuration de la rplication de


donnes base sur les htes entre les clusters
Cette section fournit des directives pour la configuration de la rplication de donnes entre les
clusters. Cette section contient galement des conseils pour la configuration des groupes de
ressources de rplication et des groupes de ressources d'application. Utilisez ces directives lors
de la configuration de la rplication de donnes pour votre cluster.
Cette section traite des sujets suivants :

Configuration des groupes de ressources de rplication la page 376

Configuration des groupes de ressources d'application la page 376

Configuration des groupes de ressources pour une application de basculement


la page 377
Configuration des groupes de ressources pour une application volutive la page 378

Directives pour la gestion d'un basculement la page 379

Annexe A exemple

375

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Configuration des groupes de ressources de rplication


Les groupes de ressources de rplication colocalise le groupe de priphriques sous le contrle
du logiciel Sun StorageTek Availability Suite l'aide de la ressource de nom d'hte logique. Un
groupe de ressources de rplication doit disposer des caractristiques suivantes :

tre un groupe de ressources de basculement


Une ressource de basculement peut uniquement tre excute sur un seul nud la fois. En
cas de basculement, les ressources de basculement prennent part au basculement.

Avoir une ressource de nom d'hte logique


Le nom d'hte logique doit tre hberg par le cluster principal. Aprs un basculement, le
nom d'hte logique doit tre hberg par le cluster secondaire. Le DNS (Domain Name
System) est utilis pour associer le nom d'hte logique un cluster.

Avoir une ressource HAStoragePlus.


La ressource HAStoragePlus force le basculement du groupe de priphriques lorsque le
groupe de ressources de rplication est commut ou bascul. Le logiciel Oracle Solaris
Cluster force galement le basculement du groupe de ressources de rplication lorsque le
groupe de priphriques est commut. De cette manire, le groupe de ressources de
rplication et le groupe de priphriques sont toujours colocaliss ou contrls par le mme
nud.
Les proprits d'extension suivantes doivent tre dfinies dans la ressource HAStoragePlus :

GlobalDevicePaths. Cette proprit d'extension dfinit le groupe de priphriques auquel


appartient un volume.

AffinityOn property = True. Cette proprit d'extension provoque la commutation ou le


basculement du groupe de priphriques lors de la commutation ou du basculement du
groupe de ressources de rplication. Cette fonction s'appelle une commutation
d'analogie.

ZPoolsSearchDir. Cette proprit d'extension est ncessaire pour l'utilisation du systme


de fichiers ZFS.

Pour plus d'informations propos de HAStoragePlus, reportez-vous la page de manuel


SUNW.HAStoragePlus(5).

tre nomm d'aprs le groupe de priphriques avec lequel il est colocalis, suivi de
-stor-rg
Par exemple, devgrp-stor-rg.

tre en ligne sur le cluster principal et le cluster secondaire

Configuration des groupes de ressources d'application


Pour tre hautement disponible, une application doit tre gre en tant que ressource dans un
groupe de ressources d'application. Un groupe de ressources d'application peut tre configur
pour une application de basculement ou une application volutive.
376

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Les ressources d'application et les groupes de ressources d'application configurs sur le cluster
principal doivent aussi tre configurs sur le cluster secondaire. De plus, les donnes auxquelles
accdent les ressources d'application doivent tre rpliques sur le cluster secondaire.
Cette section fournit des directives pour la configuration des groupes de ressources
d'application suivants :

Configuration des groupes de ressources pour une application de basculement


la page 377
Configuration des groupes de ressources pour une application volutive la page 378

Configuration des groupes de ressources pour une application de basculement


Dans une application de basculement, une application s'excute sur un nud la fois. Si ce
nud choue, l'application bascule sur un autre nud du mme cluster. Un groupe de
ressources pour une application de basculement doit disposer des caractristiques suivantes :

Avoir une ressource HAStoragePlus pour forcer le basculement du groupe de priphriques


lorsque le groupe de ressources d'application est commut ou bascul
Le groupe de priphriques est colocalis avec le groupe de ressources de rplication et le
groupe de ressources d'application. Par consquent, le basculement du groupe de ressources
d'application force le basculement du groupe de priphriques et du groupe de ressources de
rplication. Le groupe de ressources d'application, le groupe de ressources de rplication et
le groupe de priphriques sont contrls par le mme nud.
Notez cependant qu'un basculement du groupe de priphriques ou du groupe de
ressources de rplication ne provoque pas le basculement du groupe de ressources
d'application.

Si les donnes d'application sont globalement montes, la prsence d'une ressource


HAStoragePlus dans le groupe de ressources d'application n'est pas ncessaire mais
recommande.

Si les donnes d'application sont montes localement, la prsence d'une ressource


HAStoragePlus dans le groupe de ressources d'application est ncessaire.
Sans une ressource HAStoragePlus, le basculement du groupe de ressources
d'application ne dclenchera pas le basculement du groupe de ressources de rplication
et du groupe de priphriques. Aprs un basculement, le groupe de ressources
d'application, le groupe de ressources de rplication et le groupe de priphriques ne
seront pas contrls par le mme nud.

Pour plus d'informations propos de HAStoragePlus, reportez-vous la page de manuel


SUNW.HAStoragePlus(5).

Doit tre en ligne sur le cluster principal et hors ligne sur le cluster secondaire
Le groupe de ressources d'application doit tre mis en ligne sur le cluster secondaire lorsque
le cluster secondaire prend la place du cluster principal.

Annexe A exemple

377

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

La Figure A4 illustre la configuration d'un groupe de ressources d'application et d'un groupe


de ressources de rplication dans une application de basculement.

FIGURE A4

Configuration des groupes de ressources dans une application de basculement


Cluster principal

Cluster secondaire

Groupe de ressources
d'application

Groupe de ressources
d'application

Ressource
d'application

Ressource
d'application

Ressource
HAStoragePlus

Ressource
HAStoragePlus

Nom d'hte logique

Nom d'hte logique

Groupe de ressources
de rplication
Ressource
HAStoragePlus

Nom d'hte
logique

Groupe de ressources
de rplication
Rplication
par miroir distant

Ressource
HAStoragePlus

Nom d'hte
logique

Configuration des groupes de ressources pour une application volutive


Dans une application volutive, une application s'excute sur plusieurs nuds pour crer un
service logique unique. Si un nud excutant une application volutive choue, le basculement
ne s'effectue pas. L'application continue de s'excuter sur les autres nuds.
Lorsqu'une application volutive est gre en tant que ressource dans un groupe de ressources
d'application, il n'est pas ncessaire de colocaliser le groupe de ressources d'application et le
groupe de priphriques. Par consquent, il n'est pas ncessaire de crer une ressource
HAStoragePlus pour le groupe de ressources d'application.
378

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Un groupe de ressources pour une application volutive doit disposer des caractristiques
suivantes :

Avoir une dpendance au groupe de ressources d'adresse partage


Les nuds qui excutent l'application volutive utilisent l'adresse partage pour distribuer
les donnes entrantes.

tre en ligne sur le cluster principal et hors ligne sur le cluster secondaire

La Figure A5 illustre la configuration des groupes de ressources dans une application


volutive.

FIGURE A5

Configuration des groupes de ressources dans une application volutive


Cluster principal

Cluster secondaire

Groupe de ressources
d'application

Groupe de ressources
d'application

Ressource
d'application

Ressource
d'application

Groupe de ressources
d'adresse partage

Groupe de ressources
d'adresse partage

Adresse partage

Adresse partage

Groupe de ressources
de rplication
Ressource
HAStoragePlus

Groupe de ressources
de rplication
Rplication par
miroir distant

Nom d'hte
logique

Ressource
HAStoragePlus

Nom d'hte
logique

Directives pour la gestion d'un basculement


Si le cluster principal choue, l'application doit tre commute sur le cluster secondaire ds que
possible. Pour activer le cluster secondaire pour qu'il rcupre, le DNS doit tre mis jour.
Annexe A exemple

379

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Le DNS associe un client au nom d'hte logique d'une application. Aprs un basculement, le
mappage DNS du cluster principal doit tre supprim et un mappage DNS doit tre cr pour le
cluster secondaire. La Figure A6 montre comment un DNS mappe un client un cluster.

FIGURE A6

Mappage DNS d'un client un cluster

DNS

Internet

IP@ pour le nom


IP@ pour le nom
d'hte logique
d'hte logique
du groupe de
du groupe de
ressources d'application ressources d'application
Cluster
principal

Cluster
secondaire

Pour mettre le DNS jour, utilisez la commande nsupdate. Pour plus d'informations, voir la
page de manuel nsupdate(1M). Pour un exemple de gestion d'un basculement, reportez-vous
la section Exemple de gestion d'un basculement la page 405.
Aprs rparation, le cluster principal peut tre remis en ligne. Pour repasser au cluster principal
d'origine, effectuez les tches suivantes :
1. Synchronisez le cluster principal au cluster secondaire pour garantir que le volume principal
est jour.
2. Mettez le DNS jour pour que les clients puissent accder l'application sur le cluster
principal.

Liste des tches : exemple d'une configuration de


rplication de donnes
La Tableau A1 rpertorie dans cet exemple les tches de configuration de la rplication de
donnes pour une application NFS l'aide du logiciel Sun StorageTek Availability Suite.

380

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

TABLEAU A1

Liste des tches : exemple d'une configuration de rplication de donnes

Tche

Instructions

1. Connectez-vous et installez les clusters.

Connexion et installation des clusters la page 381

2. Configurez les groupes de priphrique, les


systmes de fichiers pour l'application NFS et les
groupes de ressources sur le cluster principal et le
cluster secondaire.

Exemple de configuration des groupes de


priphriques et des groupes de ressources
la page 383

3. Activez la rplication de donnes sur le cluster


principal et le cluster secondaire.

Activation de la rplication sur le cluster principal


la page 397
Activation de la rplication sur le cluster secondaire
la page 399

4. Effectuez la rplication de donnes.

Ralisation d'une rplication par miroir distant


la page 400
Ralisation d'un instantan ponctuel la page 402

5. Vrifiez la configuration de la rplication de


donnes.

Vrification de la configuration correcte de la


rplication la page 403

Connexion et installation des clusters


La Figure A7 illustre la configuration en cluster utilise par l'exemple de configuration. Le
cluster secondaire de l'exemple de configuration contient un nud, mais d'autres
configurations en cluster peuvent tre utilises.

Annexe A exemple

381

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Exemple de configuration en cluster

FIGURE A7

Cluster principal

Commutateurs

Nud A

Nud B

Internet
Client
Nud C
Commutateurs

Cluster secondaire

La Tableau A2 rcapitule le matriel et les logiciels requis par l'exemple de configuration. Le


logiciel Oracle Solaris Cluster pour SE Oracle Solaris et le logiciel gestionnaire de volumes
doivent tre installs sur les nuds du cluster avant le logiciel Sun StorageTek Availability Suite
et les patchs.
TABLEAU A2

Exigences matrielles et logicielles

Matriel ou logiciel

Configuration requise

Matriel de nud

Le logiciel Sun StorageTek Availability Suite est pris en charge sur tous les
serveurs utilisant le SE Oracle Solaris.
Pour plus d'information propos du matriel utiliser, reportez-vous au
Oracle Solaris Cluster 3.3 Hardware Administration Manual.

Espace disque

382

Environ 15 Mo.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

TABLEAU A2

Exigences matrielles et logicielles

(Suite)

Matriel ou logiciel

Configuration requise

SE Oracle Solaris

Les versions du SE Oracle Solaris prises en charge par le logiciel Oracle


Solaris Cluster.
Tous les nuds doivent utiliser la mme version du SE Oracle Solaris.
Pour plus d'informations sur l'installation, reportez-vous au Guide
dinstallation du logiciel Oracle Solaris Cluster.

Logiciel Oracle Solaris Cluster

Logiciel Oracle Solaris Cluster 3.3.


Pour plus d'informations sur l'installation, reportez-vous au Guide
dinstallation du logiciel Oracle Solaris Cluster.

Logiciel gestionnaire de volumes

Logiciel Solaris Volume Manager ou Veritas Volume Manager (VxVM).


Tous les nuds doivent utiliser la mme version du logiciel gestionnaire
de volumes.
Pour plus d'informations propos de l'installation, reportez-vous au
Chapitre 4, Configuration du logiciel Solaris Volume Manager du Guide
dinstallation du logiciel Oracle Solaris Cluster et au Chapitre 5,
Installation et configuration de Veritas Volume Manager du Guide
dinstallation du logiciel Oracle Solaris Cluster

Logiciel Sun StorageTek


Availability Suite

Pour plus d'informations propos de l'installation du logiciel,


reportez-vous aux manuels d'installation de votre version du logiciel Sun
StorageTek Availability Suite :

Documentation Sun StorageTek Availability Suite 4.0 Sun


StorageTek Availability

Patchs du logiciel Sun StorageTek Pour plus d'informations propos des derniers patchs, reportez-vous
Availability Suite
l'adresse http://www.sunsolve.com.

Exemple de configuration des groupes de


priphriques et des groupes de ressources
Cette section dcrit la configuration des groupes de priphriques et des groupes de ressources
pour une application NFS. Pour des informations supplmentaires, reportez-vous aux sections
Configuration des groupes de ressources de rplication la page 376 et Configuration des
groupes de ressources d'application la page 376.
Cette section contient les procdures suivantes :

Configuration d'un groupe de priphriques sur le cluster principal la page 385


Configuration d'un groupe de priphrique sur le cluster secondaire la page 386
Configuration du systme de fichiers sur le cluster principal pour l'application NFS
la page 387

Annexe A exemple

383

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Configuration du systme de fichier sur le cluster secondaire pour l'application NFS


la page 388
Cration d'un groupe de ressources de rplication sur le cluster principal la page 390
Cration d'un groupe de ressources de rplication sur le cluster secondaire la page 391
Cration d'un groupe de ressources d'application NFS sur le cluster primaire la page 393
Cration d'un groupe de ressources d'application NFS sur le cluster secondaire la page 395
Vrification de la configuration correcte de la rplication la page 403

Le tableau suivant rpertorie les noms des groupes et des ressources crs par l'exemple de
configuration.
TABLEAU A3

Rcapitulatif des groupes et des ressources dans l'exemple de configuration

Groupe ou ressource

Nom

Description

Groupe de priphriques

devgrp

Groupe de priphriques

Groupe de ressources de
rplication et ressources

devgrp-stor-rg

Le groupe de ressources de rplication

lhost-reprg-prim,
lhost-reprg-sec

Les noms d'htes logiques pour le groupe de


ressources de rplication du cluster
principal et du cluster secondaire

devgrp-stor

La ressource HAStoragePlus pour le groupe


de ressources de rplication

nfs-rg

Le groupe de ressources d'application

lhost-nfsrg-prim,
lhost-nfsrg-sec

Les noms d'htes logiques pour le groupe de


ressources d'application du cluster principal
et du cluster secondaire

nfs-dg-rs

La ressource HAStoragePlus pour


l'application

nfs-rs

La ressource NFS

Groupe de ressources
d'application et
ressources

l'exception de devgrp-stor-rg, les noms des groupes et des ressources sont des exemples de
noms qui peuvent tre modifis en fonction des besoins. Le groupe de ressources de rplication
doit comprendre un nom au format devicegroupname-stor-rg.
Cette exemple de configuration utilise le logiciel VxVM. Pour plus d'informations propos du
&logiciel Solaris Volume Manager, reportez-vous au Chapitre 4, Configuration du logiciel
Solaris Volume Manager du Guide dinstallation du logiciel Oracle Solaris Cluster.
La figure suivant illustre les volumes crs dans le groupe de priphriques.

384

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

FIGURE A8

Volumes pour le groupe de priphriques

Volume 1:
principal
Volume 2:
en double
Volume 3:
bitmap ponctuel
Volume 4:
bitmap de miroir distant
Volume 5:
fichier dfstab

Remarque Les volumes dfinis dans cette procdure ne doivent pas comprendre de zone prive

d'tiquette de disque, par exemple, cylindre 0. Le logiciel VxVM gre cette contrainte
automatiquement.

Configuration d'un groupe de priphriques sur le cluster principal


Avant de
commencer

Assurez-vous d'avoir effectu les tches suivantes :

Lire les directives et les conditions requises dans les sections suivantes :

Prsentation du logiciel Sun StorageTek Availability Suite dans un cluster la page 372
Directives pour la configuration de la rplication de donnes base sur les htes entre les
clusters la page 375

Dfinir les clusters principal et secondaire comme dcrit dans Connexion et installation
des clusters la page 381.

Annexe A exemple

385

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Accdez nodeA en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify.
Le nud nodeA est le premier nud du cluster principal. Pour un rappel de quel nud
correspond nodeA, reportez-vous la Figure A7.

Crez un groupe de disques sur nodeA qui contient le volume 1, vol01 au volume 4, vol04.
Pour plus d'informations propos de la configuration d'un groupe de disques l'aide du logiciel
VxVM, reportez-vous au Chapitre 5, Installation et configuration de Veritas Volume
Manager du Guide dinstallation du logiciel Oracle Solaris Cluster.

Configurez le groupe de disques pour crer un groupe de priphriques.


nodeA# cldevicegroup create -t vxvm -n nodeA nodeB devgrp

Le groupe de priphriques se nomme devgrp.


4

Crez le systme de fichiers pour le groupe de priphriques.


nodeA# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null
nodeA# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null

Aucun systme de fichiers n'est requis pour vol03 ou vol04 qui sont utiliss comme volumes
bruts la place.
tapes suivantes

Rendez-vous sur Configuration d'un groupe de priphrique sur le cluster secondaire


la page 386.

Configuration d'un groupe de priphrique sur le cluster secondaire


Avant de
commencer

Effectuez la procdure Configuration d'un groupe de priphriques sur le cluster principal


la page 385

Accdez nodeC en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify.

Crez un groupe de disques sur nodeC qui contient quatre volumes : volume 1, vol01 volume
4, vol04.

Configurez le groupe de disques pour crer un groupe de priphriques.


nodeC# cldevicegroup create -t vxvm -n nodeC devgrp

Le groupe de priphriques se nomme devgrp.


4

Crez le systme de fichiers pour le groupe de priphriques.


nodeC# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null
nodeC# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null

386

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Aucun systme de fichiers n'est requis pour vol03 ou vol04 qui sont utiliss comme volumes
bruts la place.
tapes suivantes

Rendez-vous la section Configuration du systme de fichiers sur le cluster principal pour


l'application NFS la page 387

Configuration du systme de fichiers sur le cluster principal pour

l'application NFS
Avant de
commencer

Effectuez la procdure dans Configuration d'un groupe de priphrique sur le cluster


secondaire la page 386

Sur nodeA et nodeB, connectez-vous en tant que superutilisateur ou utilisez un rle fournissant
une autorisation RBAC solaris.cluster.admin.

Sur nodeA et nodeB, crez un rpertoire de point de montage pour le systme de fichiers NFS.
Par exemple :
nodeA# mkdir /global/mountpoint

Sur nodeA et nodeB, configurez le volume principal monter automatiquement sur le point de
montage.
Ajoutez ou remplacez le texte suivant dans le fichier /etc/vfstab sur nodeA et nodeB. Le texte
doit se trouver sur une seule ligne.
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \
/global/mountpoint ufs 3 no global,logging

Pour un rappel des noms et des numros de volumes utiliss dans le groupe de priphriques,
reportez-vous la Figure A8.
4

Sur nodeA, crez un volume pour les informations du systme de fichiers utilises par le service
de donnes Oracle Solaris Cluster HA pour NFS.
nodeA# vxassist -g devgrp make vol05 120m disk1

Le volume 5, vol05, contient les informations du systme de fichiers utilises par le service de
donnes Oracle Solaris Cluster HA pour NFS.
5

Sur nodeA, synchronisez nouveau le groupe de priphriques et le logiciel Oracle Solaris


Cluster.
nodeA# cldevicegroup sync devgrp

Sur nodeA, crez le systme de fichiers pour vol05.


nodeA# newfs /dev/vx/rdsk/devgrp/vol05
Annexe A exemple

387

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Sur nodeA et nodeB, crez un point de montage pour vol05.


L'exemple suivant cre le point de montage /global/etc.
nodeA# mkdir /global/etc

Sur nodeA et nodeB, configurez vol05 monter automatiquement sur le point de montage.
Ajoutez ou remplacez le texte suivant dans le fichier /etc/vfstab sur nodeA et nodeB. Le texte
doit se trouver sur une seule ligne.
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \
/global/etc ufs 3 yes global,logging

Montez vol05 sur nodeA.


nodeA# mount /global/etc

10

Permettez aux systmes distants d'accder vol05.


a. Crez un rpertoire nomm /global/etc/SUNW.nfs sur nodeA.
nodeA# mkdir -p /global/etc/SUNW.nfs

b. Crez le fichier /global/etc/SUNW.nfs/dfstab.nfs-rs sur nodeA.


nodeA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs

c. Ajoutez la ligne suivante au fichier /global/etc/SUNW.nfs/dfstab.nfs-rs sur nodeA.


share -F nfs -o rw -d "HA NFS" /global/mountpoint
tapes suivantes

Rendez-vous la section Configuration du systme de fichier sur le cluster secondaire pour


l'application NFS la page 388.

Configuration du systme de fichier sur le cluster secondaire pour

l'application NFS
Avant de
commencer

Effectuez la procdure Configuration du systme de fichiers sur le cluster principal pour


l'application NFS la page 387

Sur nodeC, connectez-vous en tant que superutilisateur ou utilisez un rle fournissant une
autorisation RBAC solaris.cluster.admin.

Sur nodeC, crez un rpertoire de point de montage pour le systme de fichiers NFS.
Par exemple :
nodeC# mkdir /global/mountpoint

388

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Sur nodeC, configurez le volume principal monter automatiquement sur le point de montage.
Ajoutez ou remplacez le texte suivant dans le fichier /etc/vfstab sur nodeC. Le texte doit se
trouver sur une seule ligne.
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \
/global/mountpoint ufs 3 no global,logging

Sur nodeC, crez un volume pour les informations du systme de fichiers utilises par le service
de donnes Oracle Solaris Cluster HA pour NFS.
nodeC# vxassist -g devgrp make vol05 120m disk1

Le volume 5, vol05, contient les informations du systme de fichiers utilises par le service de
donnes Oracle Solaris Cluster HA pour NFS.
5

Sur nodeC, synchronisez nouveau le groupe de priphriques et le logiciel Oracle Solaris


Cluster.
nodeC# cldevicegroup sync devgrp

Sur nodeC, crez le systme de fichiers pour vol05.


nodeC# newfs /dev/vx/rdsk/devgrp/vol05

Sur node C, crez un point de montage pour vol05.


L'exemple suivant cre le point de montage /global/etc.
nodeC# mkdir /global/etc

Sur nodeC, configurez vol05 afin qu'il soit mont automatiquement sur le point de montage.
Ajoutez ou remplacez le texte suivant dans le fichier /etc/vfstab sur nodeC. Le texte doit se
trouver sur une seule ligne.
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \
/global/etc ufs 3 yes global,logging

Montez vol05 sur nodeC.


nodeC# mount /global/etc

10

Permettez aux systmes distants d'accder vol05.


a. Crez un rpertoire nomm /global/etc/SUNW.nfs sur nodeC.
nodeC# mkdir -p /global/etc/SUNW.nfs

b. Crez le fichier /global/etc/SUNW.nfs/dfstab.nfs-rs sur nodeC.


nodeC# touch /global/etc/SUNW.nfs/dfstab.nfs-rs

c. Ajoutez la ligne suivante au fichier /global/etc/SUNW.nfs/dfstab.nfs-rs sur nodeC.


share -F nfs -o rw -d "HA NFS" /global/mountpoint
Annexe A exemple

389

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

tapes suivantes

Rendez-vous la section Cration d'un groupe de ressources de rplication sur le cluster


principal la page 390

Cration d'un groupe de ressources de rplication sur le cluster

principal
Avant de
commencer

Effectuez la procdure Configuration du systme de fichier sur le cluster secondaire pour


l'application NFS la page 388

Accdez nodeA en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify, solaris.cluster.admin et solaris.cluster.read.

Enregistrez le type de ressource SUNW.HAStoragePlus.


nodeA# clresourcetype register SUNW.HAStoragePlus

Crez un groupe de ressources de rplication pour le groupe de priphriques.


nodeA# clresourcegroup create -n nodeA,nodeB devgrp-stor-rg

-n nodeA,nodeB

Permet d'indiquer que les nuds de cluster nodeA et nodeB peuvent


contenir le groupe de ressources de rplication.

devgrp-stor-rg

Le nom du groupe de ressources de rplication. Dans ce nom, devgrp


indique le nom du groupe de priphriques.

Ajoutez une ressource SUNW.HAStoragePlus au groupe de ressources de rplication.


nodeA# clresource create -g devgrp-stor-rg -t SUNW.HAStoragePlus \
-p GlobalDevicePaths=devgrp \
-p AffinityOn=True \
devgrp-stor

-g

Spcifie le groupe de ressources auquel la ressource est ajoute.

-p GlobalDevicePaths=

Permet d'indiquer la proprit d'extension dont dpend le logiciel


Sun StorageTek Availability Suite.

-p AffinityOn=True

Permet d'indiquer que la ressource SUNW.HAStoragePlus doit


effectuer une commutation d'analogie pour les priphriques
globaux et les systmes de fichier du cluster dfinis par -x
GlobalDevicePaths=. Par consquent, lorsque le groupe de
ressources de rplication bascule ou est commut, le groupe de
priphriques associ est commut.

Pour plus d'informations propos de ces proprits d'extension, reportez-vous la page de


manuel SUNW.HAStoragePlus(5).
5

Ajoutez une ressource de nom d'hte logique au groupe de ressources de rplication.


nodeA# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-prim

390

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Le nom d'hte logique pour le groupe de ressources de rplication sur le cluster principal se
nomme lhost-reprg-prim.
6

Activez les ressources, grez le groupe de ressources et mettez-le en ligne.


nodeA# clresourcegroup online -e -M -n nodeA devgrp-stor-rg

-e

Active les ressources associes.

-M

Gre le groupe de ressources.

-n

Indique le nud sur lequel mettre le groupe de ressources en ligne.

Assurez-vous que le groupe de ressources est en ligne.


nodeA# clresourcegroup status devgrp-stor-rg

Examinez le champ de l'tat du groupe de ressources pour confirmer que le groupe de


ressources de rplication est en ligne sur nodeA.
tapes suivantes

Rendez-vous la section Cration d'un groupe de ressources de rplication sur le cluster


secondaire la page 391.

Cration d'un groupe de ressources de rplication sur le cluster

secondaire
Avant de
commencer

Effectuez la procdure Cration d'un groupe de ressources de rplication sur le cluster


principal la page 390.

Accdez nodeC en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify, solaris.cluster.admin et solaris.cluster.read.

Enregistrez SUNW.HAStoragePlus en tant que type de ressource.


nodeC# clresourcetype register SUNW.HAStoragePlus

Crez un groupe de ressources de rplication pour le groupe de priphriques.


nodeC# clresourcegroup create -n nodeC devgrp-stor-rg

create

Cre le groupe de ressources.

-n

Spcifie la liste de nuds pour le groupe de ressources.

devgrp

Le nom du groupe de priphriques.

devgrp-stor-rg

Le nom du groupe de ressources de rplication.

Ajoutez une ressource SUNW.HAStoragePlus au groupe de ressources de rplication.


nodeC# clresource create \
-t SUNW.HAStoragePlus \

Annexe A exemple

391

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

-p GlobalDevicePaths=devgrp \
-p AffinityOn=True \
devgrp-stor

create

Cre la ressource.

-t

Spcifie le type de rplication.

-p GlobalDevicePaths=

Spcifie la proprit d'extension dont dpend le logiciel Sun


StorageTek Availability Suite.

-p AffinityOn=True

Permet d'indiquer que la ressource SUNW.HAStoragePlus doit


effectuer une commutation d'analogie pour les priphriques
globaux et les systmes de fichier du cluster dfinis par -x
GlobalDevicePaths=. Par consquent, lorsque le groupe de
ressources de rplication bascule ou est commut, le groupe de
priphriques associ est commut.

devgrp-stor

La ressource HAStoragePlus pour le groupe de ressources de


rplication.

Pour plus d'informations propos de ces proprits d'extension, reportez-vous la page de


manuel SUNW.HAStoragePlus(5).
5

Ajoutez une ressource de nom d'hte logique au groupe de ressources de rplication.


nodeC# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-sec

Le nom d'hte logique pour le groupe de ressources de rplication sur le cluster principal se
nomme lhost-reprg-sec.
6

Activez les ressources, grez le groupe de ressources et mettez-le en ligne.


nodeC# clresourcegroup online -e -M -n nodeC devgrp-stor-rg

en ligne

Met en ligne.

-e

Active les ressources associes.

-M

Gre le groupe de ressources.

-n

Indique le nud sur lequel mettre le groupe de ressources en ligne.

Assurez-vous que le groupe de ressources est en ligne.


nodeC# clresourcegroup status devgrp-stor-rg

Examinez le champ de l'tat du groupe de ressources pour confirmer que le groupe de


ressources de rplication est en ligne sur nodeC.
tapes suivantes

392

Rendez-vous Cration d'un groupe de ressources d'application NFS sur le cluster primaire
la page 393.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Cration d'un groupe de ressources d'application NFS sur le cluster

primaire
Cette procdure dcrit la cration des groupes de ressources d'application pour NFS. Cette
procdure est spcifique cette application et ne peut pas tre utilise pour un autre type
d'application.
Avant de
commencer

Effectuez la procdure Cration d'un groupe de ressources de rplication sur le cluster


secondaire la page 391.

Accdez nodeA en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify, solaris.cluster.admin et solaris.cluster.read.

Enregistrez SUNW.nfs en tant que type de ressource.


nodeA# clresourcetype register SUNW.nfs

Si SUNW.HAStoragePlus n'a pas t enregistr en tant que type de ressource, enregistrez-le.


nodeA# clresourcetype register SUNW.HAStoragePlus

Crez un groupe de ressources d'application pour le groupe de priphriques devgrp.


nodeA# clresourcegroup create \
-p Pathprefix=/global/etc \
-p Auto_start_on_new_cluster=False \
-p RG_dependencies=devgrp-stor-rg \
nfs-rg

Pathprefix=/global/etc
Spcifie le rpertoire dans lequel les ressources du groupe peuvent crire des fichiers
administratifs.
Auto_start_on_new_cluster=False
Spcifie que le groupe de ressources d'application n'est pas dmarr automatiquement.
RG_dependencies=devgrp-stor-rg
Spcifie le groupe de ressources dont dpend le groupe de ressources d'application. Dans cet
exemple, le groupe de ressources d'application dpend du groupe de ressources de
rplication devgrp-stor-rg.
Si le groupe de ressources d'application est commut vers un nouveau nud principal, le
groupe de ressources de rplication est automatiquement commut. Cependant, si le groupe
de ressources de rplication est commut vers un nouveau nud principal, le groupe de
ressources d'application doit tre commut manuellement.
nfs-rg
Le nom du groupe de ressources d'application.

Annexe A exemple

393

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Ajoutez une ressource SUNW.HAStoragePlus au groupe de ressources d'application.


nodeA# clresource create -g nfs-rg \
-t SUNW.HAStoragePlus \
-p FileSystemMountPoints=/global/mountpoint \
-p AffinityOn=True \
nfs-dg-rs

create
Cre la ressource.
-g
Spcifie le groupe de ressources auquel la ressource est ajoute.
-t SUNW.HAStoragePlus
Spcifie que la ressource est de type SUNW.HAStoragePlus .
-p FileSystemMountPoints=/global/
Spcifie que le point de montage pour le systme de fichiers est global.
-p AffinityOn=True
Permet d'indiquer que la ressource d'application doit effectuer une commutation d'analogie
pour les priphriques globaux et les systmes de fichier du cluster dfinis par -p
GlobalDevicePaths=. Par consquent, lorsque le groupe de ressources d'application bascule
ou est commut, le groupe de priphriques associ est commut.
nfs-dg-rs
Le nom de la ressource HAStoragePlus pour l'application NFS.
Pour plus d'informations propos de ces proprits d'extension, reportez-vous la page de
manuel SUNW.HAStoragePlus(5).
6

Ajoutez une ressource de nom d'hte logique au groupe de ressources d'application.


nodeA# clreslogicalhostname create -g nfs-rg \
lhost-nfsrg-prim

Le nom d'hte logique du groupe de ressources d'application sur le cluster principal se nomme
lhost-nfsrg-prim.
7

Activez les ressources, grez le groupe de ressources d'application et mettez-le en ligne.


a. Activez la ressource HAStoragePlus pour l'application NFS.
nodeA# clresource enable nfs-rs

b. Mettez le groupe de ressources d'application en ligne sur nodeA.


nodeA# clresourcegroup online -e -M -n nodeA nfs-rg

394

en ligne

Met le groupe de ressources en ligne.

-e

Permet d'activer les ressources associes.

-M

Gre le groupe de ressources.

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Permet d'indiquer le nud sur lequel mettre le groupe de ressources en ligne.

-n
nfs-rg
8

Le nom du groupe de ressources.

Assurez-vous que le groupe de ressources d'application est en ligne.


nodeA# clresourcegroup status

Examinez le champ de l'tat du groupe de ressources pour dterminer si le groupe de ressources


d'application est en ligne pour nodeA et nodeB.
tapes suivantes

Rendez-vous la section Cration d'un groupe de ressources d'application NFS sur le cluster
secondaire la page 395.

Cration d'un groupe de ressources d'application NFS sur le cluster

secondaire
Avant de
commencer

Effectuez la procdure Cration d'un groupe de ressources d'application NFS sur le cluster
primaire la page 393.

Accdez nodeC en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify, solaris.cluster.admin et solaris.cluster.read.

Enregistrez SUNW.nfs en tant que type de ressource.


nodeC# clresourcetype register SUNW.nfs

Si SUNW.HAStoragePlus n'a pas t enregistr en tant que type de ressource, enregistrez-le.


nodeC# clresourcetype register SUNW.HAStoragePlus

Crez un groupe de ressources d'application pour le groupe de priphriques.


nodeC# clresourcegroup create \
-p Pathprefix=/global/etc \
-p Auto_start_on_new_cluster=False \
-p RG_dependencies=devgrp-stor-rg \
nfs-rg

create
Cre le groupe de ressources.
-p
Spcifie une proprit du groupe de ressources.
Pathprefix=/global/etc
Spcifie un rpertoire dans lequel les ressources du groupe peuvent crire des fichiers
administratifs.
Auto_start_on_new_cluster=False
Spcifie que le groupe de ressources d'application n'est pas dmarr automatiquement.
Annexe A exemple

395

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

RG_dependencies=devgrp-stor-rg
Spcifie les groupes de ressources dont dpend le groupe de ressources d'application. Dans
cet exemple, le groupe de ressources d'application dpend du groupe de ressources de
rplication.
Si le groupe de ressources d'application est commut vers un nouveau nud principal, le
groupe de ressources de rplication est automatiquement commut. Cependant, si le groupe
de ressources de rplication est commut vers un nouveau nud principal, le groupe de
ressources d'application doit tre commut manuellement.
nfs-rg
Le nom du groupe de ressources d'application.
5

Ajoutez une ressource SUNW.HAStoragePlus au groupe de ressources d'application.


nodeC# clresource create -g nfs-rg \
-t SUNW.HAStoragePlus \
-p FileSystemMountPoints=/global/mountpoint \
-p AffinityOn=True \
nfs-dg-rs

create
Cre la ressource.
-g
Spcifie le groupe de ressources auquel la ressource est ajoute.
-t SUNW.HAStoragePlus
Spcifie que la ressource est de type SUNW.HAStoragePlus .
-p
Spcifie une proprit de la ressource.
FileSystemMountPoints=/global/
Spcifie que le point de montage pour le systme de fichiers est global.
AffinityOn=True
Permet d'indiquer que la ressource d'application doit effectuer une commutation d'analogie
pour les priphriques globaux et les systmes de fichier du cluster dfinis par -x
GlobalDevicePaths=. Par consquent, lorsque le groupe de ressources d'application bascule
ou est commut, le groupe de priphriques associ est commut.
nfs-dg-rs
Le nom de la ressource HAStoragePlus pour l'application NFS.
Pour plus d'informations propos de ces proprits d'extension, reportez-vous la page de
manuel SUNW.HAStoragePlus(5).
6

Ajoutez une ressource de nom d'hte logique au groupe de ressources d'application.


nodeC# clreslogicalhostname create -g nfs-rg \
lhost-nfsrg-sec

396

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Le nom d'hte logique du groupe de ressources d'application sur le cluster secondaire se


nomme lhost-nfsrg-sec.
7

Ajoutez une ressource NFS au groupe de ressources d'application.


nodeC# clresource create -g nfs-rg \
-t SUNW.nfs -p Resource_dependencies=nfs-dg-rs nfs-rg

Assurez-vous que le groupe de ressources d'application ne se mette pas en ligne sur nodeC.
nodeC#
nodeC#
nodeC#
nodeC#

clresource disable -n nodeC nfs-rs


clresource disable -n nodeC nfs-dg-rs
clresource disable -n nodeC lhost-nfsrg-sec
clresourcegroup online -n "" nfs-rg

Le groupe de ressources reste hors ligne aprs un redmarrage, car


Auto_start_on_new_cluster=False.
9

Si le volume global est mont sur le cluster principal, dmontez le volume global du cluster
secondaire.
nodeC# umount /global/mountpoint

Si le volume est mont sur un cluster secondaire, la synchronisation choue.


tapes suivantes

Rendez-vous la section Exemple d'activation de la rplication de donnes la page 397.

Exemple d'activation de la rplication de donnes


Cette section dcrit l'activation de la rplication de donnes pour l'exemple de configuration.
Cette section utilise les commandes du logiciel Sun StorageTek Availability Suite sndradm et
iiadm. Pour plus d'informations propos de ces commandes, reportez-vous la documentation
de Sun StorageTek Availability Sun Cluster 3.0 and Sun StorEdge Software Integration Guide.
Cette section contient les procdures suivantes :

Activation de la rplication sur le cluster principal la page 397


Activation de la rplication sur le cluster secondaire la page 399

Activation de la rplication sur le cluster principal


1

Accdez nodeA en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.read.

Videz toutes les transactions.


nodeA# lockfs -a -f
Annexe A exemple

397

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Confirmez que les noms d'hte logique lhost-reprg-prim et lhost-reprg-sec sont en lignes.
nodeA# clresourcegroup status
nodeC# clresourcegroup status

Examinez le champ d'tat du groupe de ressources.


4

Activez la rplication par miroir distant du cluster principal vers le cluster secondaire.
Cette tape active la rplication du volume principal du cluster principal vers le volume
principal du cluster secondaire. De plus, cette tape active la rplication vers le bitmap miroir
distant sur vol04.

Si le cluster principal et le cluster secondaire ne sont pas synchroniss, excutez cette


commande :
nodeA# /usr/sbin/sndradm -n -e lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync

Si le cluster principal et le cluster secondaire sont synchroniss, excutez cette commande :


nodeA# /usr/sbin/sndradm -n -E lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync

Activez la synchronisation automatique.


Excutez cette commande pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -n -a on lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync

Cette tape active la synchronisation automatique. Lorsque l'tat actif de la synchronisation


automatique est dfini sur activ, les ensembles de volumes sont resynchroniss si le systme
redmarre ou si une panne se produit.
6

Vrifiez que le cluster se trouve en mode de journalisation.


Utilisez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -P

La sortie doit ressembler ce qui suit :


/dev/vx/rdsk/devgrp/vol01 ->
lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01
autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
devgrp, state: logging
398

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

En mode de journalisation, l'tat est journalisation et l'tat actif de la synchronisation est


dsactiv. Lorsque quelque chose est crit sur le volume de donnes du disque, le fichier
bitmap sur le mme disque est mis jour.
7

Activez l'instantan ponctuel.


Utilisez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/iiadm -e
/dev/vx/rdsk/devgrp/vol01
/dev/vx/rdsk/devgrp/vol02
/dev/vx/rdsk/devgrp/vol03
nodeA# /usr/sbin/iiadm -w
/dev/vx/rdsk/devgrp/vol02

ind \
\
\
\

Cette tape permet au volume principal du cluster principal d'tre copi sur le volume en
double du mme cluster. Le volume principal, le volume en double et le volume bitmap
ponctuel doivent se trouver dans le mme groupe de priphriques. Dans cet exemple, vol01
correspond au volume principal, vol02 au volume en double et vol03 au volume bitmap
ponctuel.
8

Joignez l'instantan ponctuel l'ensemble de miroir distant.


Utilisez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -I a \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol02 \
/dev/vx/rdsk/devgrp/vol03

Cette tape associe l'instantan ponctuel l'ensemble de volume de miroir distant. Le logiciel
Sun StorageTek Availability Suite garantit la prise d'un instantan ponctuel avant que la
rplication par miroir puisse se produire.
tapes suivantes

Rendez-vous la section Activation de la rplication sur le cluster secondaire la page 399.

Activation de la rplication sur le cluster secondaire


Avant de
commencer

Effectuez la procdure Activation de la rplication sur le cluster principal la page 397.

Accdez nodeC en tant que superutilisateur.

Videz toutes les transactions.


nodeC# lockfs -a -f

Activez la rplication par miroir distant du cluster principal vers le cluster secondaire.
Utilisez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeC# /usr/sbin/sndradm -n -e lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync
Annexe A exemple

399

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Le cluster principal dtecte la prsence du cluster secondaire et dmarre la synchronisation.


Reportez-vous au fichier journal systme /var/adm pour Sun StorageTek Availability Suite pour
plus d'informations propos des statuts des clusters.
4

Activez l'instantan ponctuel indpendant.


Utilisez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeC# /usr/sbin/iiadm -e
/dev/vx/rdsk/devgrp/vol01
/dev/vx/rdsk/devgrp/vol02
/dev/vx/rdsk/devgrp/vol03
nodeC# /usr/sbin/iiadm -w
/dev/vx/rdsk/devgrp/vol02

ind \
\
\
\

Joignez l'instantan ponctuel l'ensemble de miroir distant.


Utilisez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeC# /usr/sbin/sndradm -I a \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol02 \
/dev/vx/rdsk/devgrp/vol03

tapes suivantes

Rendez-vous la section Exemple de ralisation de la rplication de donnes la page 400.

Exemple de ralisation de la rplication de donnes


Cette section dcrit la ralisation de la rplication de donnes pour l'exemple de configuration.
Cette section utilise les commandes du logiciel Sun StorageTek Availability Suite sndradm et
iiadm. Pour plus d'informations propos de ces commandes, reportez-vous la documentation
de Sun StorageTek Availability Suite Sun Cluster 3.0 and Sun StorEdge Software Integration
Guide.
Cette section contient les procdures suivantes :

Ralisation d'une rplication par miroir distant la page 400


Ralisation d'un instantan ponctuel la page 402
Vrification de la configuration correcte de la rplication la page 403

Ralisation d'une rplication par miroir distant


Dans cette procdure, le volume principal du disque principal est rpliqu sur le volume
principal du disque secondaire. vol01 correspond au volume principal et vol04 au volume
bitmap de miroir distant.
1
400

Accdez nodeA en tant que superutilisateur.


Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Vrifiez que le cluster se trouve en mode de journalisation.


Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -P

La sortie doit ressembler ce qui suit :


/dev/vx/rdsk/devgrp/vol01 ->
lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01
autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
devgrp, state: logging

En mode de journalisation, l'tat est journalisation et l'tat actif de la synchronisation est


dsactiv. Lorsque quelque chose est crit sur le volume de donnes du disque, le fichier
bitmap sur le mme disque est mis jour.
3

Videz toutes les transactions.


nodeA# lockfs -a -f

Rptez les tape 1 tape 3 sur nodeC.

Copiez le volume principal de nodeA sur le volume principal de nodeC.


Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -n -m lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync

Attendez la fin de la rplication et de la synchronisation des volumes.


Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -n -w lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync

Confirmez que le cluster se trouve en mode de rplication.


Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -P

La sortie doit ressembler ce qui suit :


/dev/vx/rdsk/devgrp/vol01 ->
lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01
autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
devgrp, state: replicating

En mode de rplication, l'tat est rplication (replicating et l'tat actif de la synchronisation


est activ (on). Lorsque quelque chose est crit sur le volume principal, le volume secondaire est
mis jour par le logiciel Sun StorageTek Availability Suite.
Annexe A exemple

401

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

tapes suivantes

Rendez-vous la section Ralisation d'un instantan ponctuel la page 402.

Ralisation d'un instantan ponctuel


Dans cette procdure, l'instantan ponctuel est utilis pour synchroniser le volume en double
du cluster principal avec le volume principal du cluster principal. vol01 correspond au volume
principal, vol02 au volume bitmap et vol03 au volume en double.
Avant de
commencer

Effectuez la procdure Ralisation d'une rplication par miroir distant la page 400.

Accdez nodeA en tant que superutilisateur ou utilisez un rle fournissant une autorisation
RBAC solaris.cluster.modify et solaris.cluster.admin.

Dsactivez la ressource en cours d'excution sur nodeA.


nodeA# clresource disable -n nodeA nfs-rs

Modifiez le cluster principal pour le mode de journalisation.


Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync

Lorsque quelque chose est crit sur le volume de donnes du disque, le fichier bitmap sur le
mme disque est mis jour. Aucune rplication ne se produit.
4

Synchronisez le volume en double du cluster principal au volume principal du cluster principal.


Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02
nodeA# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02

Synchronisez le volume en double du cluster secondaire au volume principal du cluster


secondaire.
Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeC# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02
nodeC# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02

Redmarrez l'application sur nodeA.


nodeA# clresource enable -n nodeA nfs-rs

Resynchronisez le volume secondaire avec le volume principal.


Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \

402

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync
tapes suivantes

Rendez-vous la section Vrification de la configuration correcte de la rplication


la page 403.

Vrification de la configuration correcte de la rplication


Avant de
commencer

Effectuez la procdure Ralisation d'un instantan ponctuel la page 402.

Accdez nodeA et nodeC en tant que superutilisateur ou utilisez un rle fournissant une
autorisation RBAC solaris.cluster.admin.

Vrifiez que le cluster principal est en mode de rplication et que la synchronisation


automatique est active.
Utilisez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -P

La sortie doit ressembler ce qui suit :


/dev/vx/rdsk/devgrp/vol01 ->
lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01
autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
devgrp, state: replicating

En mode de rplication, l'tat est rplication (replicating et l'tat actif de la synchronisation


est activ (on). Lorsque quelque chose est crit sur le volume principal, le volume secondaire est
mis jour par le logiciel Sun StorageTek Availability Suite.
3

Si le cluster principal n'est pas en mode de rplication, mettez-le en mode de rplication.


Utilisez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync

Crez un rpertoire sur un ordinateur client.


a. Connectez-vous un ordinateur client en tant que superutilisateur.
Une invite ressemblant ceci s'affiche :
client-machine#

b. Crez un rpertoire sur l'ordinateur client.


client-machine# mkdir /dir
Annexe A exemple

403

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Montez le rpertoire sur l'application du cluster principal et affichez le rpertoire mont.


a. Montez le rpertoire sur l'application du cluster principal.
client-machine# mount -o rw lhost-nfsrg-prim:/global/mountpoint /dir

b. Affichez le rpertoire mont.


client-machine# ls /dir
6

Montez le rpertoire sur l'application du cluster secondaire et affichez le rpertoire mont.


a. Dmontez le rpertoire de l'application du cluster principal.
client-machine# umount /dir

b. Mettez le groupe de ressources d'application hors ligne sur le cluster principal.


nodeA#
nodeA#
nodeA#
nodeA#

clresource disable -n nodeA nfs-rs


clresource disable -n nodeA nfs-dg-rs
clresource disable -n nodeA lhost-nfsrg-prim
clresourcegroup online -n "" nfs-rg

c. Modifiez le cluster principal pour le mode de journalisation.


Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync

Lorsque quelque chose est crit sur le volume de donnes du disque, le fichier bitmap sur le
mme disque est mis jour. Aucune rplication ne se produit.
d. Assurez-vous que le rpertoire PathPrefix est disponible.
nodeC# mount | grep /global/etc

e. Mettez le groupe de ressources d'application en ligne sur le cluster secondaire.


nodeC# clresourcegroup online -n nodeC nfs-rg

f. Accdez l'ordinateur client en tant que superutilisateur.


Une invite ressemblant ceci s'affiche :
client-machine#

g. Montez le rpertoire cr dans l'tape 4 sur l'application du cluster secondaire.


client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir

h. Affichez le rpertoire mont.


client-machine# ls /dir
404

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Assurez-vous que le rpertoire affich dans l'tape 5 est le mme que celui affich dans
l'tape 6.

Retournez l'application sur le cluster principal vers le rpertoire mont.


a. Mettez le groupe de ressources d'application hors ligne sur le cluster secondaire.
nodeC#
nodeC#
nodeC#
nodeC#

clresource disable -n nodeC nfs-rs


clresource disable -n nodeC nfs-dg-rs
clresource disable -n nodeC lhost-nfsrg-sec
clresourcegroup online -n "" nfs-rg

b. Assurez-vous que le volume global est mont partir du cluster secondaire.


nodeC# umount /global/mountpoint

c. Mettez le groupe de ressources d'application en ligne sur le cluster primaire.


nodeA# clresourcegroup online -n nodeA nfs-rg

d. Modifiez le cluster principal pour le mode de rplication.


Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync

Lorsque quelque chose est crit sur le volume principal, le volume secondaire est mis jour
par le logiciel Sun StorageTek Availability Suite.
Voir aussi

Exemple de gestion d'un basculement la page 405

Exemple de gestion d'un basculement


Cette section dcrit la procdure de provocation d'un basculement et de transfert de
l'application vers le cluster secondaire. Aprs un basculement, mettez les entres DNS jour.
Pour des informations supplmentaires, reportez-vous aux Directives pour la gestion d'un
basculement la page 379.
Cette section contient les procdures suivantes :

Dclenchement d'un basculement la page 406


Mise jour d'une entre DNS la page 407

Annexe A exemple

405

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Dclenchement d'un basculement


1

Accdez nodeA et nodeC en tant que superutilisateur ou utilisez un rle fournissant une
autorisation RBAC solaris.cluster.admin.

Modifiez le cluster principal pour le mode de journalisation.


Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
/dev/vx/rdsk/devgrp/vol01 \
/dev/vx/rdsk/devgrp/vol04 ip sync

Lorsque quelque chose est crit sur le volume de donnes du disque, le volume bitmap sur le
mme groupe de priphriques est mis jour. Aucune rplication ne se produit.
3

Confirmez que le cluster principal et le cluster secondaire sont en mode de journalisation et que
la synchronisation automatique est dsactive.
a. Sur nodeA, confirmez le mode et le paramtre :
Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeA# /usr/sbin/sndradm -P

La sortie doit ressembler ce qui suit :


/dev/vx/rdsk/devgrp/vol01 ->
lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01
autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag:
devgrp, state: logging

b. Sur nodeC, confirmez le mode et le paramtre :


Excutez la commande suivante pour le logiciel Sun StorageTek Availability Suite :
nodeC# /usr/sbin/sndradm -P

La sortie doit ressembler ce qui suit :


/dev/vx/rdsk/devgrp/vol01 <lhost-reprg-prim:/dev/vx/rdsk/devgrp/vol01
autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag:
devgrp, state: logging

Pour nodeA et nodeC, l'tat doit tre journalisation et l'tat actif de synchronisation
automatique doit tre dsactiv.
4

Confirmez que le cluster secondaire est prt prendre la place du cluster principal.
nodeC# fsck -y /dev/vx/rdsk/devgrp/vol01

406

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Configuration de la rplication de donnes base sur les htes l'aide du logiciel Sun StorageTek Availability Suite

Commutez vers le cluster secondaire.


nodeC# clresourcegroup switch -n nodeC nfs-rg

tapes suivantes

Rendez-vous la section Mise jour d'une entre DNS la page 407.

Mise jour d'une entre DNS


Pour une illustration du mappage d'un client vers un cluster par DNS, reportez-vous la
Figure A6.
Avant de
commencer

Effectuez la procdure Dclenchement d'un basculement la page 406.

Dmarrez la commande nsupdate.


Pour plus d'informations, voir la page de manuel nsupdate(1M).

Supprimez le mappage DNS actuel entre le nom d'hte logique du groupe de ressources
d'application et l'adresse IP du cluster, pour les deux clusters.
>
>
>
>

update
update
update
update

delete
delete
delete
delete

lhost-nfsrg-prim A
lhost-nfsrg-sec A
ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-prim
ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-sec

ipaddress1rev

L'adresse IP du cluster principal, dans l'ordre inverse.

ipaddress2rev

L'adresse IP du cluster secondaire, dans l'ordre inverse.

ttl

La dure de vie, en secondes. Une valeur standard est 3600.

Crez le nouveau mappage DNS entre le nom d'hte logique du groupe de ressources
d'application et l'adresse IP du cluster, pour les deux clusters.
Mappez le nom d'hte logique principal l'adresse IP du cluster secondaire et le nom d'hte
logique secondaire l'adresse IP du cluster principal.
>
>
>
>

update
update
update
update

add
add
add
add

lhost-nfsrg-prim ttl A ipaddress2fwd


lhost-nfsrg-sec ttl A ipaddress1fwd
ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-prim
ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-sec

ipaddress2fwd

L'adresse IP du cluster secondaire, dans l'ordre.

ipaddress1fwd

L'adresse IP du cluster principal, dans l'ordre.

Annexe A exemple

407

408

Index

A
Activation de cbles de transport, 232
Activation et dsactivation d'une base MIB
d'vnements SNMP, 292, 293
Adaptateur de transport, 229
Administration
Cluster avec outil d'interface graphique, 361369
Cluster de zones, 18, 281
Cluster global, 18
Interconnexion de cluster et rseaux
publics, 223241
IPMP, 223241
Nud non votant du cluster global, 18
Paramtre du cluster global, 259302
Priphrique rpliqu bas sur le stockage, 97121
Priphrique rpliqu EMC SRDF, 109121
Priphrique rpliqu Hitachi TrueCopy, 98109
Systme de fichiers du cluster, 121
Adresse IP, Ajout d'un service de nommage pour les
zones IP exclusives, 249
Affichage
Configuration d'un cluster de zones, 36
Configuration du cluster global, 36
Affichage des ressources configures, 31
Affichage sous forme de liste, Configuration d'un
groupe de priphriques, 164
Ajout
Cble, adaptateur et commutateur de transport, 226
Groupe de priphriques, 132, 134135
Groupe de priphriques Solaris Volume
Manager, 134
Hte SNMP, 294

Ajout (Suite)
Nud, 243249
Nud un cluster de zones, 244
Nud un cluster global, 244
Nud sur un groupe de priphriques, 153
Nouveau volume dans un groupe de
priphriques, 143
Priphrique de quorum, 193
Priphrique de quorum de disque partag attach
directement, 194
Priphrique de quorum de serveur de quorum, 200
Priphrique de quorum NAS, 197
Priphrique de quorum Sun NAS, 195
Priphrique de quorum Sun Storage 7000 Unified
Storage Systems NAS, 195
Rle (RBAC), 53
Rle personnalis (RBAC), 56
Systme de fichiers du cluster, 174177
Utilisateur SNMP, 296
ZFS, groupe de priphriques, 135
Ajout d'adaptateur de transport, 229
Ajout d'adaptateurs de transport, 226
Ajout de commutateur de transport, 229
Ajout de commutateurs de transport, 226
Annulation de l'enregistrement
Groupe de priphriques, 152
Groupe de priphriques Solaris Volume
Manager, 137
Application de basculement pour la rplication de
donnes
Commutation d'analogie, 376

409

Index

Application de basculement pour la rplication de


donnes (Suite)
Directive
Gestion du basculement, 379
Groupe de ressources, 377378
Gestion, 405407
Application volutive pour la rplication de
donnes, 378379
Arrt
Cluster de zones, 65
Cluster global, 65
Nud, 6982
Nud de cluster de zones, 6982
Nud de cluster global, 6982
Assistant d'ajout d'un rle administratif,
Description, 53
Attribut, Voir Proprit
autoboot (proprit), 247
Availability Suite, Utilisation pour la rplication de
donnes, 371

B
Baie de stockage, Suppression, 255
basculement d'analogie, Proprit d'extension pour la
rplication de donnes, 376
Base MIB
Activation et dsactivation d'vnements
SNMP, 292, 293
Modification du protocole des vnements
SNMP, 293
Base MIB d'vnements
Activation et dsactivation SNMP, 293
Modification du protocole SNMP, 293
Base MIB d'vnements MIB, Activation et
dsactivation SNMP, 292
Bitmap
Instantan ponctuel, 373
Rplication par miroir distant, 372
boot (commande), 6365

410

C
Cble de transport, 229
Activation, 232
Ajout, 226, 229
Dsactivation, 233
cconsole (commande), 22, 26
ccp (commande), 21, 26
Changement
Nud principal, 165166
Nud principal d'un groupe de
priphriques, 165166
Changement du nud principal d'un groupe de
priphriques, 165166
Chemin d'accs la zone, Dplacement, 281
Chemin de disque
Contrle, 93188
Impression de chemins de disques
dfectueux, 184
Correction d'une erreur d'tat, 184185
Dsactivation du contrle, 183184
Chemin de disque partag
Activation de la rinitialisation automatique, 187
Contrle, 180188
Dsactivation de la rinitialisation
automatique, 188
claccess (commande), 21
cldevice (commande), 21
cldevicegroup (commande), 21
Cl de scurit, Renouvellement, 365
clinterconnect (commande), 21
clnasdevice (commande), 21
clnode (commande), 279, 280281
clnode check (commande), 21
clquorum (commande), 21
clreslogicalhostname (commande), 21
clresource (commande), 21
Suppression des ressources et groupes de
ressources, 282
clresourcegroup (commande), 21, 280281
clresourcetype (commande), 21
clressharedaddress (commande), 21
clsetup (utilitaire), 20, 21, 28
clsnmphost (commande), 21
clsnmpmib (commande), 21

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Index

clsnmpuser (commande), 21
cltelemattribute (commande), 21
Cluster
Authentification, 262
Dfinition de l'heure et de la date, 264
Installation d'un patch avec rinitialisation, 322
Modification du nom, 260261
Restauration de fichiers, 345
Sauvegarde, 23, 333345
cluster check (commande), 21
Vrification du fichier vfstab, 176
Cluster Control Panel (CCP), 22
Cluster de campus
Rcupration avec rplication de donnes base sur
le stockage, 91
Rplication de donnes base sur le stockage, 8892
Cluster de zones
Administration, 259302
Affichage de la configuration, 36
Clonage, 281
Dfinition, 18
Dplacement d'un chemin d'accs la zone, 281
Fermeture, 5983
Initialisation, 5983
Prparation pour l'excution d'applications, 281
Rinitialisation, 65
Statut d'un composant, 33
Suppression d'un systme de fichiers, 281
Validation de la configuration, 45
Cluster global
Administration, 259302
Affichage de la configuration, 36
Dfinition, 18
Fermeture, 5983
Initialisation, 5983
Rinitialisation, 65
Statut d'un composant, 33
Suppression des nuds, 251
Validation de la configuration, 45
cluster shutdown (commande), 5969
clzonecluster
Arrt, 5969
Description, 28
Initialisation, 6365

clzonecluster (commande), 21
Commande
boot, 6365
cconsole, 22, 26
ccp, 21, 26
claccess, 21
cldevice, 21
cldevicegroup, 21
clinterconnect, 21
clnasdevice, 21
clnode check, 21
clquorum, 21
clreslogicalhostname, 21
clresource, 21
clresourcegroup, 21
clresourcetype, 21
clressharedaddress, 21
clsetup, 21
clsnmphost, 21
clsnmpmib, 21
clsnmpuser, 21
cltelemetryattribute, 21
cluster check, 21, 24, 45, 47
cluster shutdown, 5969
clzonecluster, 21, 5969
clzonecluster verify, 45
crlogin, 26
cssh, 26
ctelnet, 26
metaset, 9397
netcon, 22
Commutateur de transport, 229
Commutation d'analogie, Configuration pour la
rplication de donnes, 390
Commutation pour la rplication de donnes
Commutation d'analogie, 376
Ralisation, 405407
Comptes utilisateur, outil, Description, 57
Configuration
Code mineur de groupe de priphriques, 144
Priphrique rpliqu Hitachi TrueCopy, 98100
Rplication de donnes, 371407
Rle (RBAC), 5152
411

Index

Configuration, exemple (clustering de campus), Deux


pices, rplication base sur le stockage, 8892
Configuration de limites de charge, Nud, 280281
Connexion, Distante, 26
Connexion distante, 26
Connexion scurise aux consoles du cluster, 27
Console
Connexion, 26
Connexion scurise, 27
Console d'administration, 22
Conteneur d'agent commun
Modification du numro de port, 364
Renouvellement des cls de scurit, 365
Conteneur Oracle Solaris
autoboot (proprit), 247
Modification du fichier nsswitch.conf, 248
Zone IP exclusive
Configuration des groupes IPMP, 248
Configuration du fichier hosts, 249
Zone IP partage, 247
Contrle
Chemin de disque, 181183
Chemin de disque partag, 187
Contrle d'accs bas sur les rles, Voir RBAC
Convention de nommage
Groupe de ressources de rplication, 376
Priphrique de disque brut, 175
Cration, Nouveau groupe de disques, 136137
crlogin (commande), 26
cssh (commande), 26
ctelnet (commande), 26

D
Dfinition de l'heure d'un cluster, 264
Dmarrage
Cluster de zones, 6365
Cluster global, 6365
Nud, 6982
Nud de cluster de zones, 6982
Nud de cluster global, 6982
Oracle Solaris Cluster Manager, 366
Dernier priphrique de quorum, Suppression, 205
Dsactivation des cbles de transport, 233
412

Dsactivation du contrle, Chemin de disque, 183184


Dsinstallation
Fichier de priphrique LOFI, 289
Logiciel Oracle Solaris Cluster, 287
Domain Name System (DNS)
Directive pour la mise jour, 380
Mise jour dans la rplication de donnes, 407
DR, Voir Reconfiguration dynamique

E
EMC SRDF
Administration, 109121
Configuration d'un groupe de rplication, 109111
Configuration de priphriques DID, 111113
Configuration requise, 90
Copie adaptative, 89
Exemple de configuration, 114121
Mode Domino, 89
Pratiques recommandes, 92
Rcupration aprs la dfaillance totale de la salle
principale du cluster campus, 118121
Restriction, 90
Vrification de la configuration, 113
Encapsulation, 141
Enregistrement
Groupe de disques en tant que groupe de
priphriques, 145
Modification de la configuration de groupes de
disques, 148
Ensemble de processeurs ddi, Configuration, 310
Espace de noms
Global, 9397
Migration, 128
Espace de noms des priphriques globaux,
Migration, 128
/etc/inet/hosts (fichier), Configuration dans des
zones IP exclusives, 249
/etc/nsswitch.conf (fichier), Modification de la zone
non globale, 248
/etc/vfstab (fichier), 47
Ajout de points de montage, 175
Vrification de la configuration, 176

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Index

Exemple, Cration d'un systme de fichiers du


cluster, 177
Exemple de configuration (clustering de campus), Deux
pices, rplication base sur le stockage, 8892

F
failback (proprit), 159
Fermeture
Cluster de zones, 5983
Cluster global, 5983
Nud, 6982
Nud de cluster de zones, 6982
Nud de cluster global, 6982
Zone non globale, 69
Fichier
/etc/vfstab, 47
md.conf, 132
md.tab, 23
ntp.conf.cluster, 269
Restauration interactive, 346
Fichier LOFI, Dsinstallation, 289
Fonctions prises en charge, VxFS, 121
Fonctions VxFS prises en charge, 121

G
Gestion, Quorum, 189215
gestion de l'alimentation, 259
Gestionnaire de volumes, Veritas, 9697
Gestionnaire Solaris Cluster Oracle, 361
Global
Espace de noms, 9397, 126
Priphrique, 93188
Configuration des permissions, 94
Reconfiguration dynamique, 9496
Point de montage, vrification, 180
Point de montage (vrification), 47
Groupe de disques
Cration, 136137
Enregistrement, 145
Enregistrement des modifications de la
configuration, 148

Groupe de disques (Suite)


Modification, 144
Groupe de priphriques
Affichage sous forme de liste de la
configuration, 164
Ajout, 134
Assignation d'un nouveau code mineur, 144
Configuration pour la rplication de donnes, 384
Disque brut
Ajout, 134135
tat de maintenance, 166
Modification des proprits, 159
Prsentation de l'administration, 123
Proprit principale, 159
Suppression et annulation de l'enregistrement, 137,
152
SVM
Ajout, 132
Vrification de l'enregistrement, 150
Groupe de priphriques de disque brut,
Ajout, 134135
Groupe de ressource
Rplication de donnes
Directive pour la configuration, 375
Groupe de ressources
Rplication de donnes
Configuration, 376
Rle en basculement, 376
Groupe de ressources d'adresse partage pour la
rplication de donnes, 379
Groupe de ressources d'application
Configuration pour la rplication de
donnes, 393395
Directive, 376

H
Hitachi TrueCopy
Administration, 98109
Configuration d'un groupe de rplication, 98100
Configuration de priphriques DID, 100102
Configuration requise, 90
Exemple de configuration, 103109
Mode Data ou Status, 89
413

Index

Hitachi TrueCopy (Suite)


Pratiques recommandes, 92
Restriction, 90
Vrification de la configuration, 102103
Hors service, Priphrique de quorum, 210
hosts (fichier), Configuration dans des zones IP
exclusives, 249
Hte
Ajout et suppression SNMP, 294, 295

K
/kernel/drv/, md.conf (fichier), 132

L
Limite de charge
concentrate_load (proprit), 279
Configuration sur des nuds, 279, 280281
preemption_mode (proprit), 279
Liste, Configuration de quorum, 213

I
Impression, Chemin de disque dfectueux, 184
Information de version, 29
Informations DID, Mise jour manuelle, 184185
Initialisation
Cluster de zones, 5983
Cluster global, 5983
Mode non cluster, 79
Nud, 6982
Nud de cluster de zones, 6982
Nud de cluster global, 6982
Initialisation en mode non cluster, 79
Installation
Patch, 318
Patch sans rinitialisation, 325
Instantan
Voir Rplication base sur le stockage
ponctuel, 373
Instantan ponctuel
Dfinition, 373
Ralisation, 402403
Interconnexion de cluster
Administration, 223241
Reconfiguration dynamique, 225
Vrification de l'tat, 225
Interface graphique, outil d'administration, 361369
IPMP
Administration, 239
Groupe dans les zones IP exclusives
Configuration, 248
Statut, 35
414

M
Maintenance
Nud, 275
Priphrique de quorum, 210
md.tab (fichier), 23
Message d'erreur
Suppression des nuds, 257258
/var/adm/messages (fichier), 82
metaset (commande), 9397
Migration, Espace de noms des priphriques
globaux, 128
Miroir, sauvegarde en ligne, 338
Mise jour, Dans les nuds non votants du cluster
global, 320
Mise jour de l'espace de noms global, 126
Mise jour du logiciel Oracle Solaris Cluster, 315317
Mise jour manuelle des informations DID, 184185
Mise en mmoire distante, Voir Rplication base sur le
stockage
Mise en miroir locale, Voir Rplication base sur le
stockage
Mode de maintenance
Mise d'un priphrique de quorum en, 210
Sortie d'un priphrique de quorum du, 211
Modification
Adresse du serveur Oracle Solaris Cluster
Manager, 365
du protocole de la base MIB d'vnements
SNMP, 293
Groupe de disques, 144
Liste de nuds de priphrique de quorum, 207

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Index

Modification (Suite)
Nom d'hte priv, 267
Nom du cluster, 260261
Numro de port, utilisation du conteneur d'agent
commun, 364
numsecondaries (proprit), 160
Proprit, 159
Utilisateur (RBAC), 57

N
Nud
Ajout, 243249
Ajout un groupe de priphriques, 153
Authentification, 262
Configuration de limites de charge, 280281
Connexion, 26
Fermeture, 6982
Initialisation, 6982
Installation d'un patch avec rinitialisation, 318
Mise en mode de maintenance, 275
Principal, 9496, 159
Renommage dans un cluster de zones, 272
Renommage dans un cluster global, 272
Secondaire, 159
Suppression
Message d'erreur, 257258
Suppression de groupes de priphriques, 155
Suppression de nuds non votants d'un cluster
global, 254
Suppression depuis un cluster de zones, 250
Suppression des groupes de priphriques, 138
Suppression des nuds d'un cluster global, 251
Nud de cluster de zones
Fermeture, 6982
Initialisation, 6982
Rinitialisation, 7579
Nud de cluster global
Fermeture, 6982
Initialisation, 6982
Rinitialisation, 7579
Nud non votant de cluster global, Fermeture et
rinitialisation, 69

Nud non votant du cluster global


Administration, 18
Ajout d'un nom d'hte priv, 270
Installation de patchs, 320
Modification du nom d'hte priv, 270
Partage de CPU, 307, 310
Suppression du nom d'hte, 272
Nud votant du cluster global
Administration du systme de fichiers du
cluster, 121
Partage de CPU, 305
Nuds, Recherche d'ID, 262
Nuds non votant du cluster global, Administration du
systme de fichiers du cluster, 121
NAS, Voir Priphrique de quorum NAS
NetApp, Voir Priphrique de quorum NAS
netcon (commande), 22
Network File System (NFS), Configuration des systmes
de fichiers d'application pour la rplication de
donnes, 387388
Nom d'hte, Suppression sur les nuds non votants du
cluster global, 272
Nom d'hte priv
Affectation des zones, 247
Modification, 267
Modification sur les nuds non votants du cluster
global, 270
Nud non votant du cluster global, 270
nsswitch.conf (fichier), Modification de la zone non
globale, 248
ntp.conf.cluster (fichier), 269
Numro de port, Modification l'aide du conteneur
d'agent commun, 364
numsecondaries (proprit), 160

O
OpenBoot PROM (OBP), 266
Option de montage des systmes de fichiers du cluster,
Configuration requise, 176
Oracle Solaris Cluster Manager, 20
Dmarrage, 366
Modification de l'adresse du serveur, 365
Paramtrage des rles RBAC, 363
415

Index

Ordonnanceur de partage quitable, Configuration des


partages de CPU, 304
Outil d'administration interface graphique, 20
Outil d'administration de l'interface graphique
Gestionnaire Solaris Cluster Oracle, 361
Sun Management Center, 362
Outil d'administration par ligne de commande, 20

P
Partage de CPU
Configuration, 303
Contrle, 303
Ensemble de processeurs ddi aux nuds non
votant du cluster global, 310
Nud non votant du cluster global, 307
Nud votant du cluster global, 305
Patch
Conseil, 316
Installation d'un patch avec rinitialisation, 318
Installation d'un patch sans rinitialisation, 325
Installation sur un cluster ou un
microprogramme, 322
Priphrique, Global, 93188
Priphrique de disque brut, Convention de
nommage, 175
Priphrique de quorum
Ajout, 193
Priphrique de quorum de disque partag
attach directement, 194
Priphrique de quorum de serveur de
quorum, 200
Priphrique de quorum NAS, 197
Priphrique de quorum Sun NAS, 195
Priphrique de quorum Sun Storage 7000
Unified Storage Systems NAS, 195
Liste de la configuration, 213
Mode de maintenance, mise d'un priphrique
en, 210
Mode de maintenance, sortie d'un priphrique
du, 211
Modification d'une liste de nuds, 207
Reconfiguration dynamique des priphriques, 191
Remplacement, 206207
416

Priphrique de quorum (Suite)


rparation, 214
Suppression, 191, 204
Suppression du dernier priphrique de
quorum, 205
Priphrique de quorum de disque partag attach
directement, Ajout, 194
Priphrique de quorum de serveur de quorum
Ajout, 200
Condition requise pour l'installation, 200
Suppression de dpannage, 205
Priphrique de quorum NAS, Ajout et
installation, 197
Priphrique de quorum Sun NAS, Ajout, 195
Priphrique de quorum Sun Storage 7000 Unified
Storage Systems NAS, Ajout, 195
Priphrique rpliqu bas sur le stockage,
Administration, 97121
Permissions, priphrique global, 94
Point de montage
Global, 47
Modification du fichier /etc/vfstab, 175
Pratique recommande
EMC SRDF, 92
Hitachi TrueCopy, 92
Rplication de donnes base sur le stockage, 92
Prsentation, Quorum, 189215
Processeur de services systme (SSP), 22
Profil de droits, RBAC, 5253
Profils, Droits RBAC, 5253
Proprit
failback, 159
numsecondaries, 160
preferenced, 159
Proprit d'extension pour la rplication de donnes
Ressource d'application, 394, 396
Ressource de rplication, 390, 391
Proprit principale de groupe de priphriques, 159

Q
Quorum
Administration, 189215
Prsentation, 189215

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Index

Quorum, priphrique, Rplication base sur le


stockage, 91

R
RBAC, 5158
Nud non votant, 52
Nud votant du cluster global, 52
Oracle Solaris Cluster Manager, 363
Profil de droits(description), 5253
Tche
Ajout d'un rle, 53
Ajout d'un rle personnalis, 56
Configuration, 5152
Modification des utilisateurs, 57
Utilisation, 5152
Recherche
ID du nud d'un cluster de zones, 262
ID du nud d'un cluster global, 262
Nom de systme de fichiers, 334
Reconfiguration dynamique, 9496
Interconnexion de cluster, 225
Interface de rseau public, 240
Priphrique de quorum, 191
Rcupration, Clusters avec rplication de donnes
base sur le stockage, 91
Redmarrage
Nud de cluster de zones, 7579
Nud de cluster global, 7579
Rinitialisation
Cluster de zones, 65
Cluster global, 65
Nud de cluster de zones, 7579
Nud de cluster global, 7579
Zone non globale, 69
Remplacement de priphriques de quorum, 206207
Renommage de nuds
Cluster de zones, 272
Cluster global, 272
Renouvellement, Cl de scurit, 365
Rparation, Priphrique de quorum, 214
Rparation complte du fichier
/var/adm/messages, 82
Rplication, Voir Rplication de donnes

rplication de donnes, 8592


Rplication de donnes
Activation, 397400
Asynchrone, 373
Base sur le stockage, 86, 8892
Base sur les htes, 86
Configuration
Commutation d'analogie, 376, 390
Groupe de priphriques, 384
Groupe de ressources d'application
NFS, 393395
Systme de fichier pour une application
NFS, 387388
Dfinition, 8687
Directive
Gestion de la commutation, 379
Gestion du basculement, 379
Ressource de configuration, 375
Exemple, 400405
Exemple de configuration, 380
Exigence matrielle et logicielle, 382
Gestion d'un basculement, 405407
Groupe de ressource
Configuration, 376
Groupe de ressources
Adresse partage, 379
Application, 376
Application de basculement, 377378
Application volutive, 378379
Convention de nommage, 376
Cration, 390391
Instantan ponctuel, 373, 402403
Introduction, 372
Miroir distant, 372, 400402
Mise jour d'une entre DNS, 407
Synchrone, 373
Vrification de la configuration, 403405
Rplication de donnes asynchrone, 89, 373
Rplication de donnes base sur le stockage, 8892
Configuration requise, 90
Dfinition, 86
Priphrique de quorum, 91
Pratiques recommandes, 92
Rcupration, 91
417

Index

Rplication de donnes base sur le stockage (Suite)


Restriction, 90
Rplication de donnes base sur les htes
Dfinition, 86
Exemple, 371407
Rplication de donnes synchrone, 89, 373
Rplication distante, Voir Rplication base sur le
stockage
Rplication par miroir distant
Dfinition, 372
Ralisation, 400402
Rseau public
Administration, 223241
Reconfiguration dynamique, 240
Ressource
Affichage des types configurs, 31
Suppression, 282
Ressource de nom d'hte logique, Rle dans le
basculement de la rplication de donnes, 376
Restauration
Fichier en cluster, 345
Interactive de fichiers, 346
Systme de fichiers racine, 346
partir d'un mtapriphrique, 349
partir d'un volume, 349
Systme de fichiers racine encapsul, 356
Systme de fichiers racine non encapsul, 354
Rle
Ajout d'un rle, 53
Ajout d'un rle personnalis, 56
Configuration, 5152

S
SATA, 192, 194
Sauvegarde
Cluster, 23, 333345
Miroir en ligne, 338
Systme de fichiers, 334
Systme de fichiers racine, 335
Volume en ligne, 341
SE Oracle Solaris
Contrle du CPU, 303
Dfinition d'un cluster de zones, 17
418

SE Oracle Solaris (Suite)


Dfinition d'un cluster global, 17
Instruction spciale pour la rinitialisation d'un
nud, 7579
Instructions spciales pour l'initialisation des
nuds, 7375
Rplication base sur les htes, 87
SMF, 247
svcadm (commande), 267
Tche d'administration d'un cluster global, 18
SE Solaris
Voir aussi SE Oracle Solaris
Secondaire
Dfinition du nombre souhait, 160
Numro par dfaut, 159
Serveur de quorum, Voir Priphrique de quorum de
serveur de quorum
Service de nommage, Ajout de mappages d'adresses IP
pour les zones IP exclusives, 249
Services multiutilisateurs, Vrification, 247
Shell scuris, 26, 27
showrev -p (commande), 29
SMF, Vrification des services en ligne, 247
SNMP
Activation d'htes, 294
Activation et dsactivation d'vnements
SNMP, 293
Activation et dsactivation une base MIB
d'vnements, 292
Ajout d'utilisateurs, 296
Dsactivation d'htes, 295
Modification du protocole, 293
Suppression d'utilisateurs, 297
Solaris Volume Manager, Nom de priphrique de
disque brut, 175
Solution rseau, Voir Priphrique de quorum NAS
SRDF
Voir EMC SRDF
ssh, 27
Statut
Composant d'un cluster de zones, 33
Composant d'un cluster global, 33
Sun Management Center
Description, 20

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Index

Sun Management Center (Suite)


Installation, 22
Prsentation, 362
Sun StorageTek Availability Suite, Utilisation pour la
rplication de donnes, 371
SunMC, Voir Sun Management Center
Suppression
Baie de stockage, 255
Cble, adaptateur ou commutateur de
transport, 229
Cluster de zones, 250
Dernier priphrique de quorum, 205
Groupe de priphriques, 152
Groupe de priphriques Solaris Volume
Manager, 137
Hte SNMP, 295
Nud, 249, 251
Nud d'un groupe de priphriques, 155
Nud de tous les groupes de priphriques, 138
Nud non votant sur un cluster global, 254
Priphrique de quorum, 191, 204
Ressource et groupe de ressources d'un cluster de
zones, 282
Systme de fichiers du cluster, 178180
Utilisateur, 297
Volume d'un groupe de priphriques, 151152
switchback, Directives pour la ralisation dans la
rplication de donnes, 380
Systme de fichiers
Application NFS
Configuration pour la rplication de
donnes, 387388
Recherche des noms, 334
Restauration de la racine
partir du mtapriphrique, 349
partir du volume, 349
Description, 346
Restauration de la racine non encapsule, 354
Restauration de racine encapsule, 356
Sauvegarde, 334
Suppression d'un cluster de zones, 281
Systme de fichiers de cluster
Option de montage, 176
Vrification de la configuration, 176

Systme de fichiers du cluster, 93188


Administration, 121
Ajout, 174177
Nud non votant du cluster global, 121
Nud votant du cluster global, 121
Suppression, 178180
Systme de fichiers global, Voir Systme de fichiers de
cluster

T
Tolrance de sinistre, Dfinition, 372
TrueCopy
Voir Hitachi TrueCopy

U
/usr/cluster/bin/clresource, Suppression des
groupes de ressources, 282
/usr/cluster/bin/cluster check (commande),
Vrification du fichier vfstab, 176
Utilisateur
Ajout SNMP, 296
Modification des proprits, 57
Suppression SNMP, 297
Utilisation, Rles (RBAC), 5152

V
Validation
Configuration d'un cluster de zones, 45
Configuration du cluster global, 45
/var/adm/messages (fichier), 82
Vrification
Configuration de la rplication de
donnes, 403405
Configuration vfstab, 176
tat de l'interconnexion de cluster, 225
Point de montage global, 47, 180
SMF, 247
Veritas
Administration, 9697
419

Index

Veritas (Suite)
Restauration d'un systme de fichiers racine non
encapsul, 354
Restauration du systme de fichiers racine
encapsul, 356
Sauvegarde en ligne, 341
Veritas File System (VxFS)
Administration, 177
Montage des systmes de fichiers du cluster, 177
Veritas Volume Manager (VxVM), Nom de
priphrique de disque brut, 175
vfstab (fichier)
Ajout de points de montage, 175
Vrification de la configuration, 176
Volume
Voir Rplication base sur le stockage
Sauvegarde en ligne, 341
Suppression d'un groupe de priphriques, 151152
Volumes, Ajout un groupe de priphriques, 143
VxVM, 9697

Z
ZFS
Ajout d'un groupe de priphriques, 135
Rplication, 135
Restrictions des systmes de fichiers racines, 121
Suppression d'un systme de fichiers, 283285
Zone IP exclusive, Voir Conteneur Oracle Solaris
Zone IP partage, Voir Conteneur Oracle Solaris

420

Guide d'administration systme d'Oracle Solaris Cluster Septembre 2010, Rvision A

Vous aimerez peut-être aussi